计算机

计算机 · 圈子

8559 位酷友已加入

计算机圈子中包含常用的技术文档、源代码、模型、数据集、学习教程、技术报告等干货资料,加入圈子可以上传、下载资料,也可以使用提问来寻求资料或分享你认为有价值的站外链接~

关注推荐最新

热门标签

资源

职业岗位信息爬取、分析与可视化

功能介绍 爬取数据 所有公司数据,名称简写,城市,行业,职位数量,人数范围,标签,介绍,融资阶段, 平均工资 github2016 年度最受欢迎编程语言相应年数薪水,城市,学历要求,公司融资阶段,公 司行业 大数据行业五大岗位相应年数薪水,城市,学历要求,公司融资阶段,公司行业,岗位要求 编程语言分析 编程语言在不同城市 (top10) 的需求量 编程语言在不同行业 (top10) 的需求量 编程语言在不同融资阶段的需求量 编程语言相应工作年限薪水平均值 大数据岗位分析 五个岗位的职位需求关键词词云 五个岗位在不同城市 (top10) 的需求量 五个岗位在不同行业 (top10) 的需求量 五个岗位在不同融资阶段的需求量 五个岗位相应工作年限薪水平均值 数据可视化 Bokeh Echarts 分析结果 更多分析结果可参考:https://segmentfault.com/a/1190000012262799 转载自:https://github.com/jasminecjc/lagou_data_analysis

资源

基于SVM算法的智能法律助手

项目简介 项目基于Spring Cloud,Vue构建,平台针对需要维权的用户而设计,主要提供如下三个功能模块。 一,提供问答服务模块。 用户可以在本模块中描述一句替换的话,系统将为用户推送出与用户描述相似的问题及答案。 二,罪名推测模块。 用户可以输入一个场景,系统将给用户推出此场景可能触发的罪名,量刑区间,以及可能触发的法律法规。 三,相似判定文书查询模块。 用户可以将自己的决策文书输入到系统中,系统将会为用户推送相似的决策文书。 使用说明 项目搭建 初步SpringCloud版本:Finchley.SR2。 开发工具:IDEA。 Maven版本:3.3.9。 前端 nodejs版本:v10.14.1 安装命令: npm安装服务 SVM 推荐:使用封装好的SVM算法模型的Docker合并优点如下: 基于Docker构建,可移植性很好,同学们可以直接拉取到自己服务器的Docker上,开箱即用。 添加了ApacheThrift依赖项,将算法模型封装成Thrift-Server,实现了和Java-SpringCloud的异步RPC通信。 Nginx相关配置 荐使用Nginx服务器代理静态资源。 当前项目使用Nginx按照如下几个工作,同学们自行可以参照提供的配置项做适当修改。 Nginx代理Vue打包生成的静态资源。 解决前段端的跨域配置。 将用户在前端请求转发到SpringCloud网关。 ElasticSearch相关 版本:推荐使用6.2.4 创建索引:实体类->索引 问答模块索引的建立脚本 另外两个模块的测试类像下面这样写测试类,通过Templateless脑创建就行 Ik分词器 推荐我提供的IK分词器:路径:/ resource / ik 转载自:https://github.com/zhuchangwu/lawyer-lover-cloud-backend https://github.com/zhuchangwu/lawyer-lover-vue-frontend

计算机

计算机·圈子   首发

anna 发布了
问答

如何将Keras输出损失记录到文件?

当运行Keras神经网络模型时,可能会在控制台中看到以下内容: 随着迭代次数增加,损失有望改善。我想将这些损失随时间记录到文件中,以便我可以从中学习。我试过了: 但不起作用。 我也尝试过使用如下回调: 但这显然不是在写文件。有什么方法可以将keras神经网络的损失记录到文件中吗?

计算机

计算机·圈子   首发

han 更新了
资源

综合目标测试仪(SOTS)[RESIDE] 用于单图像去雾的测试数据集

一、背景 REalistic单图像去雾(RESIDE)是由合成和实际朦胧图像组成的,可用于全面研究和评估现有的单图像去雾算法。RESIDE突出显示了各种数据源和图像内容,并分为五个子集,每个子集用于不同的训练或评估目的。RESIDE-Standard的综合目标测试集(SOTS)由室内和室外的清晰和朦胧图像子集组成。 二、 该数据集来自RESIDE Dataset的主页。有关数据集的更多详细信息,请参见相关的RESIDE出版物。基于数据集的工作应引用: 三、数据集原链接: https://www.kaggle.com/balraj98/synthetic-objective-testing-set-sots-reside

资源

考勤管理系统(内附数据库)

系统描述 基于SSH和jQuery框架完成的考勤系统设计。 使用语言为Java、Javascript、CSS以及TSQL 模块分析 员工表 字段: 员工编号 员工姓名 员工部门 员工密码 员工权限 考勤记录 字段: 迟到、早退、漏签卡、早会未到、早操未到、会议缺席:单选 考勤日期:弹出日期窗口选择 员工姓名:来自员工表,下拉选择单选 考勤时段:来自数据字典表(具体内容有:上午上班、上午下班、下午上班、下午下班),下拉选择单选 考勤说明:文字录入 记录人:默认登录人 假期申请 字段: 请假时限:日期弹出日期窗口选择,时间录入或弹出时钟窗口选择 假期时长:天数、小时录入数字,小时录入时必须小于8 假期类别:来自数据字典表(具体内容有:病假、事假、产假),下拉单选 请假原因:文字录入 出差申请 字段: 出差日期:弹出日期窗口选择 出差天数:录入数字 同行人员:来自员工表,应能多选 目的地:录入文字 出行方式:来自数据字典表(具体内容有:大巴、飞机、火车、自驾),下拉单选 出差事由:录入文字 加班申请 字段: 申请日期:默认系统当前日期 加班日期:弹出日期窗口选择 加班时长:录入数字,小数点一位 加班原因:录入文字 调休申请 字段: 申请日期:默认系统当前日期 调休时间:弹出日期窗口选择 未休时长:系统自动计算,不可修改,计算方法是:所有加班时长 - 所有调休时长;其中加班时长来自加班申请。 调休时长:录入数字,小数点一位 调休原因:录入文字 考勤申请 界面中外出次数、签卡次数不需要统计,对应的页面也不需要。第一页是考勤汇总,其他页面显示某个员工的明细信息,比如点击请假这一页,自动显示第1页所选员工在时间段内请假的明细记录。统计请假时长时,按每天8小时换算成天。 数据字典 类型:出行方式、假期类别 说明:汽车、火车…. 数据库 employee 表 属性 数据类型 说明 Eno Number(4) 编号 Ename Varchar2(20) 员工姓名 Password Varchar2(20) 密码 Dept Varchar2(20) 部门 Tq Varchar2(20) 管理员或员工 kqb 表 属性 数据类型 说明 Kqbh Number 记录编号 Kqsj Varchar2(20) 考勤时间 Lb Varchar2(20) 类别 Ygxm Varchar2(20) 员工姓名 Kqsd Varchar2(20) 考勤时段 Kqsm Varchar2(20) 说明 jlr Varchar2(20) 记录人 jq表 属性 数据类型 说明 jqno Number(4) 编号 Kssj Varchar2(20) 开始时间 Jssj Varchar2(20) 结束时间 Sc Varchar2(20) 时长 Jqlx Varchar2(20) 类型 Jqyy Varchar2(20) 请假原因 Zt Varchar2(20) 状态 Sqr Varchar2(20) 申请人 Spr Varchar2(20) 审批人 Jiaban 表 属性 数据类型 说明 Jno Number(4) 编号 Sqrq Varchar2(20) 申请日期 Jbrq Varchar2(20) 加班日期 jbsc Varchar2(20) 加班时长 jbyy Varchar2(20) 加班原因 Zt Varchar2(20) 状态 Spr Varchar2(20) 审批人 Sqr Varchar2(20) 申请人 chuchai 表 属性 数据类型 说明 Cno Varchar2(20) 编号 ccrq Varchar2(20) 出差日期 ccts Varchar2(20) 出差天数 txry Varchar2(20) 同行人员 mdd Varchar2(20) 目的地 cxfs Varchar2(20) 出差方式 ccsy Varchar2(20) 出差原因 zt Varchar2(20) 状态 sqr Varchar2(20) 申请人 spr Varchar2(20) 审批人 sjzd 表 属性 数据类型 说明 Sno Varchar2(20) 编号 Lx Varchar2(20) 类型 Sm Varchar2(20) 说明 Tiaoxiu 表 属性 数据类型 说明 Tno number 编号 sqrq Varchar2(20) 申请日期 wxsc Varchar2(20) 未休时长 txsc Varchar2(20) 调休时长 txyy Varchar2(20) 调休原因 Zt Varchar2(20) 状态 Spr Varchar2(20) 申请人 Sqr Varchar2(20) 审批人 Kssj Varchar2(20) 开始时间 jssj Varchar2(20) 结束时间 转载自:https://github.com/IamZY/ManagementSystem

计算机

计算机·圈子   首发

阿托 发布了
问答

如何评价SqueezeNet图像分类架构?

关于SqueezeNet能否详细的解释一下这个架构设计,并展示其评估结果

资源

基于深度学习的垃圾分类项目

研究目的 针对我国垃圾分类存在的问题,提出此项目旨在通过深度学习,实现垃圾的高精确度分类;在效果上,通过技术的提升提高城市居民的环境保护与节约资源的意识,促进城市居民转变现有的投放垃圾的行为方式;从长远上来看,抛砖引玉,为我国建立健全城市垃圾分类处理制度提供一些思路。 研究方法 将已经训练好了的Inception v3模型进行了再训练,完成了四大类,100多种小类的垃圾分类,通过opencv捕捉信息,通过蓝牙与stm32通讯完成了硬件部分的动作,通过js完成了上位机的编写。 实现途径: 1,通过网络爬虫创建了自己的数据集 waste-set-googlescraper.py 2,通过修改Inception v3模型的最后一层实现了分类 retrain.py wastesort.py 3,通过opencv实现了物体的检测和拍照 waste_detector.py 4,通过调用串口实现了与stm32的通讯 serial_send.py 5,通过js实现了网页端上位机的编写 6,通过stm32实现了电机的控制 综上,实现了自主拍照,自主识别,自主分类的垃圾回收装置。 环境要求 Python Tensorflow Opencv 流程介绍 准备训练集 创建名字为 training_dataset .的文件夹 通过爬虫爬取所需要训练的图片。每类图片一个文件夹,文件夹下为图片文件。图片越多,神经网络越荡漾。 开始训练 执行训练: $ bash train.sh 如果没有Inception 模型的话,程序会先下载,然后解压,保证网络链接。 检查结果 创建名为test_input 文件夹,将被分类文件放到该文件夹下 运行 python3 wastesort.py 预测结果会依次输出 将最佳结果发送给stm32 通过蓝牙串口,无线将数据发送给stm32 stm32控制电机实现垃圾的分类放置 stm32控制步进电机+舵机实现垃圾的分类 转载自:https://github.com/jzx-gooner/DL-wastesort

资源

NLP资源库

数据描述 涉及内容包括但不限于:中英文敏感词、语言检测、中外手机/电话归属地/运营商查询、名字推断性别、手机号抽取、身份证抽取、邮箱抽取、中日文人名库、中文缩写库、拆字词典、词汇情感值、停用词、反动词表、暴恐词表、繁简体转换、英文模拟中文发音、汪峰歌词生成器、职业名称词库、同义词库、反义词库、否定词库、汽车品牌词库、汽车零件词库、连续英文切割、各种中文词向量、公司名字大全、古诗词库、IT词库、财经词库、成语词库、地名词库、历史名人词库、诗词词库、医学词库、饮食词库、法律词库、汽车词库、动物词库、中文聊天语料、中文谣言数据、百度中文问答数据集、句子相似度匹配算法集合、bert资源、文本生成&摘要相关工具、cocoNLP信息抽取工具、国内电话号码正则匹配、清华大学XLORE:中英文跨语言百科知识图谱、清华大学人工智能技术系列报告、自然语言生成、NLU太难了系列、自动对联数据及机器人、用户名黑名单列表、罪名法务名词及分类模型、微信公众号语料、cs224n深度学习自然语言处理课程、中文手写汉字识别、中文自然语言处理 语料/数据集、变量命名神器、分词语料库+代码、任务型对话英文数据集、ASR 语音数据集 + 基于深度学习的中文语音识别系统、笑声检测器、Microsoft多语言数字/单位/如日期时间识别包、中华新华字典数据库及api(包括常用歇后语、成语、词语和汉字)、文档图谱自动生成、SpaCy 中文模型、Common Voice语音识别数据集新版、神经网络关系抽取、基于bert的命名实体识别、关键词(Keyphrase)抽取包pke、基于医疗领域知识图谱的问答系统、基于依存句法与语义角色标注的事件三元组抽取、依存句法分析4万句高质量标注数据、cnocr:用来做中文OCR的Python3包、中文人物关系知识图谱项目、中文nlp竞赛项目及代码汇总、中文字符数据、speech-aligner: 从“人声语音”及其“语言文本”产生音素级别时间对齐标注的工具、AmpliGraph: 知识图谱表示学习(Python)库:知识图谱概念链接预测、Scattertext 文本可视化(python)、语言/知识表示工具:BERT & ERNIE、中文对比英文自然语言处理NLP的区别综述、Synonyms中文近义词工具包、HarvestText领域自适应文本挖掘工具(新词发现-情感分析-实体链接等)、word2word:(Python)方便易用的多语言词-词对集:62种语言/3,564个多语言对、语音识别语料生成工具:从具有音频/字幕的在线视频创建自动语音识别(ASR)语料库、构建医疗实体识别的模型(包含词典和语料标注)、单文档非监督的关键词抽取、Kashgari中使用gpt-2语言模型、开源的金融投资数据提取工具、文本自动摘要库TextTeaser: 仅支持英文、人民日报语料处理工具集、一些关于自然语言的基本模型、基于14W歌曲知识库的问答尝试--功能包括歌词接龙and已知歌词找歌曲以及歌曲歌手歌词三角关系的问答、基于Siamese bilstm模型的相似句子判定模型并提供训练数据集和测试数据集、用Transformer编解码模型实现的根据Hacker News文章标题自动生成评论、用BERT进行序列标记和文本分类的模板代码、LitBank:NLP数据集——支持自然语言处理和计算人文学科任务的100部带标记英文小说语料、百度开源的基准信息抽取系统、虚假新闻数据集、Facebook: LAMA语言模型分析,提供Transformer-XL/BERT/ELMo/GPT预训练语言模型的统一访问接口、CommonsenseQA:面向常识的英文QA挑战、中文知识图谱资料、数据及工具、各大公司内部里大牛分享的技术文档 PDF 或者 PPT、自然语言生成SQL语句(英文)、中文NLP数据增强(EDA)工具、英文NLP数据增强工具 、基于医药知识图谱的智能问答系统、京东商品知识图谱、基于mongodb存储的军事领域知识图谱问答项目、基于远监督的中文关系抽取、语音情感分析、中文ULMFiT-情感分析-文本分类-语料及模型、一个拍照做题程序、世界各国大规模人名库、一个利用有趣中文语料库 qingyun 训练出来的中文聊天机器人、中文聊天机器人seqGAN、省市区镇行政区划数据带拼音标注、教育行业新闻语料库包含自动文摘功能、开放了对话机器人-知识图谱-语义理解-自然语言处理工具及数据、中文知识图谱:基于百度百科中文页面-抽取三元组信息-构建中文知识图谱、masr: 中文语音识别-提供预训练模型-高识别率、Python音频数据增广库、中文全词覆盖BERT及两份阅读理解数据、ConvLab:开源多域端到端对话系统平台、中文自然语言处理数据集、基于最新版本rasa搭建的对话系统、基于TensorFlow和BERT的管道式实体及关系抽取、一个小型的证券知识图谱/知识库、复盘所有NLP比赛的TOP方案、OpenCLaP:多领域开源中文预训练语言模型仓库、UER:基于不同语料+编码器+目标任务的中文预训练模型仓库、中文自然语言处理向量合集、基于金融-司法领域(兼有闲聊性质)的聊天机器人、g2pC:基于上下文的汉语读音自动标记模块、Zincbase 知识图谱构建工具包、诗歌质量评价/细粒度情感诗歌语料库、快速转化「中文数字」和「阿拉伯数字」、百度知道问答语料库、基于知识图谱的问答系统、jieba_fast 加速版的jieba、正则表达式教程、中文阅读理解数据集、基于BERT等最新语言模型的抽取式摘要提取、Python利用深度学习进行文本摘要的综合指南、知识图谱深度学习相关资料整理、维基大规模平行文本语料、StanfordNLP 0.2.0:纯Python版自然语言处理包、NeuralNLP-NeuralClassifier:腾讯开源深度学习文本分类工具、端到端的封闭域对话系统、中文命名实体识别:NeuroNER vs. BertNER、新闻事件线索抽取、2019年百度的三元组抽取比赛:“科学空间队”源码、基于依存句法的开放域文本知识三元组抽取和知识库构建、中文的GPT2训练代码、ML-NLP - 机器学习(Machine Learning)NLP面试中常考到的知识点和代码实现、nlp4han:中文自然语言处理工具集(断句/分词/词性标注/组块/句法分析/语义分析/NER/N元语法/HMM/代词消解/情感分析/拼写检查、XLM:Facebook的跨语言预训练语言模型、用基于BERT的微调和特征提取方法来进行知识图谱百度百科人物词条属性抽取、中文自然语言处理相关的开放任务-数据集-当前最佳结果、CoupletAI - 基于CNN+Bi-LSTM+Attention 的自动对对联系统、抽象知识图谱、MiningZhiDaoQACorpus - 580万百度知道问答数据挖掘项目、brat rapid annotation tool: 序列标注工具、大规模中文知识图谱数据:1.4亿实体、数据增强在机器翻译及其他nlp任务中的应用及效果、allennlp阅读理解:支持多种数据和模型、PDF表格数据提取工具 、 Graphbrain:AI开源软件库和科研工具,目的是促进自动意义提取和文本理解以及知识的探索和推断、简历自动筛选系统、基于命名实体识别的简历自动摘要、中文语言理解测评基准,包括代表性的数据集&基准模型&语料库&排行榜、树洞 OCR 文字识别 、从包含表格的扫描图片中识别表格和文字、语声迁移、Python口语自然语言处理工具集(英文)、 similarity:相似度计算工具包,java编写、海量中文预训练ALBERT模型 、Transformers 2.0 、基于大规模音频数据集Audioset的音频增强 、Poplar:网页版自然语言标注工具、图片文字去除,可用于漫画翻译 、186种语言的数字叫法库、Amazon发布基于知识的人-人开放领域对话数据集 、中文文本纠错模块代码、繁简体转换 、 Python实现的多种文本可读性评价指标、类似于人名/地名/组织机构名的命名体识别数据集 、东南大学《知识图谱》研究生课程(资料)、. 英文拼写检查库 、 wwsearch是企业微信后台自研的全文检索引擎、CHAMELEON:深度学习新闻推荐系统元架构 、 8篇论文梳理BERT相关模型进展与反思、DocSearch:免费文档搜索引擎、 LIDA:轻量交互式对话标注工具 、aili - the fastest in-memory index in the East 东半球最快并发索引 、知识图谱车音工作项目、自然语言生成资源大全 、中日韩分词库mecab的Python接口库、中文文本摘要/关键词提取、汉字字符特征提取器 (featurizer),提取汉字的特征(发音特征、字形特征)用做深度学习的特征、中文生成任务基准测评 、中文缩写数据集、中文任务基准测评 - 代表性的数据集-基准(预训练)模型-语料库-baseline-工具包-排行榜、PySS3:面向可解释AI的SS3文本分类器机器可视化工具 、中文NLP数据集列表、COPE - 格律诗编辑程序、doccano:基于网页的开源协同多语言文本标注工具 、PreNLP:自然语言预处理库、简单的简历解析器,用来从简历中提取关键信息、用于中文闲聊的GPT2模型:GPT2-chitchat、基于检索聊天机器人多轮响应选择相关资源列表(Leaderboards、Datasets、Papers)、(Colab)抽象文本摘要实现集锦(教程 、词语拼音数据、高效模糊搜索工具、NLP数据增广资源集、微软对话机器人框架 、 GitHub Typo Corpus:大规模GitHub多语言拼写错误/语法错误数据集、TextCluster:短文本聚类预处理模块 Short text cluster、面向语音识别的中文文本规范化、BLINK:最先进的实体链接库、BertPunc:基于BERT的最先进标点修复模型、Tokenizer:快速、可定制的文本词条化库、中文语言理解测评基准,包括代表性的数据集、基准(预训练)模型、语料库、排行榜、spaCy 医学文本挖掘与信息提取 、 NLP任务示例项目代码集、 python拼写检查库、chatbot-list - 行业内关于智能客服、聊天机器人的应用和架构、算法分享和介绍、语音质量评价指标(MOSNet, BSSEval, STOI, PESQ, SRMR)、 用138GB语料训练的法文RoBERTa预训练语言模型 、BERT-NER-Pytorch:三种不同模式的BERT中文NER实验、无道词典 - 有道词典的命令行版本,支持英汉互查和在线查询、2019年NLP亮点回顾、 Chinese medical dialogue data 中文医疗对话数据集 、最好的汉字数字(中文数字)-阿拉伯数字转换工具、 基于百科知识库的中文词语多词义/义项获取与特定句子词语语义消歧、awesome-nlp-sentiment-analysis - 情感分析、情绪原因识别、评价对象和评价词抽取、LineFlow:面向所有深度学习框架的NLP数据高效加载器、中文医学NLP公开资源整理 、MedQuAD:(英文)医学问答数据集、将自然语言数字串解析转换为整数和浮点数、Transfer Learning in Natural Language Processing (NLP) 、面向语音识别的中文/英文发音辞典、Tokenizers:注重性能与多功能性的最先进分词器、CLUENER 细粒度命名实体识别 Fine Grained Named Entity Recognition、 基于BERT的中文命名实体识别、中文谣言数据库、NLP数据集/基准任务大列表、nlp相关的一些论文及代码, 包括主题模型、词向量(Word Embedding)、命名实体识别(NER)、文本分类(Text Classificatin)、文本生成(Text Generation)、文本相似性(Text Similarity)计算等,涉及到各种与nlp相关的算法,基于keras和tensorflow 、Python文本挖掘/NLP实战示例、 Blackstone:面向非结构化法律文本的spaCy pipeline和NLP模型通过同义词替换实现文本“变脸” 、中文 预训练 ELECTREA 模型: 基于对抗学习 pretrain Chinese Model 、albert-chinese-ner - 用预训练语言模型ALBERT做中文NER 、基于GPT2的特定主题文本生成/文本增广、开源预训练语言模型合集、多语言句向量包、编码、标记和实现:一种可控高效的文本生成方法、 英文脏话大列表 、attnvis:GPT2、BERT等transformer语言模型注意力交互可视化、CoVoST:Facebook发布的多语种语音-文本翻译语料库,包括11种语言(法语、德语、荷兰语、俄语、西班牙语、意大利语、土耳其语、波斯语、瑞典语、蒙古语和中文)的语音、文字转录及英文译文、Jiagu自然语言处理工具 - 以BiLSTM等模型为基础,提供知识图谱关系抽取 中文分词 词性标注 命名实体识别 情感分析 新词发现 关键词 文本摘要 文本聚类等功能、用unet实现对文档表格的自动检测,表格重建、NLP事件提取文献资源列表 、 金融领域自然语言处理研究资源大列表、CLUEDatasetSearch - 中英文NLP数据集:搜索所有中文NLP数据集,附常用英文NLP数据集 、medical_NER - 中文医学知识图谱命名实体识别 、(哈佛)讲因果推理的免费书、知识图谱相关学习资料/数据集/工具资源大列表、Forte:灵活强大的自然语言处理pipeline工具集 、Python字符串相似性算法库、PyLaia:面向手写文档分析的深度学习工具包、TextFooler:针对文本分类/推理的对抗文本生成模块、Haystack:灵活、强大的可扩展问答(QA)框架、中文关键短语抽取工具。 转载于:https://github.com/fighting41love/funNLP

计算机

计算机·圈子   首发

anna 发布了
问答

使用Tensorflow和Keras验证准确性高于训练准确性的原因(具体例子)?

我正在尝试使用深度学习从约会网站的15个用户属性中预测收入。 我得到的结果相当奇怪,与训练数据相比,验证数据具有更高的准确性和更低的损失。不同大小的隐藏层结果是一致的。 这是我的模型: 这是准确性和损失的一个图例: 我试图消除正则化和dropout,结果以过度拟合告终(训练acc:〜85%)。我甚至尝试过大幅度降低学习率,但取得了相似的结果。 有没有人看到过类似的结果?

  • 1
  • 106
  • 107
  • 108
  • 168
前往