计算机毕业设计

计算机毕业设计 · 圈子

8739 位酷友已加入

本圈子收集计算机类的毕业设计与毕业论文,本科、硕士、博士各阶段的都可以,上传时请尽量注明毕设的概述信息~加入圈子可以上传、下载资料,也可以使用提问来寻求资料或分享你认为有价值的站外链接~

关注推荐最新

热门标签

资源

【Demo】基于SSM的学生管理系统

项目概述 (💬 pause update) 👍一个基于SSM的学生管理系统 : 代码注释详细,逻辑结构清晰,非常具有参考,学习价值哟 ! 🔑数据库中默认的管理员身份信息 : 账户名 : 黄宇辉 , 密码 demo0109 开发环境 |工具 |版本或描述| |:--:|| OS |Windows 10 JDK| 1.8 IDE| IntelliJ IDEA 2019.1 Maven| 3.6.0 MySQL| 8.0.11 本项目的数据库版本为 8.0.11,请广大版本为 5.0.0+ 的同学注意咯:可通过逐个复制表结构来创建该数据库哟 ~ 用户权限介绍 管理员 : 具有所有管理模块的操控权限 教师 : 仅具有学生信息管理模块的所有权限,且在教师信息管理模块中只具有查询及添加信息的权限 学生 : 仅具有学生信息管理模块的查询及添加信息的权限 项目截图 (管理员身份登录) 用户登录页面 系统主页面 管理员信息管理页面 学生信息管理页面 教师信息管理页面 年级信息管理页面 班级信息管理页面 个人信息管理页面 项目截图 (教师身份登录) 教师仅具有学生信息管理模块的所有权限,且在教师信息管理模块中只具有查询及添加信息的权限 项目截图 (学生身份登录) 学生仅具有学生信息管理模块的查询及添加信息的权限 项目结构 项目文件说明-数据库文件 项目文件说明-数据库配置信息 项目文件说明-H-ui 前端框架 项目文件说明-EasyUI 前端框架 项目文件说明-Spring 核心配置文件 项目文件说明-Spring MVC 核心配置文件 项目文件说明-MyBatis 核心配置文件 项目文件说明-Mapper 接口映射文件 项目文件说明-用户默认头像 数据库ER图 😅 数据库设计待优化 : 数据表之间的并没有设置约束关系,等你优化哟 Jar包依赖关系图 来源https://github.com/GoogTech/sms-ssm

资源

【毕业设计】基于视觉导航机器人的快递分拣系统

项目简介 利用大规模视觉导航机器人进行快递分拣,涉及调度系统的设计、视觉导航机器人设计、大规模机器人模拟软件设计、路径规划算法研究,涉及技术栈java、C++、c、spring、swing、netty、openCV、ardunio、调度、路径规划、嵌入式、PID控制。 论文摘要 知网论文地址 我国物流行业的分拣环节基本还处于人工分拣阶段,存在分拣效率低下、人工成本高、差错率高等问题。自动化物流分拣正朝着智能化方向发展,AGV(自动引导车)具有智能化程度高和灵活性高的特点,应用AGV来分拣快递包裹可以极大地提高分拣效率、降低人工成本和减小差错率。 本文研究的对象是一种多AGV物流分拣系统,在对多AGV物流分拣系统进行设计的基础上,对视觉导航及定位、多AGV路径规划两个关键技术进行了研究。论文主要研究工作包括三个部分: AGV视觉导航及定位技术的研究与实现。 本文分析了现有视觉导航及定位技术的不足之处,如摄像头昂贵、定位不精确,并针对这些不足提出了一种基于编码标志的视觉导航及定位方法,采用这种方法的AGV即使利用普通摄像头也能够精准导航和精确定位。 多AGV路径规划方法的研究。多AGV物流分拣系统具有路径网络复杂、AGV数量庞大等特点,基于静态确定网络的传统多AGV路径规划方法不适用于多AGV物流分拣系统。本文针对多AGV物流分拣系统的特点,建立基于动态随机网络的路径规划模型,并对A*算法进行改进,如引入时间变量、考虑转弯耗费、优化OPEN表。最后通过实验对两种路径规划方法进行了分析和对比。 多AGV物流分拣系统的设计与实现。本文重点阐述了多AGV物流分拣系统的总体设计,根据设计要求制作了快递分拣机器人,并基于Java开发了上位机系统软件,采用C++结合OpenCv编程实现了基于编码标志的视觉导航及定位方法和基于动态随机网络的路径规划方法。 模块介绍 本论文的研究对应工程主要分为三块,express(调度系统)、smartcar-vision(分拣机器人)、simulator(大规模机器人模拟系统)。 express 大规模机器人调度模拟视频,点击观看 调度系统是整个多AGV物流分拣系统的大脑,负责信息统筹、调度和控制快递分拣机器人。该工程基于java、swing、spring boot、neety等技术,实现了论文中所述三种路径规划算法:改进A*算法、dijkstra算法、贪婪算法,以及多机器人之间防冲突算法,结合simulator工程可以模拟大规模机器人的调度。 smartcar-vision demo机器人视频,点击观看 该工程是分拣机器人的大脑,实现了视觉导航、机器控制、调度,该工程基于C++、openCV、PID控制等技术,运行在Jeson Tk1嵌入式板(其实就是一个ubuntu系统),底层电机控制使用了Arduino。该工程依赖于硬件,有了这份代码也只有助于研究视觉导航的实现,很难实际运行起来。 simulator 大规模机器人调度模拟视频,点击观看 一台分拣机器人造价不便宜,所以没有使用大规模真实机器人进行分拣实验。为了验证论文提出的算法的有效性,开发了本模拟软件,本工程模拟了机器人运行的物理特性,以及送料系统,使随机生成的快递包裹模拟放置在机器人托盘上,并完全适配于调度系统,调度系统没有特殊定制就可以像调度真实机器人一样调度模拟机器人。 如何运行起来 smartcar-vision工程依赖于物理硬件,所以很难运行起来,里面代码可以用来学习机器视觉。这里我们主要讲“大规模机器人调度模拟”如何运行起来。 express和simulator都是基于spring开发的swing工程,之间采用netty通信,找到main函数就能运行起来了,先运行express,再运行simulaotr。两个工程运行都需要提供一分地图元数据Excel文件,仓库也为大家准备了一份Graph.xls,大家运行的时候需要在ComGraph文件中修改文件路径。 via:https://github.com/xxxtai/express

资源

【毕业设计】基于知识图谱和人工神经网络的简历推荐系统

技术栈前端使用echarts.js, 后端基于Python Django; 特征处理阶段,技能相关特征基于知识图谱处理,图谱构建使用neo4j; 系统的流程是先做二分类筛选,再给分类为正的样本进行排序; 二分类模型基于DNN,基于Keras训练, 线上分类时直接调用已经训练好保存为h5格式的model文件; 排序函数将随机森林的特征重要性作为基础排序指标; 系统演示如下: 首页 原始简历查看页面 原始简历统计分析图表展示页面 项目简介 招聘信息分析页面 简历推荐结果页面 来源https://github.com/Weikoi/Resume_Recommender

资源

【Demo】中文文本纠错工具

简介 中文文本纠错工具。 音似、形似错字(或变体字)纠正,可用于中文拼音、笔画输入法的错误纠正。 python3.6开发。 pycorrector依据语言模型检测错别字位置,通过拼音音似特征、笔画五笔编辑距离特征及语言模型困惑度特征纠正错别字。 Question 中文文本纠错任务,常见错误类型包括: 谐音字词,如 配副眼睛-配副眼镜 混淆音字词,如 流浪织女-牛郎织女 字词顺序颠倒,如 伍迪艾伦-艾伦伍迪 字词补全,如 爱有天意-假如爱有天意 形似字错误,如 高梁-高粱 中文拼音全拼,如 xingfu-幸福 中文拼音缩写,如 sz-深圳 语法错误,如 想象难以-难以想象 当然,针对不同业务场景,这些问题并不一定全部存在,比如输入法中需要处理前四种,搜索引擎需要处理所有类型,语音识别后文本纠错只需要处理前两种, 其中'形似字错误'主要针对五笔或者笔画手写输入等。本项目重点解决其中的谐音、混淆音、形似字错误、中文拼音全拼、语法错误带来的纠错任务。 Solution 规则的解决思路 中文纠错分为两步走,第一步是错误检测,第二步是错误纠正; 错误检测部分先通过结巴中文分词器切词,由于句子中含有错别字,所以切词结果往往会有切分错误的情况,这样从字粒度和词粒度两方面检测错误, 整合这两种粒度的疑似错误结果,形成疑似错误位置候选集; 错误纠正部分,是遍历所有的疑似错误位置,并使用音似、形似词典替换错误位置的词,然后通过语言模型计算句子困惑度,对所有候选集结果比较并排序,得到最优纠正词。 PS:网友源码解读 深度模型的解决思路 端到端的深度模型可以避免人工提取特征,减少人工工作量,RNN序列模型对文本任务拟合能力强,rnn_attention在英文文本纠错比赛中取得第一名成绩,证明应用效果不错; CRF会计算全局最优输出节点的条件概率,对句子中特定错误类型的检测,会根据整句话判定该错误,阿里参赛2016中文语法纠错任务并取得第一名,证明应用效果不错; Seq2Seq模型是使用Encoder-Decoder结构解决序列转换问题,目前在序列转换任务中(如机器翻译、对话生成、文本摘要、图像描述)使用最广泛、效果最好的模型之一; BERT/ELECTRA/ERNIE/MacBERT等预训练模型强大的语言表征能力,对NLP届带来翻天覆地的改变,海量的训练数据拟合的语言模型效果无与伦比,基于其MASK掩码的特征,可以简单改造预训练模型用于纠错,加上fine-tune,效果轻松达到最优。 Feature 模型 kenlm:kenlm统计语言模型工具,规则方法,语言模型纠错,利用混淆集,扩展性强 deep_context模型:参考Stanford University的nlc模型,该模型是参加2014英文文本纠错比赛并取得第一名的方法 Seq2Seq模型:在Seq2Seq模型加上attention机制,对于长文本效果更好,模型更容易收敛,但容易过拟合 ConvSeq2Seq模型:基于Facebook出品的fairseq,北京语言大学团队改进ConvS2S模型用于中文纠错,在NLPCC-2018的中文语法纠错比赛中,是唯一使用单模型并取得第三名的成绩 transformer模型:全attention的结构代替了lstm用于解决sequence to sequence问题,语义特征提取效果更好 BERT模型:中文fine-tuned模型,使用MASK特征纠正错字 ELECTRA模型:斯坦福和谷歌联合提出的一种更具效率的预训练模型,学习文本上下文表示优于同等计算资源的BERT和XLNet ERNIE模型:百度公司提出的基于知识增强的语义表示模型,有可适配中文的强大语义表征能力。在情感分析、文本匹配、自然语言推理、词法分析、阅读理解、智能问答等16个公开数据集上超越世界领先技术 MacBERT模型:来自哈工大SCIR实验室2020年的工作,改进了BERT模型的训练方法,使用全词掩蔽和N-Gram掩蔽策略适配中文表达,和通过用其相似的单词来掩盖单词,从而缩小训练前和微调阶段之间的差距 错误检测 字粒度:语言模型困惑度(ppl)检测某字的似然概率值低于句子文本平均值,则判定该字是疑似错别字的概率大。 词粒度:切词后不在词典中的词是疑似错词的概率大。 错误纠正 通过错误检测定位所有疑似错误后,取所有疑似错字的音似、形似候选词, 使用候选词替换,基于语言模型得到类似翻译模型的候选排序结果,得到最优纠正词。 思考 现在的处理手段,在词粒度的错误召回还不错,但错误纠正的准确率还有待提高,更多优质的纠错集及纠错词库会有提升,我更希望算法上有更大的突破。 另外,现在的文本错误不再局限于字词粒度上的拼写错误,需要提高中文语法错误检测(CGED, Chinese Grammar Error Diagnosis)及纠正能力,列在TODO中,后续调研。 Evaluate 提供评估脚本 pycorrector/utils/eval.py 和评估执行脚本 examples/evaluate_models.py ,该脚本有两个功能: 构建评估样本集:评估集 pycorrector/data/eval_corpus.json , 包括字粒度错误100条、词粒度错误100条、语法错误100条,正确句子200条。用户可以修改条数生成其他评估样本分布。 计算两个数据集的纠错准召率:采用保守计算方式,简单把纠错之后与正确句子完成匹配的视为正确,否则为错。 测试环境 机器:linux(centos7) 线上机 CPU:28核 Intel(R) Xeon(R) Gold 5117 CPU @ 2.00GHz GPU:Tesla P40,显存 22919 MiB(22 GB) 内存:251 GB |数据集| 模型| cpu/gpu| 准确率| 召回率| 每百条预测时长(秒)| QPS| |:--:||||||| sighan_15| rule| cpu| 17.98%| 15.37%| 11| 9 sighan_15| bert| gpu| 37.62%| 36.46%| 95| 1.05 sighan_15| ernie| gpu| 29.70%| 28.13%| 102| 0.98 sighan_15| macbert| gpu| 63.64%| 63.64%| -| - corpus500| rule| cpu| 48.60%| 28.13%| 11| 9 corpus500| bert| gpu|58.60%| 35.00% |95| 1.05 corpus500| ernie |gpu| 59.80%| 41.33%| 102|0.98 corpus500| macbert |gpu|56.20%| 42.67%| -| - Install 全自动安装:pip install pycorrector 半自动安装: 通过以上两种方法的任何一种完成安装都可以。如果不想安装,可以下载本资源,安装下面依赖再使用。 安装依赖 kenlm安装 安装kenlm-wiki 其他库包安装 Usage 文本纠错 output: 规则方法默认会从路径~/.pycorrector/datasets/zh_giga.no_cna_cmn.prune01244.klm加载kenlm语言模型文件,如果检测没有该文件,则程序会自动联网下载。当然也可以手动下载模型文件(2.8G)并放置于该位置。 错误检测 output: 返回类型是 list , [error_word, begin_pos, end_pos, error_type] , pos 索引位置以0开始。 关闭字粒度纠错 output: 上例中 吃 发生误纠,如下代码关闭字粒度纠错: output: 默认字粒度、词粒度的纠错都打开,一般情况下单字错误发生较少,而且字粒度纠错准确率较低。关闭字粒度纠错,这样可以提高纠错准确率,提高纠错速度。 默认 enable_char_error 方法的 enable 参数为 True ,即打开错字纠正,这种方式可以召回字粒度错误,但是整体准确率会低; 如果追求准确率而不追求召回率的话,建议将 enable 设为 False ,仅使用错词纠正。 加载自定义混淆集 通过加载自定义混淆集,支持用户纠正已知的错误,包括两方面功能:1)错误补召回;2)误杀加白。 output: 具体demo见example/use_custom_confusion.py,其中./my_custom_confusion.txt的内容格式如下,以空格间隔: set_custom_confusion_dict 方法的 path 参数为用户自定义混淆集文件路径。 加载自定义语言模型 默认提供下载并使用的kenlm语言模型 zh_giga.no_cna_cmn.prune01244.klm 文件是2.8G,内存较小的电脑使用 pycorrector 程序可能会吃力些。 支持用户加载自己训练的kenlm语言模型,或使用2014版人民日报数据训练的模型,模型小(20M),准确率低些。 output: 具体demo见example/load_custom_language_model.py,其中./people_chars_lm.klm是自定义语言模型文件。 英文拼写纠错 支持英文单词的拼写错误纠正。 output: 中文简繁互换 支持中文繁体到简体的转换,和简体到繁体的转换。 output: Command Line Usage 命令行模式 支持批量文本纠错。 case: 输入文件: input.txt ;输出文件: out.txt ;关闭字粒度纠错;打印详细纠错信息;纠错结果以 \t 间隔 深度模型使用说明 安装依赖 介绍 本项目的初衷之一是比对、共享各种文本纠错方法,抛砖引玉的作用,如果对大家在文本纠错任务上有一点小小的启发就是我莫大的荣幸了。 主要使用了多种深度模型应用于文本纠错任务,分别是前面 模型 小节介绍的seq2seq、 transformer、bert、macbert、electra,各模型方法内置于 pycorrector 文件夹下,有README.md详细指导,各模型可独立运行,相互之间无依赖。 使用方法 各模型均可独立的预处理数据、训练、预测,下面以其中 seq2seq 序列生成模型为例。 seq2seq 模型使用示例: 配置 通过修改config.py。 数据预处理 自动新建文件夹output,在output下生成 train.txt 和 test.txt 文件,以TAB("\t")间隔错误文本和纠正文本,文本以空格切分词,文件内容示例: 训练 设置 config.py 中 arch='convseq2seq' ,训练sighan数据集(2104条样本),200个epoch,单卡P40GPU训练耗时:3分钟。 预测 预测输出效果样例截图: PS: 如果训练数据太少(不足万条),深度模型拟合不足,会出现预测结果全为 unk 的情况,解决方法:增大训练样本集,使用下方提供的纠错熟语料(nlpcc2018+hsk,130万对句子)测试。 深度模型训练耗时长,有GPU尽量用GPU,加速训练,节省时间。 自定义语言模型 什么是语言模型?-wiki 语言模型对于纠错步骤至关重要,当前默认使用的是从千兆中文文本训练的中文语言模型zh_giga.no_cna_cmn.prune01244.klm(2.8G)。 大家可以用中文维基(繁体转简体,pycorrector.utils.text_utils下有此功能)等语料数据训练通用的语言模型,或者也可以用专业领域语料训练更专用的语言模型。更适用的语言模型,对于纠错效果会有比较好的提升。 kenlm语言模型训练工具的使用,请见博客:http://blog.csdn.net/mingzai624/article/details/79560063 附上训练语料<人民日报2014版熟语料>,包括: 1)标准人工切词及词性数据people2014.tar.gz, 2)未切词文本数据people2014_words.txt, 3)kenlm训练字粒度语言模型文件及其二进制文件people2014corpus_chars.arps/klm, 4)kenlm词粒度语言模型文件及其二进制文件people2014corpus_words.arps/klm。 尊重版权,传播请注明出处。 数据集下载 |数据集|语料| 下载链接| 压缩包大小| |:--:|||| 人民日报2014版语料| 人民日报2014版| 百度网盘(密码uc11)飞书(密码cHcu)| 383M| NLPCC 2018 GEC官方数据集| NLPCC2018-GEC| 官方trainingdata| 114M NLPCC 2018+HSK熟语料| nlpcc2018+hsk+CGED| 百度网盘(密码m6fg)飞书(密码gl9y)| 215M NLPCC 2018+HSK原始语料| HSK+Lang8 |百度网盘(密码n31j)飞书(密码Q9LH)| 81M NLPCC 2018 GEC官方数据集NLPCC2018-GEC, 训练集trainingdata[解压后114.5MB],该数据格式是原始文本,未做切词处理。 汉语水平考试(HSK)和lang8原始平行语料[HSK+Lang8][百度网盘(密码n31j)](https://pan.baidu.com/s/1DaOX89uL1JRaZclfrV9C0g "百度网盘(密码n31j)"),该数据集已经切词,可用作数据扩增 以上语料,再加上CGED16、CGED17、CGED18的数据,经过以字切分,繁体转简体,打乱数据顺序的预处理后,生成用于纠错的熟语料(nlpcc2018+hsk),网盘链接:https://pan.baidu.com/s/1BkDru60nQXaDVLRSr7ktfA 密码:m6fg [130万对句子,215MB] 功能点 ☑ 优化形似字字典,提高形似字纠错准确率 ☑ 整理中文纠错训练数据,使用seq2seq做深度中文纠错模型 ☑ 添加中文语法错误检测及纠正能力 ☑ 规则方法添加用户自定义纠错集,并将其纠错优先度调为最高 ☑ seq2seq_attention 添加dropout,减少过拟合 ☑ 在seq2seq模型框架上,新增Pointer-generator network、Beam search、Unknown words replacement、Coverage mechanism等特性 ☑ 更新bert的fine-tuned使用wiki,适配transformers 2.10.0库 ☑ 升级代码,兼容TensorFlow 2.0库 ☑ 升级bert纠错逻辑,提升基于mask的纠错效果 ☑ 新增基于electra模型的纠错逻辑,参数更小,预测更快 TODO: 新增专用于纠错任务深度模型,使用bert/ernie预训练模型,加入文本音似、形似特征。 规则方法,改进 generate_items 疑似错字生成函数,提速并优化逻辑。 预测提速,规则方法加入vertebi动态规划,深度模型使用beamsearch搜索结果,引入GPU + fp16预测部署。 语言模型纠错ppl阈值参数,使用动态调整方法替换写死的阈值。 来源https://github.com/shibing624/pycorrector

资源

【毕业设计】使用pytorch进行深度学习网络模型训练,实现车型识别

简介 通过深度学习技术搭建残差网络,使用CompsCars数据集进行车型识别模型的训练,并将训练好的模型移植到了Android端,实现了通过手机扫一扫的方式进行汽车车型识别的功能。 项目涉及到的技术点较多,需要开发者有一定的技术功底。如:python语言的使用、深度学习框架pytorch的使用、爬虫脚本的理解、Java语言的使用、Android平台架构的理解等等。 虽然属于跨语言开发,但是要求并不高,只要达到入门级别即可看懂本项目,并可以尝试一些定制化的改造。毕竟框架已经搭建好了,只需要修改数据源、重新训练出模型,就可以实现一款新的应用啦。 最终效果 以下视频将展示所有功能完成后的APP的使用情况。 https://www.bilibili.com/video/BV1Pk4y1B7qK 模型训练精度 以下是使用Resnet-34进行400次车型识别训练的 train-validation图表。 以下是使用Resnet-34进行400次车型识别训练 Top-1的错误率。 以下是使用Resnet-34进行400次车型识别训练 Top-5的错误率。 扫一扫识别功能 以下是移植到android平台后进行识别的结果展示图。 使用的技术&框架 开发语言:Python、Java 技术框架:pytorch、resnet-34、Android平台 可选借助平台:百度AI平台 项目构成:模型训练项目、爬虫项目、APP开发项目 软/硬件需求 机器要求 因为涉及到机器学习模型训练,所以你应该拥有一台用来训练模型的机器,且需要搭载支持CUDA的GPU(如:GeForce、GTX、Tesla等),显存大小,自然是越大越好。 本人项目环境: windows10 专业版;GeForce MAX150;独显 2G;1T硬盘 也就是说这是最低配了,你至少要和我同一配置。 开发工具 Pycharm:用来训练模型、pyhton爬虫、模型移植脚本 Android Studio:用来开发安卓APP 数据集 数据集是项目最重要的一部分,有了数据集才能开始训练 本项目使用的是 香港中文大学的CompCars细粒度汽车数据集。 需要的同学可以私聊找我要网盘链接。 各模块介绍 模型训练 Github 地址:pytorch_train 欢迎 star/issue 训练模型主要分为五个模块:启动器、自定义数据加载器、网络模型、学习率/损失率调整以及训练可视化。 启动器是项目的入口,通过对启动器参数的设置,可以进行很多灵活的启动方式,下图为部分启动器参数设置。 任何一个深度学习的模型训练都是离不开数据集的,根据多种多样的数据集,我们应该使用一个方式将数据集用一种通用的结构返回,方便网络模型的加载处理。 这里使用了残差网络Resnet-34,代码中还提供了Resnet-18、Resnet-50、Resnet-101以及Resnet-152。残差结构是通过一个快捷连接,极大的减少了参数数量,降低了内存使用。 以下为残差网络的基本结构和Resnet-34 部分网络结构图。 除了最开始看到的train-val图表、Top-、Top-5的error记录表以外,在训练过程中,使用进度条打印当前训练的进度、训练精度等信息。打印时机可以通过上边提到的 启动器 优雅地配置。 以下为最终的项目包架构。 数据抓取 Github 地址:crawer/dongchedi 欢迎 star/issue 最终获取的数据如下图: 模型移植 Github 地址:pytorch_train/transfor 安卓界面&数据走向 Github 地址:carIdentify 欢迎 star/issue 实现了以下功能: 调用摄像头权限自动申请 摄像头预览 读取pytorch训练模型 调用第三方接口,精准预测 最终界面展示: 安卓项目结构如图: 使用方式 启动模型训练 启动前需要确保你已经有了本项目使用的数据集 CompCars 重新开始新的训练 python start.py --data_root "./data" --gpus 0,1,2 -w 2 -b 120 --num_class 13 --data_root 数据集路径位置 --gups 使用gpu训练的块数 -w 为gpu加载自定义数据集的工作线程 -b 用来gpu训练的 batch size是多少 --num_class 分类类别数量 使用上次训练结果继续训练 python start.py --data_root "./data" --gpus 0,1,2 -w 2 -b 120 --num_class 13 --resume "results/2020-04-14_12-36-16" --data_root 数据集路径位置 --gups 使用gpu训练的块数 -w 为gpu加载自定义数据集的工作线程 -b 用来gpu训练的 batch size是多少 --num_class 分类类别数量 --resume 上次训练结果文件夹,可继续上次的训练 模型移植 将训练好的模型转换为Android可以执行的模型 python transfor.py 项目定制化 找寻自己的数据集 需要修改启动脚本中 --num_class,模型类别 目前项目中具备很多备注记录,稍加review代码就可以理解,如有不清楚,可以私信询问。 启动APP APP下载链接:https://pan.baidu.com/s/1X7tobj4R302WmGu116-2mg 提取码: 1606 安装完成后 同意调用系统相机权限 使用扫一扫对准汽车 稍后将会展示识别后的结果和识别的图片 具体使用方式,可参见:https://www.bilibili.com/video/BV1Pk4y1B7qK 注:本资源系转载,原作者哔哩哔哩主页:https://space.bilibili.com/47354052?spm_id_from=333.788.b_765f7570696e666f.1 github主页:https://github.com/jelly54

资源

【毕业设计】基于SSM实现的个人博客系统

关于项目 该博客是基于SSM实现的个人博客系统,适合初学SSM和个人博客制作的同学学习。 最新版本支持用户注册,包含用户和管理员两个角色 。 主要涉及技术包括的包括 Maven、Spring、SpringMVC、MyBatis、JSP、MySQL等。 详细介绍:https://liuyanzhao.com/6347.html 预览地址 https://forestblog.liuyanzhao.com 效果预览 因博主服务器数量有限,目前该SSM博客已下线,不提供实时预览,大家可以本地部署。 目前 SENS 部署了,效果和该项目前端相似,预览地址 https://blog.liuyanzhao.com 。 以及博主个人博客主站 https://liuyanzhao.com 也是基于 springboot+vuejs 开发。 前台效果图 后台效果图 后台地址:/admin 或者 /login 使用注意 开发工具的选择 请使用 IntelliJ IDEA, 尽量不要用 Eclipse/MyEclipse,使用前者项目起不来我可以帮忙解决,后者直接忽视(理论上可以起) 确保你安装了 Maven 从官网下载 Maven,并配置阿里云镜像,IDEA 或 Eclipse 里需要设置 Maven 的 settings.xml 。 请安装 Lombok 插件 代码中多次使用 @Data 注解,请确保你的 IDE 安装了 Lombok 插件,否则找不到 getter/setter 方法。如果你的 lombok 无效,可能是 pom.xml 里的 lombok 版本和你安装的lombok 版本相差较大。 无论是 Eclipse 还是 IDEA 都需要安装 lombok。 项目首页没有文件夹名称 确保 tomcat 配置中 application context 是 /,而不是 /ForestBlog。这是导致你们首页css样式全无的原因,因为引用css路径都是 /xxx/xxx.css 使用步骤 1、克隆项目 克隆或者下载项目到本地,解压,主要分为三个部分:ForestBlog、uploads 和 forest_blog.sql ForestBlog: 完整项目源码, 可以使用 IDEA 导入或者打开,记得要导入里面那个 ForestBlog项目,即 pom.xml所在的父目录。 uploads: 上传图片的目录,与源码分离开来,可以放到物理磁盘某一目录,如D盘某目录,后面会讲 forest_blog.sql: 数据库文件,请先创建数据库,然后以运行sql文件方式导入 2、使用 IDEA 导入Maven项目 确保你安装了 Maven,导入项目时,选择已存在的项目,类型是 Maven 项目。 等待Maven下载完依赖,或者手动点击刷新,如果无法下载请检查 Maven 配置和切换网络,多次尝试。 导入完成后,如果出现Java类里红色报错,多半是 Lombok 插件没有安装。 3、导入数据库 新建数据库 forest_blog,导入数据库(即forest_blog.sql)。注意,数据库的编码和排序规则是utf-8和utf-8_general_ci 4、修改项目中的数据库连接信息 修改 db.properties 文件,该文件很容易找到,在 src/main/resources 中 里面有 MySQL, 请确保已安装和启动 MySQL 注意修改数据库地址、表名、用户名和密码。 否则项目无法启动 5、配置 tomcat 和 uploads 目录 该项目是 SSM 项目,没有启动类,需要通过 tomcat 来运行。无论是 Eclipse 还是 IDEA 都很容易。 这里主要说一下上传目录映射问题: 该项目中,文件上传是传到本地,且和项目文件夹不在一起,就是说是源码和上传目录是分离的。 比如我们把 uploads 目录放到 E盘根目录(建议直接把我的那个uploads文件夹拷贝到D盘根目录),比如有一张图片路径是 D:/uploads/2017/10/avatar.jpg, 我们想在项目中以 http://loclahost:8080/uploads/2017/10/avatar.jpg 方式访问,需要以下两步: 修改 UploadFileController.java 中上传路径,需要修改 rootPath 为你指定的 uploads 目录,如 String rootPath ="D:/uploads/"; 如果不修改,会出现无法上传失败; 为 tomcat 设置 uploads 映射。 IDEA 操作如下: 在 tomcat 配置中 Deployment 里面添加,如图 Eclispe 操作如下: 在 Server/server.xml 的 前面添加 Linux 服务器环境部署 在 tomcat/conf/server.xml 的 Host 标签内添加如下代码 如果不修改,会出现uploads的图片无法加载,无法显示上传目录的图片 来源https://github.com/saysky/ForestBlog

资源

【毕业设计】基于SSM实现的图书管理系统

编译环境 jdk 1.8 mysql 5.0 及以上 tomcat 7 框架 springmvc + spring + mybatis jar包管理工具 Maven 编译器 IDEA 效果展示 来源https://github.com/ZeroWdd/MyLibrary

资源

【毕业设计】基于SSM的图书馆管理系统

概述 基于Spring + Spring MVC + MyBatis的图书馆管理系统,使用Maven进行包管理。 主要功能包括:图书查询、图书管理、图书编辑、读者管理、图书的借阅与归还以及借还日志记录等。 环境配置 开发环境:Windows 10,IntelliJ IDEA 2018.3 运行配置 首先安装Mysql5.7,设置用户名为root,密码为123456,并保证其在运行状态,并执行library.sql文件导入数据。 然后再配置Maven到环境变量中,在源代码目录下运行 使用浏览器访问http://localhost:8080即可进入系统。 概念设计 用户分为两类:读者、图书馆管理员。 图书馆管理员可以修改读者信息,修改书目信息,查看所有借还日志等; 读者仅可以修改个人信息、借阅或归还书籍和查看自己的借还日志。 数据库E-R图 逻辑设计 共有6个表: 1. 图书书目表book_info 名 类型 长度 小数点 NULL 用途 键 book_id bigint 20 0 否 图书号 ✔ name varchar 20 0 否 书名 author varchar 15 0 否 作者 publish varchar 20 0 否 出版社 ISBN varchar 15 0 否 标准书号 introduction text 0 0 是 简介 language varchar 4 0 否 语言 price decimal 10 2 否 价格 pub_date date 0 0 否 出版时间 class_id int 11 0 是 分类号 number int 11 0 是 剩余数量 2. 数据库管理员表admin 名 类型 长度 小数点 NULL 用途 键 admin_id bigint 20 0 否 账号 ✔ password varchar 15 0 否 密码 username varchar 15 0 是 用户名 3. 图书分类表class_info |名| 类型| 长度| 小数点| NULL| 用途| 键| |:--:||||||| class_id| int| 11 |0 |否|类别号| ✔| class_name| varchar|15 |0 |否| 类别名 | 4. 借阅信息表lend_list |名| 类型 |长度 |小数点| NULL |用途| 键| |:--:||||||| ser_num |bigint |20| 0 |否 |流水号 |✔| book_id| bigint| 20 |0 |否|图书号 | reader_id |bigint |20| 0| 否| 读者证号| lend_date| date| 0| 0| 是| 借出日期| back_date| date| 0|0| 是| 归还日期| 5. 借阅卡信息表reader_card |名 |类型| 长度| 小数点| NULL |用途| 键| |:--:||||||| reader_id| bigint |20| 0| 否| 读者证号| ✔| password| varchar| 15 |0| 否| 密码 | username| varchar| 15 |0| 是 |用户名| 6. 读者信息表reader_info |名| 类型| 长度| 小数点| NULL| 用途 |键| |:--:||||||| reader_id| bigint| 20 |0| 否| 读者证号| ✔| name| varchar| 10| 0| 否| 姓名| sex| varchar| 2| 0| 否 |性别| birth| date| 0| 0| 否| 生日| address| varchar |50| 0| 否| 地址| phone| varchar|15 |0| 否| 电话| 功能展示 1. 首页登陆 管理者账号:123456/123456 读者账号:10000/123456 2. 管理员系统 用登陆进入 2.1 图书管理 2.2 图书详情 2.3 读者管理 2.4 借还管理 3. 读者系统 3.1 查看全部图书 3.2 个人信息查看,可以修个个人信息 3.3 个人借阅情况查看 来源https://github.com/zhanghuanhao/LibrarySystem

资源

【Demo】基于数据分析的智能饮食推荐APP(含菜品识别)

数据分析 人体健康信息 体重 身高 年龄 菜品信息 菜的名称 卡路里 蛋白质,脂肪等 推荐的食用量 某个人群对应的改善体质(减肥,塑性,增肌等)的方案 菜谱 运动方式 数据集和api 图像识别食物,获取卡路里: https://cloud.baidu.com/product/imagerecognition/fine_grained nutrition facts from food : https://www.kaggle.com/openfoodfacts/world-food-facts#en.openfoodfacts.org.products.tsv https://world.openfoodfacts.org/ 数据集官网 456赞,目前为止发现的最高的相关数据集 nutrition facts for McDonald’s : https://www.kaggle.com/mcdonalds/nutrition-facts Calories, fat, and sugar for every cheeseburger, fries, and milkshake on menu 更牛逼的食材分析和菜谱推荐: http://pic2recipe.csail.mit.edu/ 加强版百度API 莫须有数据集 糖尿病 时间-血糖含量关系数据 : https://archive.ics.uci.edu/ml/datasets/diabetes GPA和饮食习惯的关系 : https://www.kaggle.com/borapajo/food-choices 9种体质 //暂定 根据用户的体质来进行推荐菜谱与制定营养计划 ---- 两种模式:9体模式和普通健身模式 用户可以随时输入自己当前吃的食物的名字与量 ---- 随时记 动态爬虫——http://www.boohee.com/ 每种食材的卡路里等信息(优先kaggle) 卡路里累加器及其可视化、每天个人信息可视化 https://www.xinshipu.com/ 菜谱信息 通过照片提取出食物的卡路里等信息 百度api http://www.zyyssl.com/cookbook.html //中药食材信息、药膳信息、9体、各种病针对的药膳 照片识菜帮 http://www.ttmeishi.com/CaiXi/YaoShan/ //病人对应的食谱 测算http://www.chinacaipu.com/zt/sccs.html 体质算法 11、http://www.chinacaipu.com/menu/jianya/ 特殊人群(压力之类的) 需求分析 登陆、注册 输入基本信息信息(身高、体重、性别、年龄) 额外信息(工作、周均运动时间、睡眠段、九体、病史) 针对没有填写额外信息的用户:选择减肥、增肌、塑形 、保持 可视化(自己的信息和目标标准的比较、根据上述选择改变)每天的量(手环、手机计步器),近几天的曲线 推荐菜谱:两个tab,一个定制菜谱,一个是随机智能推送 单一菜推荐 组合推荐 一周大菜谱推荐(根据每日你自己加的一些信息动态改变) 如果填了额外信息的,就是药膳推荐(一周药膳、周二普通、周三药膳。。。。)(注意可能不想减肥啥的) 百度api->动态录入每顿饭的信息(防抖处理,这里吹牛逼算法,推测吃了多少卡路里),识别后把,动态改变一周定制计划 做菜环节加入识菜帮所有功能,并加入详细食材信息卡路里等 针对特殊人群,混到推荐里推送有利于健康的方法信息(敷黄瓜方法) 特殊病人群体每日相关东西的摄取量的一个限定区间显示 ocr体检单信息录入 针对照片中菜的数量分析吃了多少菜,包含多少卡路里 数据库设计 加下划线为主码,加粗为外码,默认not null 菜谱(str菜名, nullable str体质_名称(对应最优菜谱的效果) ,int卡路里,int制作时间(分钟),str口味,str工艺,str做法,str图片url) menu 食材( str名称) material 体质(str体质名称,str体质特点,str运动调理方式) physique 体质性状(str性状名称) Physical properties 菜谱功能和分类( str分类名称) menu classification 用户( str用户名,str密码, nullable str 体质-名称,nullable str特殊职业) User 特殊职业( str职业名称) Occupation 菜谱功能分类_可治愈的职业_特殊职业( 特殊职业-str职业名称, 菜谱功能和分类-str分类名称) 菜谱_做菜_食材 ( str菜谱-菜名,str食材-名称,int用量) cook quantity 食材_效果_体质( str食材-名称, nullable str体质-名称,int效果(1有利于,0不利于)) Material effect 体质_身体状态_体质性状( str体质-名称, str体质性状-性状名称) physical_state 菜谱_菜谱效果_菜谱功能和分类( str菜谱-菜名, str菜谱功能和分类-分类名称) menu_effect 服务器请求 说明 方法 请求示例 备注 查询菜单信息 GET http://120.77.182.38/menus/某菜名/ 不加菜名默认请求所有菜单(服务器可能扛不住) 查询食材信息 GET http://120.77.182.38/foodmaterial/西红柿/ 同上 查询用户信息 GET http://120.77.182.38/myuser/zhaolizhi/ 同上 新建用户信息 POST http://120.77.182.38/myuser/ 参数见下图 查询菜谱分类 GET http://120.77.182.38/menuclassification/糖尿病食谱/ 不加分类名默认请求所有分类(和对应的菜谱),响应时间较长 查询职业信息 GET http://120.77.182.38/occupation/电力工程师/ 不加职业名默认查询所有,响应较快 返回职业对应的菜单分类 查询体质信息 GET http://120.77.182.38/physique/气虚质/ 返回体质需要的食材 POST新建用户信息params示例 1♂ 0♀ occupation_name,physical_name的值必须和数据库对应 来源https://github.com/wangtianrui/NutritionMaster

资源

【Demo】基于 Spring Boot的前后端分离的后台管理系统

EL-ADMIN 后台管理系统 项目简介 一个基于 Spring Boot 2.1.0 、 Spring Boot Jpa、 JWT、Spring Security、Redis、Vue的前后端分离的后台管理系统 开发文档: https://el-admin.vip 体验地址: https://el-admin.xin 账号密码: admin / 123456 项目源码: 后端源码 eladmin-master.zip 前端源码 eladmin-web-master.zip 主要特性 使用最新技术栈,社区资源丰富。 高效率开发,代码生成器可一键生成前后端代码 支持数据字典,可方便地对一些状态进行管理 支持接口限流,避免恶意请求导致服务层压力过大 支持接口级别的功能权限与数据权限,可自定义操作 自定义权限注解与匿名接口注解,可快速对接口拦截与放行 对一些常用地前端组件封装:表格数据请求、数据字典等 前后端统一异常拦截处理,统一输出异常,避免繁琐的判断 支持在线用户管理与服务器性能监控,支持限制单用户登录 支持运维管理,可方便地对远程服务器的应用进行部署与管理 系统功能 用户管理:提供用户的相关配置,新增用户后,默认密码为123456 角色管理:对权限与菜单进行分配,可根据部门设置角色的数据权限 菜单管理:已实现菜单动态路由,后端可配置化,支持多级菜单 部门管理:可配置系统组织架构,树形表格展示 岗位管理:配置各个部门的职位 字典管理:可维护常用一些固定的数据,如:状态,性别等 系统日志:记录用户操作日志与异常日志,方便开发人员定位排错 SQL监控:采用druid 监控数据库访问性能,默认用户名admin,密码123456 定时任务:整合Quartz做定时任务,加入任务日志,任务运行情况一目了然 代码生成:高灵活度生成前后端代码,减少大量重复的工作任务 邮件工具:配合富文本,发送html格式的邮件 七牛云存储:可同步七牛云存储的数据到系统,无需登录七牛云直接操作云数据 支付宝支付:整合了支付宝支付并且提供了测试账号,可自行测试 服务监控:监控服务器的负载情况 运维管理:一键部署你的应用 项目结构 项目采用按功能分模块的开发方式,结构如下 eladmin-common 为系统的公共模块,各种工具类,公共配置存在该模块 eladmin-system 为系统核心模块也是项目入口模块,也是最终需要打包部署的模块 eladmin-logging 为系统的日志模块,其他模块如果需要记录日志需要引入该模块 eladmin-tools 为第三方工具模块,包含:图床、邮件、云存储、本地存储、支付宝 eladmin-generator 为系统的代码生成模块,代码生成的模板在 system 模块中 详细结构 来源https://github.com/elunez/eladmin

资源

【Demo】基于Codeigniter框架的pkadmin后台管理系统

pkadmin后台管理系统是基于Codeigniter_v3.1.0框架和Olive Admin后台模版进行开发的。 安装说明 1.将pkadmin.sql文件导入到数据库中。 2.修改文件App/config/database.php。 3.填写正确的数据库配置信息。 测试帐号:admin 登录密码:admin2016 系统展示 来源https://github.com/zhihuawei/Pkadmin

资源

【Demo】基于SpringBoot+MyBatis实现的电商系统

项目介绍 mall项目是一套电商系统,包括前台商城系统及后台管理系统,基于SpringBoot+MyBatis实现,采用Docker容器化部署。前台商城系统包含首页门户、商品推荐、商品搜索、商品展示、购物车、订单流程、会员中心、客户服务、帮助中心等模块。后台管理系统包含商品管理、订单管理、会员管理、促销管理、运营管理、内容管理、统计报表、财务管理、权限管理、设置等模块。 项目演示 后台管理系统 前端项目mall-admin-web地址:https://github.com/macrozheng/mall-admin-web 项目演示地址: http://www.macrozheng.com/admin/index.html 组织结构 技术选型 后端技术 技术 说明 官网 SpringBoot 容器+MVC框架 https://spring.io/projects/spring-boot SpringSecurity 认证和授权框架 https://spring.io/projects/spring-security MyBatis ORM框架 http://www.mybatis.org/mybatis-3/zh/index.html MyBatisGenerator 数据层代码生成 http://www.mybatis.org/generator/index.html Elasticsearch 搜索引擎 https://github.com/elastic/elasticsearch RabbitMQ 消息队列 https://www.rabbitmq.com/ Redis 分布式缓存 https://redis.io/ MongoDB NoSql数据库 https://www.mongodb.com LogStash 日志收集工具 https://github.com/elastic/logstash Kibina 日志可视化查看工具 https://github.com/elastic/kibana Nginx 静态资源服务器 https://www.nginx.com/ Docker 应用容器引擎 https://www.docker.com Jenkins 自动化部署工具 https://github.com/jenkinsci/jenkins Druid 数据库连接池 https://github.com/alibaba/druid OSS 对象存储 https://github.com/aliyun/aliyun-oss-java-sdk MinIO 对象存储 https://github.com/minio/minio JWT JWT登录支持 https://github.com/jwtk/jjwt Lombok 简化对象封装工具 https://github.com/rzwitserloot/lombok Hutool Java工具类库 https://github.com/looly/hutool PageHelper MyBatis物理分页插件 http://git.oschina.net/free/Mybatis_PageHelper Swagger-UI 文档生成工具 https://github.com/swagger-api/swagger-ui Hibernator-Validator 验证框架 http://hibernate.org/validator 前端技术 技术 说明 官网 Vue 前端框架 https://vuejs.org/ Vue-router 路由框架 https://router.vuejs.org/ Vuex 全局状态管理框架 https://vuex.vuejs.org/ Element 前端UI框架 https://element.eleme.io Axios 前端HTTP框架 https://github.com/axios/axios v-charts 基于Echarts的图表框架 https://v-charts.js.org/ Js-cookie cookie管理工具 https://github.com/js-cookie/js-cookie nprogress 进度条控件 https://github.com/rstacruz/nprogress 架构图 系统架构图 业务架构图 模块介绍 后台管理系统 mall-admin 商品管理:功能结构图-商品.jpg 订单管理:功能结构图-订单.jpg 促销管理:功能结构图-促销.jpg 内容管理:功能结构图-内容.jpg 用户管理:功能结构图-用户.jpg 前台商城系统 mall-portal 开发进度 环境搭建 开发工具 工具 说明 官网 IDEA 开发IDE https://www.jetbrains.com/idea/download RedisDesktop redis客户端连接工具 https://github.com/qishibo/AnotherRedisDesktopManager Robomongo mongo客户端连接工具 https://robomongo.org/download SwitchHosts 本地host管理 https://oldj.github.io/SwitchHosts/ X-shell Linux远程连接工具 http://www.netsarang.com/download/software.html Navicat 数据库连接工具 http://www.formysql.com/xiazai.html PowerDesigner 数据库设计工具 http://powerdesigner.de/ Axure 原型设计工具 https://www.axure.com/ MindMaster 思维导图设计工具 http://www.edrawsoft.cn/mindmaster ScreenToGif gif录制工具 https://www.screentogif.com/ ProcessOn 流程图绘制工具 https://www.processon.com/ PicPick 图片处理工具 https://picpick.app/zh/ Snipaste 屏幕截图工具 https://www.snipaste.com/ Postman API接口调试工具 https://www.postman.com/ Typora Markdown编辑器 https://typora.io/ 开发环境 工具 版本号 下载 JDK 1.8 https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html Mysql 5.7 https://www.mysql.com/ Redis 5.0 https://redis.io/download MongoDB 4.2.5 https://www.mongodb.com/download-center RabbitMQ 3.7.14 http://www.rabbitmq.com/download.html Nginx 1.10 http://nginx.org/en/download.html Elasticsearch 7.6.2 https://www.elastic.co/downloads/elasticsearch Logstash 7.6.2 https://www.elastic.co/cn/downloads/logstash Kibana 7.6.2 https://www.elastic.co/cn/downloads/kibana 搭建步骤 Windows环境部署 Windows环境搭建请参考:mall在Windows环境下的部署; 注意:只启动mall-admin,仅需安装Mysql、Redis即可; 克隆mall-admin-web项目,并导入到IDEA中完成编译:前端项目地址; mall-admin-web项目的安装及部署请参考:mall前端项目的安装与部署。 Docker环境部署 使用虚拟机安装CentOS7.6请参考:虚拟机安装及使用Linux,看这一篇就够了; Docker环境的安装请参考:开发者必备Docker命令; 本项目Docker镜像构建请参考:使用Maven插件为SpringBoot应用构建Docker镜像; 本项目在Docker容器下的部署请参考:mall在Linux环境下的部署(基于Docker容器); 本项目使用Docker Compose请参考: mall在Linux环境下的部署(基于Docker Compose); 本项目在Linux下的自动化部署请参考:mall在Linux环境下的自动化部署(基于Jenkins); 相关环境部署 ELK日志收集系统的搭建请参考:SpringBoot应用整合ELK实现日志收集; 使用MinIO存储文件请参考:前后端分离项目,如何优雅实现文件存储; 读写分离解决方案请参考:你还在代码里做读写分离么,试试这个中间件吧; Redis集群解决方案请参考:Docker环境下秒建Redis集群,连SpringBoot也整上了!。 来源https://github.com/macrozheng/mall

  • 1
  • 7
  • 8
  • 9
  • 20
前往