毕业设计

毕业设计 · 圈子

5541 位酷友已加入

本圈子收集理工类毕业设计与毕业论文,本科、硕士、博士各阶段的都可以,上传时请尽量注明毕设的概述信息~加入圈子可以上传、下载资料,也可以使用提问来寻求资料或分享你认为有价值的站外链接~

关注推荐最新

热门标签

资源

【毕业设计】基于Opencv的车牌识别系统

【毕业设计】基于Opencv的车牌识别系统 主要实现 用python3+opencv3做的中国车牌识别,包括算法和客户端界面,只有2个文件,surface.py是界面代码,predict.py是算法代码,界面不是重点所以用tkinter写得很简单。 环境配置 python3.7.3 opencv4.0.0.21 numpy1.16.2 Tkinter PIL5.4.1 界面效果 算法实现 算法思想来自于网上资源,先使用图像边缘和车牌颜色定位车牌,再识别字符。 车牌定位在predict方法中,为说明清楚,完成代码和测试后,加了很多注释,请参看源码。 车牌字符识别也在predict方法中,请参看源码中的注释,需要说明的是,车牌字符识别使用的算法是opencv的SVM, opencv的SVM使用代码来自于opencv附带的sample,StatModel类和SVM类都是sample中的代码。 SVM训练使用的训练样本来自于github上的EasyPR的c++版本。 由于训练样本有限,测试时会发现,车牌字符识别,可能存在误差,尤其是第一个中文字符出现的误差概率较大。源码中,上传了EasyPR中的训练样本,在train\目录下,如果要重新训练请解压在当前目录下,并删除原始训练数据文件svm.dat和svmchinese.dat。 来源https://github.com/wzh191920/license-plate-recognition

资源

【毕业设计】基于Haar特征与AdaBoost算法的人脸检测的实现

基于Haar特征与AdaBoost算法的人脸检测的实现 实验过程 训练样本: MIT人脸数据库 样本尺寸:20*20px 样本个数:5971个样本,其中人脸样本为2429个 faces文件夹 包含人脸样本 nonfaces文件夹 包含非人脸样本 ======================================== 测试样本: 加州理工大学 人脸数据库 样本尺寸:896*592px 包含450个样本 faces_test文件夹 (程序剔除了部分非人脸样本,实际检测样本数约为440个) 实验结果 注:main.m 为主函数 里面包含训练和检测的主要操作说明和用法。 via:https://github.com/jzplp/Face-Detection

资源

【毕业设计】电影推荐系统

电影推荐系统 主要实现 实现用户登录、评分、推荐,采用协同过滤算法 系统流程 用户注册、登录系统,对看过的电影进行评分,点击提交评分按钮,再点击查看推荐按钮即可看见推荐的电影列表。项目主页以及推荐结果如下: 使用方法 1.首先将项目克隆到本地,用Pycharm打开movierecommend文件夹,并install项目依赖 2.将用到的csv文件导入mysql数据表中,详见数据库建表 ,配置好数据库;注意数据库相关代码(settings.py、views.py)可能都要进行修改以符合实际情况;(本项目端口号为3307,用户为root,密码为admin,database为MovieData); 3.命令行执行: 点击http://127.0.0.1:8000/ 即可查看注册登录以及评分页面。 注意登录后点击电影海报下面的星星对该电影评分,之后还要点击左上角的“提交评分”按钮才能将该评分数据存入mysql中,否则代码会报错。 项目依赖 1.Python3.6+django1.11 (python3.5亦可) 2.MySQL5.6 3.Jquery+CSS3+Html5 数据库建表处理 1.在MySQL中创建一个database,取好名字,比如MovieData; 2.在该数据库中创建moviegenre3和users_resulttable两张表,建表命令行如下: 3.通过命令行或者navicat等工具将项目data文件夹下的两张csv表分别导入上面创建好的两张table中。由于moviegenre3.csv中的超链接较复杂,建议使用navicat工具导入;users_resulttable表可以使用下面命令行导入: 注意,此表没有主键,增加主键操作为: 来源https://github.com/JaniceWuo/MovieRecommend#env

资源

玻璃幕墙商业中心、A,B,C栋连廊景观设计

城市商业中心A,B,C栋连廊景观,以及商业中心加高层写字间,建筑前广场,连续玻璃幕墙的建筑模型设计

资源

【毕业设计】宜居城市信息可视化平台

研究目的 通过搜集城市相关数据,减少用户收集信息的时间,并为用户选择心目中的宜居城市提供更有利的依据。 研究方法 通过网络爬虫就城市的招聘、租房、城市的气候、空气质量指数、美食、旅游景点等等数据进行爬取入库,最后再进行数据的分析统计处理,并通过web可视化的方式展现这些信息变化的特征。 数据来源 招聘信息 招聘信息的数据来源为智联招聘,首先构造出城市+工作职位的url,以便我们更好的搜索数据和解析页面数据。 例如::http://sou.zhaopin.com/jobs/searchresult.ashx?jl=北京&kw=java (jl后边的是城市,kw为职位名), 根据此url解析第一页获取工作数量,智联招聘一页最多显示60条工作职位的信息,一共显示90页,所以我们根据获取的工作数量来确定需要抓取数据的页数,条数大于90页的则获取90页,小于90页的则使用实际页数。然后根据页数构建出最终的url:http://sou.zhaopin.com/jobs/searchresult.ashx?jl=北京&kw=java&p=1(p为页码) 最后抓取每一页上对应具体工作的url所对应的工作信息及其公司信息。统计出最大工资与最小工资的平均工资,中位数工资,以及工资和工作经验的关系等 房租信息 房租信息数据主要来源于赶集网,同样首先构建出对应城市url,例如: http://{}.ganji.com/fang1/o{}/ (第一个{}表示城市的汉子拼音首字母,第二个{}为页数),这里我们只抓取30页。统计出该城市有哪些中介公司,房屋的朝向和价格的关系,计算出每平米的价格等等。 城市气候信息 气候信息数据主要来源于天气网,构建出的url为http://lishi.tianqi.com/{}/index.html ({}为城市汉子的拼音)。抓取该城市自2011-01-01以来的所有天气信息。统计出对应的历史天气,风向、风力以及每月的气温变化等。 空气质量指数信息 AQI信息数据主要来源于中国空气质量在线监测分析平台历史数据网,构建出的url为https://www.aqistudy.cn/historydata/monthdata.php?city=北京 PM2.5历史数据网的数据主要是2013年12月到现在的数据。抓取每个月的数据统计量以及每月对应每天的数据量。统计AQI月变化的趋势以及等级月变化的趋势,统计等级的月数和天数。 旅游景点信息 景点信息数据主要来源于欣欣旅游网,构建的url为:http://{}.cncn.com/jingdian/1-{}-0-0.html (第一个{}为城市名的拼音,第二个{}为页数),首先抓取对应的页数,然后再针对每一页抓取当前城市的所有景点信息。将对应的景点的照片下载到本地,列表展示景点信息,统计出景点的热度排名。 美食信息 美食信息数据也来源于欣欣旅游网,构建的url为:http://{}.cncn.com/meishi/index{}.htm (第一个{}为城市名的拼音,第二个{}为页数)。同样先抓取页数,如果所抓取的页数为空,则说明只有一页。抓取该城市的所有美食信息,将美食图片下载到本地,列表展示之,并根据热度进行排名。 转载自:https://github.com/shenxianchun/cityview

资源

商业中心和高级写字间

商业中心和高级写字间的建筑设计图

资源

基于Django+LayUI+HBase的文献数据挖掘系统的实现

引言:本系统的目标是设计并实现一个基于分布式数据库HBase的文献数据挖掘系统,以帮助科研人员分析出相关科技前沿领域的专家、机构等的学术影响力。并挖掘领域高频词和不同协作者之间的关系图谱,如此便可达到科研决策支持的目的。以下将从几个方面进行简要介绍。 一、开发意义 科研文献是科技与学术的载体,高效的分析科研文献对科技的发展有着重要的推动作用。准确地提取出期刊会议中科研文献元数据里所隐藏的信息,可提高科研文献分析的准确度与效率。 二、功能架构设计 本系统的功能主要分为三个模块,分别是数据统计分析结果展示平台、后台管理系统和数据存储平台,其总体功能架构如图所示。 三、系统实现 3.1 开发环境及框架配置 考虑到系统需求,采用在CentOS系统上,搭建整个开发和运行环境,其中包括Hadoop分布式平台以及HBase分布式数据库,在Win10系统上搭建Django框架、关系型数据库MySQL等必要的开发环境。 环境/框架 名称/版本 操作系统 CentOS 7.5+Win10 数据库 MySQL 5.7+HBase 2.1.0 数据库管理软件 Navicat-10.1.7 主要编程语言 Python-3.6.6 Web服务器 Nginx服务器 后端框架Django 2.0.1 前端框架LayUI 2.4.5 前端框架Bootstrap 3.3.7 可视化图库ECharts 4.2.1 Hadoop 3.0.3 Zookeeper 3.4.13 Gephi复杂网络分析软件 0.9.2 3.2 主要技术实现过程 搭建Hadoop平台。使用四台云主机(CentOS7.5)搭建集群,配置好HDFS、ZooKeeper和HBase。 异步爬取数据。使用Python中的asyncio和aiohttp库,从而异步爬取AAAI人工智能会议的历年论文元数据(包括论文标题、摘要、作者、机构以及关键词等数据)存储到Excel表中,并对爬取的数据进行规则清洗和必要的人工清洗,得到较为干净的数据。 数据分析。1.利用Excel函数进行数据排重、统计、排序;2.利用Python构建作者数据的共现矩阵,然后将其三元组数据导入至Gephi软件进行复杂网络可视化并导出SVG可伸缩矢量图片;3.利用LDA主题模型对论文摘要进行主题聚类,得到top5热门话题;4.最终将清洗后的完整数据以及分析结果数据存储至位于云端的HBase中。 Web系统开发。使用Django+LayUI+Bootstrap开发(对于前端样式冲突问题可通过提升优先级解决),主要功能有注册登录、忘记密码邮箱验证、个人中心信息修改、全局检索、论文下载、数据分析结果展示(使用Echarts和Gephi进行数据可视化)以及词云图(中文使用jieba分词,英文使用wordcloud分词)等。同时使用Django第三方插件xadmin进行后台管理系统的快速注册和绑定。 系统部署。最后将系统部署到云端Nginx服务器中。 四、系统界面展示 4.1 系统主界面展示 4.2 用户注册登录页面 ①注册页面如下: 点击注册按钮后,系统邮箱会自动给注册用户邮箱发激活链接(如下图),当用户在个人邮箱中点击激活链接后方可登录,以此来确认注册为本人操作。 ②登录页面如下: ③忘记密码页面如下,使用邮箱验证修改密码: 用户在收到邮件后点击修改页面链接后,跳转到如下页面进行密码修改。点击“提交”按钮后会自动跳转到登录页面进行登录。如图为修改密码页面图。 4.3 用户个人中心 用户成功登录进入系统主页面后,可进入个人中心查看个人信息,同时可以完善或修改自己的个人信息,其中包括头像、密码、昵称、性别和地址等信息。 4.4 全局检索功能 全局检索功能主要方便用户快速查找所需信息。其中,本系统提供了“标题”、“作者”和“机构”三个方面的模糊查询服务,并对英文关键词大小写不敏感。如图为按论文标题查找,关键词为Machine LEARNING。 4.5 系统各项功能模块 4.5.1 论文所属国家分布(图表基于Echarts实现) 4.5.2 AAAI会议历年中稿率 4.5.3 AAAI词云图 ①动态词云图,使用WordArt第三方在线工具导入。 ②静态词云图,使用Python中的wordcloud制作。 4.5.4 AAAI作者关系图谱 在对作者数据构建共现矩阵并得出其三元组存储形式后,将数据导入到Gephi,使用力引导布局绘制出知识图谱,并以SVG矢量可伸缩图片保存,将其导入到HTML中,借用开源JavaScript包svg_Zoom_Pan实现可无限伸缩且可平移的网页效果 4.5.5 AAAI会议论文主题聚类(使用LDA主题模型) 其中top5主题分别是: 机器学习的理论和应用 自然语言处理 深度神经网络 知识表现与垂直搜索 博弈论与经济范式 4.5.6 AAAI会议论文概览及下载页面 点击标题链接后可进入到论文详情页面,可看到论文标题、摘要以及作者和所属机构,同时对于已登录用户可提供PDF论文下载服务。 4.5.7 AAAI会议论文作者统计 本系统对前五年的作者、前三年以及2018年的做了统计(其中细化为所有作者和第一作者两部分) 4.5.7 AAAI会议论文作者统计 本系统对前五年的作者、前三年以及2018年的做了统计(其中细化为所有作者和第一作者两部分) 4.6 系统管理后台 转载自https://github.com/SparksFly8/DataMingingPaper

资源

【毕业设计】多目相机的视频拼接

研究目的 主要研究内容是基于多目相机,利用图像拼接技术实现大尺寸图像的合成,然后在此基础上,利用多幅图像之间的空间关联,计算单应矩阵,通过图像融合的手段实现大尺寸视频的合成。 熟悉OpenCV基本函数的使用; 搭建Qt+OpenCV开发环境; 熟悉软件编写流程; 掌握多目相机的视频拼接的核心步骤和相关算法 设计并实现图像拼接和视频拼接算法的演示软件; 测试多个摄像头多组视频拼接结果 研究方法 软件方面 采用C+++Qt5.5.1+OpenCV2.4.9 硬件方面 摄像头:采用淘宝上最便宜的小钢炮摄像头,单个价格25元左右 摄像头固定装置:计算摄像头的视场,使用Autodesk 3ds Max设计固定装置,并使用3D打印技术打印 设计思路 图像拼接是视频拼接的核心技术,目前图像拼接技术大体可以分为三个步骤:图像的预处理、图像配准、和图像融合。而图像拼接研究的难点就是图像配准和图像融合。详细步骤如下图: 因为我们设计的相机阵列中的所有的相机设备之间的相对位置是固定不变的,因此任意两幅有重叠区域的图像之间计算得出的透视变换矩阵也是一样的,至少是非常接近的。为了保证视频拼接的实时性和准确性,与一般的视频拼接的方法相比较,我们最终采取的视频拼接的方法如下四步: 我们只需要从四个视频图像中捕获比较合适的图像,保存下来。 根据第一步的图像进行配准操作, 计算出四个摄像头图像之间的单应性矩阵,并且并存储在一个Mat 里面。 在剩下的那些需要实时拼接的视频帧,就可以直接调用存储在Mat 中的单应性矩阵,从而完成配准过程。 这样剩下的那些需要实时拼接的视频帧在拼接的时候就可以省去每次的特征提取配准的时间。只需利用透视变换矩阵进行图像变换拼接和图像融合两个步骤。 整个视频拼接的步骤如下: 研究结论 总结并归纳了图像拼接技术的国内外研究现状,总结并归纳了视频拼接技术的国内外研究现状。为了保证视频拼接的实时性和准确性,最终确定了采用 SURF 算法来作为视频的特征提取的主要算法,并且实现了整个拼接流程。 本文采用 OpenCV 开发平台来完成对实时视频流帧的分离拼接工作。对 OpenCV 视觉开 发平台进行了研究,并结合 Qt5.5 搭建了软件开发平台。 本文完成了非常快速的视频拼接,实现了视频拼接的实时显示 目录 第一章 绪论 1 ┊ 1.1 研究的背景和意义 1 ┊ 1.2 国内外的研究现状 1 ┊ 1.3 开发工具的介绍 2 ┊ 1.4 章节安排 3 ┊第二章 Stanford 大学的多相机阵列介绍 ┊ 2.1 早期的多相机阵列 5 ┊ 2.2 硬件组件 6 ┊ 2.3 系统结构 8 ┊ 2.4 最终多目相机阵列结构 8 ┊第三章 基于多相机的视频拼接的理论 1 ┊ 3.1 图像的变换模型 13 ┊ 3.1.1 仿射变换 13 ┊ 3.1.2 投影变换 13 ┊ 3.2 计算图像透视矩阵 14 第四章 图像拼接技术 15 ┊ 4.1 图像预处理 15 ┊ 4.2 图像配准 16 ┊ 4.3 图像融合 16 第五章 基于特征点的图像配准技术 17 ┊ 5.1 基于特征的配准算法概述 17 ┊ 5.2 SURF 特征提取 18 ┊ 5.3 FLANN 特征匹配 22 第六章 图像融合技术 23 ┊ 6.1 直接平均法 23 ┊ 6.2 加权平均法 23 第七章 多目视频实时拼接技术 27 ┊ 7.1 多目视频实时拼接的理论支持 27 ┊ 7.2 多目视频实时拼接的步骤 27 ┊ 7.2.1 视频采集 28 ┊ 7.2.2 摄像头选取 28 ┊ 7.2.3 确定摄像头相对位置 28 ┊ 7.3 多目视频实时拼接总结 28 ┊ 7.4 软件设计结果 29 转载自: https://github.com/suncle1993/VideoStitching/blob/master/paper/%E3%80%9002%E6%AF%95%E4%B8%9A%E8%AE%BA%E6%96%87%E3%80%91%20%E9%99%88%E4%BA%AE_%E5%A4%9A%E7%9B%AE%E7%9B%B8%E6%9C%BA%E7%9A%84%E8%A7%86%E9%A2%91%E6%8B%BC%E6%8E%A5.pdf

资源

【毕设】基于SpringCloud+Hadoop+Vue的企业级网盘系统设计与实现

一、应用组成 前端:vue-projectManage 后台:mycloud-admin 提供前端服务:mycloud 文件在线预览服务:file-online-preview 二、总体设计 2.1 运行环境 编程语言:Java、Mybatis、Spring、SpringBoot、SpringCloud、Node、Vue 开发环境:Windows 10 + Mysql 开发工具:WebStorm、IDEA编译器、Git、Maven 应用部署服务器:SpringBoot内置Tomcat插件 Node服务器:Node v10.15.3 数据库:Mysql v5.5.59 缓存服务:Redis v2.8.9 代码仓库管理系统:GitHub 服务器环境:处理器Core i5以上 2.2 基本处理流程 企业网盘系统的使用者分为企业普通员工和企业管理员,所以具体流程是不一样的。 企业普通员工进入本系统前台主界面后看到的是首页数据,系统右上角有用户的头像和系统公告通知。在首页顶部的位置有个欢迎用户功能,此模块会根据用户登录的时间,人性化的和用户打招呼,比如用户深夜的时候登陆系统,该提示语会提醒“已经深夜了,你还在加班吗,请注意休息!”。当用户点击我的网盘模块后,系统首先会请求一次连接,展示自己网盘里面的文件,该用户可以对文件进行相关的操作。在分享模块中,用户可以选择不同的栏目,分别对已共享、已接收的文件进行查看。当用户进入存储库模块时,单击不同的文档分类以查看已分类的文档,可以对文件进行查询、预览和下载。系统管理员发布通知后,系统前台会在系统右上角进行消息条数的提醒,点击消息红点后,会出现通知下拉列表框,再点击下拉列表里面的查看更多,可以进入更多模块下的系统公告列表页面,在该页面里面,用户可以通过标题关键字,公告发布的时间范围进行搜索,在更多模块下用户可以动态切换系统主题;当用户退出登录后重新登录,系统的主题还可以保留用户退出登录时所选择的主题。 管理员和超级管理员成功登入系统后台后,默认会调到Index页面去,在该首页,我们可以看到登录用户、服务器运行等相关信息。在数据模块中,可以看到最近上传文件的数量,以及最近一段时间的上传曲线图。系统超级管理员可以管理系统所有功能和所有用户。 2.3 模块结构 基于SpringCloud+Hadoop+Vue企业网盘系统主要分为前台和后台两大模块,前台模块分为首页、网盘、分享、资源库、关注用户、系统公告模块,不同的功能模块拥有的功能也是不相同的。此外,所需权限也不同。后台模块分为用户、部门、角色、网盘、日志、系统监控、接口文档、定时任务模块。在网络磁盘管理模块中,管理员可以上传、删除和修改文档,管理员还可以在线查看多媒体资源,如Word文档、视频、音乐、图片等。 2.4 内部微服务调用流程图 三、系统架构 转载自https://github.com/chenxingxing6/cxx-graduation

资源

市政厅一体化办公楼

市政厅一体化办公楼以及周围交通线路布置图,其中主楼的计算建筑设计图,计算结构设计图见 4层行政办公楼建筑设计 4层行政办公楼结构设计

资源

【毕业设计】基于半监督学习和集成学习的情感分析研究

基于半监督学习和集成学习的情感分析研究 数据 text/JDMilk.arff[tf-idf] 对于baseline 7%作为训练集 30%作为测试集 对于SSL alg 7%作为训练集 63%无标注数据集 30%作为测试集 参考:[高伟女硕士]基于随机子空间自训练的半监督情感分类方法 切分训集和测试集 四折交叉验证 具体做法是:将数据集分成四份,轮流将其中3份作为训练数据,1份作为测试数据,进行试验,最终采用10次结果的正确率的平均值作为对算法精度的估计 显然,这种估计精度的做法具有高时间复杂度 测试标准 准确率(Accuracy) 环境配置 python2.7 scikit,numpy,scipy docker 算法 监督学习(SL)的分类器选择 选择标准:能够输出后验概率的 1.支持向量机(SVC) 2.朴素贝叶斯-多项式分布假设(MultinomialNB) 半监督学习(SSL) 1.Self-Training 最原始的半监督学习算法,但是容易学坏,压根没有改善,甚至更差 Assumption:One's own high confidence predictions are correct. 其主要思路是首先利用小规模的标注样本训练出一个分类器,然后对未标注样本进行分类,挑选置信度(后验概率)最高的样本进行自动标注并且更新标注集,迭代式地反复训练分类器 2.Co-Training 特点:Original(Blum & Mitshell)是针对多视图数据(网页文本和超链接),从不同视图(角度)思考问题,基于分歧 Original视图为2,分别是网站文本和超链接 p=1,n=3,k=30,u=75 Rule#1:样本可以由两个或多个冗余的条件独立视图表示 Rule#2:每个视图都能从训练样本中得到一个强分类器 视图数量4比较好[来自苏艳文献],每个视图内包含的特征数量m为:总特征数量n/2[来自王娇文献]。但是,普通情感评论文本(nlp)并没有天然存在的多个视图,考虑到情感文本中特征数量非常庞大,利用随机特征子空间生成的方式 [RandomSubspaceMethod,RSM]将文本特征空间分为多个部分作为多个视图 但是视图之间至少得满足'redundant but notcompletely correlated'的条件 因为多个视图之间应该相互独立的,如果都是全相关,那么基于多视图训练出来的分类器对相同待标记示例的标记是完全一样的,这样一来Co-Training 算法就退化成了 self-training 算法[来自高原硕士文献] Ramdom Subspaces 最早来源于Tin Kam Ho的The Random Subspace Method forConstructing Decision Forests论文,for improving weak classifiers. ①来自王娇博士文献叙述 假设原数据特征空间为n维 ,随机子空间为 m 维 ,满足 m < n.设标记数据集有l个数据,即| L| = l. 对任意 p ∈ L ,可写成 p = (p1 , p2 , …, pn),将p投影到这m维张成的空间中 ,得到的向量可写成 psub = ( ps1 , ps2 , …, psm)由所有 l 个 psub组成的向量集合Lsub ,就是标记数据集L在其 m维随机子空间中的投影. 重复此过程 K次 ,得到数据特征空间的 K个不同视图,Lsubk(1 ≤k ≤K) Q:还是没有说清楚投影(切分)和随机这两者怎么实现? ②from wikipedia: 1.Let the number of training points be N and the number of features in the training data be D. 2.Choose L to be the number of individual models in the ensemble. 3.For each individual model l, choose dl (dl < D) to be the number of input variables for l. It is common to have only one value of dl for all the individual models. 4.For each individual model l, create a training set by choosing dl features from D with replacement and train the model. ③出处Tin Kam Ho的The Random Subspace Method forConstructing Decision Forests 来源https://github.com/silbertmonaphia/ml

资源

【毕业设计】基于各种机器学习和深度学习的中文微博情感分析

基于各种机器学习和深度学习的中文微博情感分析 项目介绍 用FastText在语料库上训练并生成词向量, 该任务语料库较小, 用fastText可以增加n-gram特征, 比传统word2vec要好 训练集10000条语料, 测试集500条语料 分别用SVM, Bayes, DNN, LSTM, Attention+BiLSTM, XGBoost等多种模型搭建并训练正负情感二分类器 SVM其实不太适合做NLP, 只是当年我还很菜所以选了SVM Bayes速度快, 效果好。可能是因为该任务语料规模较小,在大规模语料任务上性能会下降,而且磁带模型丢失了语序信息,可拓展性不强 DNN效果不好, 不过现在也很少有直接用DNN做NLP的, 所以这里仅作为从机器学习到深度学习的过渡模型了 LSTM用到了上游训练的FastText词向量, 并且考虑了语序信息, 效果有明显提升 Attention+BiLSTM效果很好, 但相比纯LSTM提升没那么明显,主要是因为该任务相对简单且语料少。迁移至更复杂任务后注意力的强大会越来越明显 XGBoost真是机器学习界的一大杀器, 在这种简单的NLP任务上真是又快又好 对不同话题下的100条微博进行简单的舆情分析(正负情感微博比例) 实验结果 各种分类器在测试集上的测试结果 舆情分析 工程结构 来源https://github.com/dengxiuqi/WeiboSentiment

  • 1
  • 20
  • 21
  • 22
  • 27
前往