人工智能

人工智能 · 圈子

674 位酷友已加入

本圈子收集关于人工智能的各种技术资料,加入圈子可以上传、下载资料,也可以使用提问来寻求资料或分享你认为有价值的站外链接~

关注推荐最新

热门标签

计算机

计算机·圈子   首发

阿托 更新了
资源

中文生成任务基准测评

CLGE Chinese Language Generation Evaluation 中文生成任务基准测评 为中文生成任务提供数据集、基准(预训练)模型和排行榜。 一键运行 文本生成方法 LSTM-seq2seq 参考:苏剑林. (2018, Sep 01). 《玩转Keras之seq2seq自动生成标题 》[Blog post]. Retrieved from https://spaces.ac.cn/archives/5861 BERT-UNILM 方案 参考:苏剑林. (2019, Sep 18). 《从语言模型到Seq2Seq:Transformer如戏,全靠Mask 》[Blog post]. Retrieved from https://spaces.ac.cn/archives/6933 测评指标 Rouge-1 rouge-1 比较生成文本和参考文本之间的重叠词(字)数量 Rouge-2 rouge-2 比较生成文本和参考文本之间的 2-gram 重叠的数量 Rouge-L rouge-l 根据生成文本和参考文本之间的最长公共子序列得出 BLEU Bilingual Evaluation Understudy 数据集介绍 1.CSL 中长文本摘要生成 百度网盘 提取码: u6mc 中文科学文献数据(CSL),选取 10k 条计算机相关领域论文及其标题作为训练集。 运行结果 模型 Rouge-L Rouge-1 Rouge-2 BLEU 训练参数 ALBERT-tiny 48.11 52.75 37.96 21.63 batch_size=8, length=256, epoch=10, lr=1e-5 BERT-base 59.76 63.83 51.29 41.45 batch_size=8, length=256, epoch=10, lr=1e-5 BERT-wwm-ext 59.40 63.44 51.00 41.19 batch_size=8, length=256, epoch=10, lr=1e-5 RoBERTa-wwm-ext 58.99 63.23 50.74 41.31 batch_size=8, length=256, epoch=10, lr=1e-5 RoBERTa-wwm-large - - - - batch_size=4, length=256, epoch=10, lr=1e-5 LSTM-seq2seq 41.80 46.48 30.48 22.00 batch_size=64, length=256, epoch=20, lr=1e-3 来源https://github.com/CLUEbenchmark/CLGE

计算机

计算机·圈子   首发

侧卫 更新了
资源

2020中国AI中台应用趋势报告-爱分析-2020年11月

内容 AI场景数量的爆发催生AI中台,为AI应用开发提供快速构建能力支持。Al 中台以平台化开发模式替代“烟囱式”开发架构,结合自动化、低门槛的建模方式提升投入产出比。企业应从顶层规划开始,设定用例规划,完善数据基础设施,并明确厂商选型评价指标,选择符合自身需求的供应商,按需求落地AI中台各模块。 在推进数字化和智能化转型的过程中,企业逐步构建数据中台等数据资产管理与服务基础设施,以及机器学习平台等AI模型开发基础设施,AI 中台逐渐形成。基于调研,爱分析认为,AI中台是为企业智能应用提供AI能力支撑的统-共享服务平台,主要包括开发平台层、资产层(算法库&样本库)、业务逻辑层和平台管理层。 在实际落地过程中, Al中台多采取分布式微服务架构,各模块间耦合度较低,企业会结合自身业务需求,调整AI中台架构。 Al中台是数据中台的进一步延伸。数据中台为智能化应用开发提供了数据存储和数据计算的能力,但未涉及Al工程能力建设问题。此外,数据中台的数据治理依赖于人工操作,且难以满足不同场景的个性化需求。因此,随着智能化应用数量的增长,企业在提升自身AI工程能力的过程中,把单场景开发下的数据接入、存储、分析、训练和发布的模型开发流水线自动化,逐步形成了Al中台架构。 在AI中台实际落地的过程中,企业往往会根据业务需要,优先侧重某一AI 技术能力的建设。机器学习平台、NLP 平台等皆为构建AI中台的重要模块。由于数据分析相关应用于前台业务场景耦合度更高,企业一般会从机器学习平台出发,构建AI中台架构,并逐步加入NLP、计算机视觉等其他Al功能模块。 目录 1 企业智能化需求与挑战 2 AI中台助力企业智能化落地 3 AI中台应用场景与实践案例 4 AI中台未来趋势展望 结语 发布单位:爱分析 发布时间:2020年11月

计算机

计算机·圈子   首发

侧卫 更新了
资源

2020年AI进展及2021年技术趋势报告-北京智源人工智能研究院-2021

内容 跌宕起伏的 2020 年, 似乎如梦如幻。但这一转折之年,对于 AI领域却无比关键,先后出现了诸多颠覆性的进展。譬如 5 月份诞生的 GPT-3, 让人们看到了通用人工智能的希望 ; 再如 11 月底AlphaFold2 的出现,让人惊叹“它将改变一切”,人们意识到 AI正在以及将要颠覆传统学科。 岁末年初,AI热潮仍然汹涌,应用前景依然广阔。在这样一个时间节点,全体智源学者经过商讨复盘,从科学、系统、算法等层面总结出 2020年AI领域的十大进展,并从人工智能的基础理论、算法、 类脑计算、算力支撑等方面进行预测, 提出 2021 年AI领域十大技术趋势, 共同展望人工智能未来的发展方向。我们相信,人工智能技术的逐渐成熟将能够更好地帮助人类应对后疫情时代的各种不确定性,助力构建充满希望与变化的世界。 目录 序言 2020年人工智能十大技术进展 进展1:OpenAI发布全球规模最大的预训练语言模型GPT-3 进展2:DeepMind的AlphaFold2破解蛋白质结构预测难题 进展3:深度势能分子动力学研究获得戈登·贝尔奖 进展4:DeepMind等用深度神经网络求解薛定谔方程促进量子化学发展 进展5:美国贝勒医学院通过动态颅内电刺激实现高效“视皮层打印” 进展6:清华大学首次提出类脑计算完备性概念及计算系统层次结构 进展7:北京大学首次实现基于相变存储器的神经网络高速训练系统 进展8:MIT仅用19个类脑神经元实现控制自动驾驶汽车 进展9:Google与Facebook团队分别提出全新无监督表征学习算法 进展10:康内尔大学提出可缓解检索排序马太效应问题的无偏公平排序模型 2021年人工智能十大技术趋势 趋势1:科学计算中的数据与机理融合建模 趋势2:深度学习理论迎来整合与突破 趋势3:机器学习向分布式隐私保护方向演进 趋势4:大规模自监督预训练方法进一步发展 趋势5:基于因果学习的信息检索模型与系统成为重要发展方向 趋势6:类脑计算系统从“专用”向“通用”逐步演进 趋势7:类脑计算从散点独立研究向多点迭代发展迈进 趋势8:神经形态硬件特性得到进一步的发掘并用于实现更为先进的智能系统 趋势9:人工智能从脑结构启发走向结构与功能启发并重 趋势10:人工智能计算中心成为智能化时代的关键基础设施 发布单位:北京智源人工智能研究院 发布时间:2021

资源

百度的开源情感分析系统

简介 情感分析旨在自动识别和提取文本中的倾向、立场、评价、观点等主观信息。它包含各式各样的任务,比如句子级情感分类、评价对象级情感分类、观点抽取、情绪分类等。情感分析是人工智能的重要研究方向,具有很高的学术价值。同时,情感分析在消费决策、舆情分析、个性化推荐等领域均有重要的应用,具有很高的商业价值。 近日,百度正式发布情感预训练模型SKEP(Sentiment Knowledge Enhanced Pre-training for Sentiment Analysis)。SKEP利用情感知识增强预训练模型, 在14项中英情感分析典型任务上全面超越SOTA,此工作已经被ACL 2020录用。 论文地址:https://arxiv.org/abs/2005.05635 为了方便研发人员和商业合作伙伴共享效果领先的情感分析技术,本次百度在Senta中开源了基于SKEP的情感预训练代码和中英情感预训练模型。而且,为了进一步降低用户的使用门槛,百度在SKEP开源项目中集成了面向产业化的一键式情感分析预测工具。用户只需要几行代码即可实现基于SKEP的情感预训练以及模型预测功能。 SKEP SKEP是百度研究团队提出的基于情感知识增强的情感预训练算法,此算法采用无监督方法自动挖掘情感知识,然后利用情感知识构建预训练目标,从而让机器学会理解情感语义。SKEP为各类情感分析任务提供统一且强大的情感语义表示。 百度研究团队在三个典型情感分析任务,句子级情感分类(Sentence-level Sentiment Classification),评价对象级情感分类(Aspect-level Sentiment Classification)、观点抽取(Opinion Role Labeling),共计14个中英文数据上进一步验证了情感预训练模型SKEP的效果。实验表明,以通用预训练模型ERNIE(内部版本)作为初始化,SKEP相比ERNIE平均提升约1.2%,并且较原SOTA平均提升约2%,具体效果如下表: 任务 数据集合 语言 指标 原SOTA SKEP 数据集地址 句子级情感分类 SST-2 英文 ACC 97.50 97.60 下载地址 句子级情感分类 Amazon-2 英文 ACC 97.37 97.61 下载地址 句子级情感分类 ChnSentiCorp 中文 ACC 95.80 96.50 下载地址 句子级情感分类 NLPCC2014-SC 中文 ACC 78.72 83.53 下载地址 评价对象级的情感分类 Sem-L 英文 ACC 81.35 81.62 下载地址 评价对象级的情感分类 Sem-R 英文 ACC 87.89 88.36 下载地址 评价对象级的情感分类 AI-challenge 中文 F1 72.87 72.90 暂未开放 评价对象级的情感分类 SE-ABSA16_PHNS 中文 ACC 79.58 82.91 下载地址 评价对象级的情感分类 SE-ABSA16_CAME 中文 ACC 87.11 90.06 下载地址 观点抽取 MPQA-H 英文 b-F1/p-F1 83.67/77.12 86.32/81.11 下载地址 观点抽取 MPQA-T 英文 b-F1/p-F1 81.59/73.16 83.67/77.53 下载地址 观点抽取 COTE_BD 中文 F1 82.17 84.50 下载地址 观点抽取 COTE_MFW 中文 F1 86.18 87.90 下载地址 观点抽取 COTE_DP 中文 F1 84.33 86.30 下载地址 代码结构 一键化工具 为了降低用户的使用门槛,百度在SKEP开源项目中集成了面向产业化的一键式情感分析预测工具。具体安装和使用方法如下: 安装方法 本仓库支持pip安装和源码安装两种方式,使用pip或者源码安装时需要先安装PaddlePaddle,PaddlePaddle安装请参考安装文档。 pip安装 源码安装 使用方法 详细使用说明 项目下载 代码下载 下载代码库到本地 模型下载 下载情感分析预训练SKEP的中文模型和英文模型(本项目中开放了以ERNIE 1.0 large(中文)、ERNIE 2.0 large(英文)和RoBERTa large(英文)作为初始化,训练的中英文情感预训练模型) demo数据下载 下载demo数据用作SKEP训练和情感分析任务训练 环境安装 PaddlePaddle 安装 本项目依赖于 PaddlePaddle 1.6.3,PaddlePaddle安装后,需要及时的将 CUDA、cuDNN、NCCL2 等动态库路径加入到环境变量 LD_LIBRARY_PATH 之中,否则训练过程中会报相关的库错误。具体的paddlepaddle配置细节请查阅这里 安装文档。 推荐使用pip安装方式 senta项目python包依赖 支持Python 3 的版本要求 3.7; 项目中其他python包依赖列在根目录下的requirements.txt文件中,使用以下命令安装: 环境变量添加 在./env.sh中修改环境变量,包括python、CUDA、cuDNN、NCCL2、PaddlePaddle相关环境变量,PaddlePaddle环境变量说明请参考 PaddlePaddle环境变量说明 模型训练和预测 Pre-train训练 Finetune训练和预测句子级情感分类任务 Finetune训练和预测评价对象级的情感分类任务 Finetune训练和预测观点抽取或标注任务 该代码同时支持用户进一步开发使用,可以根据配置文件中设置相关数据、模型、优化器,以及修改模型的超参数进行二次开发训练。 本代码库目前仅支持基于SKEP情感预训练模型进行训练和预测,如果用户希望使用Bow、CNN、LSTM等轻量级模型,请移步至Senta v1使用。 Demo数据集说明 该项目中使用的各数据集的说明、下载方法及使用样例如下: 句子级情感分类数据集 ChnSentiCorp是中文句子级情感分类数据集,包含酒店、笔记本电脑和书籍的网购评论。为方便使用demo数据中提供了完整数据,数据示例: SST-2是英文句子情感分类数据集,主要由电影评论构成。为方便使用demo数据中提供了完整数据,数据集下载地址,数据示例: 评价对象级情感分类数据集 SE-ABSA16_PHNS是中文评价对象级情感分类数据集,主要由描述手机类别某个属性的商品用户评论构成。为方便使用demo数据中提供了完整数据,数据集下载地址,数据集示例如下: Sem-L数据集是英文评价对象级情感分类数据集,主要由描述笔记本电脑类别某个属性的商品用户评论构成。为方便使用demo数据中提供了完整数据,数据集下载地址,数据集示例如下: 观点抽取抽取数据集 COTE-BD数据集是中文互联网评论数据集。为方便使用demo数据中提供了完整数据,数据集下载地址,数据集使用例子如下,其中为了方便模型使用,下面数据是将文本进行分词处理后结果,标签用BIO标记评论实体或者事件。 MPQA数据集是英文互联网评论数据集。为方便使用demo数据中提供了完整数据,数据集下载地址,数据集使用例子如下,其中为了方便模型使用需要将文本进行分词处理,标签用BIO标记评论内容、评论实体和实体内容表达主体。 论文效果复现 基于该项目可以实现对于论文 Sentiment Knowledge Enhanced Pre-training for Sentiment Analysis 效果的复现。下面给出论文效果的复现方法示例: 注:如需要复现论文数据集结果,请参考论文修改对应任务的参数设置。 来源https://github.com/baidu/Senta

计算机

计算机·圈子   首发

侧卫 更新了
资源

2020年AI新基建白皮书-国家工业信息安全发展研究中心-2021年1月

内容 当前,“十四五”进入开局之年,全球疫情持续影响、宏观环境复杂多变,我国正处于经济结构调整、产业转型升级的关键时期。以 AI 新基建为代表的新型基础设施能够对冲疫情影响、拉动经济发展、助力满足人民日益增长的美好生活需要,是打通国内国际“双循环”的重要着力点。 在各级政府、行业企业、资本市场、科研机构的合力推动下,我国 AI 新基建呈现蓬勃发展态势。一方面,通过智算中心、公共数据集、开源框架、开放平台等基础设施发挥平台支撑作用,有力支撑人工智能发展;另一方面,通过人工智能的技术赋能性,推动制造、医疗、交通、能源、金融等传统行业转型升级,有力支撑智能经济发展。 与此同时,我国 AI 新基建在技术、数据、融合、安全等方面仍面临着一定挑战,应加大力度筑牢基础、激发活力,加快核心技术攻关、推动应用深化落地、构建公共服务平台、加强安全风险管理,进一步发挥 AI 新基建的技术赋能作用 和公共基础作用,驱动产业转型升级、助力经济高质量发展。 目录 一、AI 新基建的内涵及作用 (一)AI 新基建的内涵 (二)AI 新基建的作用 1.内生动力:AI 算力、数据、算法支撑人工智能持续创新发展 2.外部赋能:AI 应用解决方案推动传统行业转型升级 二、AI 新基建发展现状 (一)总体态势 1.我国高度重视 AI 新基建发展 2.地方政府积极布局 AI 新基建 3.AI 新基建投资市场不断升温 4.AI 新基建成为重点科研方向 5.各类企业主体发力 AI 新基建 (二)细分领域 1.AI 算力成为重点发力方向,市场规模不断增长 2.AI 数据逐步迈向开放化、专业化,高质量数据集成为重点 3.AI 算法持续深化赋能,开源生态初步显现 4.“AI+制造”热度不断攀升,各类主体同发力 5.“AI+医疗”发展环境逐步成熟,应用进程不断加速 6.“AI+交通”加速落地,呈现“三足鼎立”的市场竞争格局 7.“AI+能源”市场需求旺盛,行业巨头纷纷入局..33 8.“AI+金融”正式步入落地阶段,应用不断纵深发展 三、AI 新基建发展面临的挑战 (一)AI 算力、算法对外依存度较高,基础技术仍有不足 (二)AI 数据采集、流通和使用仍有壁垒,数据价值释放不足 (三)AI 赋能路径、规则和人才存在制约,融合发展仍待深化 (四)AI“双刃剑”问题进一步叠加放大,风险管理亟需增强 四、AI 新基建发展对策建议 (一)加强高端芯片、核心算法等基础技术攻关 (二)进一步发挥 AI 应用解决方案赋能作用 (三)加大力度构建人工智能基础资源公共服务平台 (四)加强人工智能安全风险管理体系建设 发布单位:国家工业信息安全发展研究中心 发布时间:2021年1月

计算机

计算机·圈子   首发

侧卫 更新了
资源

全球AI技术趋势发展演进-机器之心-2021

内容 2017 年,机器之心就发布了《机器之心人工智能技术趋势报告》,系统介绍了人工智能领域(AI)下不同的技术分支,并以定性分析的方法讨论了各分支技术当时所处的发展阶段、瓶颈以及未来发展方向,帮助读者理解飞速发展中的AI 领域内各项技术的概况和层出不穷的新鲜技术内涵。在初版报告发布至今的这三年里,越来越多的 AI 技术实现了商业落地,但也有不少深度学习方法开始触碰到技术自身的天花板,亟需突破。在这个可能是 AI 技术发展的关键拐点,我们发布《2020-2021 全球 AI 技术趋势发展报告》,兼顾 2017 年初版报告定性分析方法的同时,重点加强了数据层面的挖掘、分析和探索,更加侧重对具体技术趋势的挖掘以及量化分析指标的形成。定量研究方面,本报告基于近五年的开源论文与专利语料,结合机器之心自有的新闻舆论以及模型最佳表现(SOTA)等相关数据库进行了探索性数据分析,并形成了用以帮助技术趋势判定的量化指标 Synced Indicator;定性研究方面,机器之心邀请了近 100 位专家学者通过问卷形式了解其对具体技术成熟情况的分析判断。报告分 Lite(简要版)与 Plus(完整版)两个版本。当前的 Lite 版涵盖“顶会趋势(NeurIPS)分析”、“2020-2021 技术趋势总结”两个主要部分,同时包含“参考文献”、“近年技术领域相关大事件”以及“Synced Indicator 技术指标”的附录供参考。另有 Plus 版在 Lite 版的基础上增加了包含完整数据和丰富图表的各技术领域趋势分析细节,同时在附录介绍了具体的数据来源、分析方法、研究局限以及未来研究方向供参考。 目录 前言 章节一:顶会趋势(NeurIPS)分析 1-1 发表论文作者相关数据情况 1-2 发表论文机构相关数据情况 1-3 趋势分析 1-3-1 论文热门主题 1-3-2 知名机构关注论文主题 1-3-3 报告相关热门技术 1-3-4 趋势小结 章节二:2020~2021 技术趋势总结 2-1 背景 2-2 人工智能技术总趋势 2-3 人类语言技术趋势 2-4 计算机视觉技术趋势 2-5 机器人与自动化技术趋势 2-6 机器学习技术趋势 2-7 智能基础设施技术趋势 2-8 数据智能技术趋势 2-9 前沿智能技术趋势 章节三:2020~2021 技术趋势分析详解 3-1 人类语言技术 3-2 计算机视觉 3-3 机器人与自动化技术 3-4 机器学习 3-5 智能基础设施 46 3-6 数据智能技术 3-7 前沿智能技术 附录 I:技术趋势分析方法、数据及局限 附录 II:技术领域相关大事件 (2015~2020) 附录 III:Synced Indicators 附录 IV:参考文献 发布单位:机器之心 发布时间:2021年1月

资源

用于年龄估算的紧凑型软件阶段回归网络

SSR网络 [IJCAI18] SSR-Net:用于年龄估算的紧凑型软件阶段回归网络 具有0.32MB的实时年龄估算模型。 还添加了性别回归! https://github.com/b02901145/SSR-Net_megaage-asian 提供了Megaage-Asian https://github.com/shamangary/Keras-to-coreml-multiple-inputs-example 中提供了Coreml模型(0.17MB) 结果展示 参考论文 作者:Tsun-Yi Yang, Yi-Husan Huang, Yen-Yu Lin, Pi-Cheng Hsiu, and Yung-Yu Chuang 论文摘要 本文提出了一种新颖的CNN模型,称为“软分段回归网络(SSR-Net)”,用于从具有紧凑模型尺寸的单个图像进行年龄估算。受DEX启发,本项目通过执行多类别分类然后通过计算期望值将分类结果转换为回归来解决年龄估计问题。SSR-Net采用从粗到精的策略,并执行多个阶段的多类分类。每个阶段仅负责完善前一阶段的决策。因此,每个阶段执行的任务很少,而且所需的神经元也很少,从而大大减小了模型的大小。为了解决将年龄分组到类别中引入的量化问题,SSR-Net通过允许根据输入的面部图像进行移动和缩放来为每个年龄类别分配动态范围。多阶段策略和动态范围都被纳入到软阶段回归的公式中。提出了一种新颖的网络架构来进行软件的逐步回归。生成的SSR-Net模型非常紧凑,仅需0.32 MB。尽管具有紧凑的尺寸,但SSR-Net的性能仍能与模型尺寸大1500倍的最新方法相媲美。 平台 Keras Tensorflow GTX-1080Ti Ubuntu 依赖 A guide for most dependencies. (in Chinese) http://shamangary.logdown.com/posts/3009851 Anaconda OpenCV dlib MTCNN for demo pip install mtcnn MobileNet (already in the codes) https://github.com/fchollet/keras/blob/master/keras/applications/mobilenet.py DenseNet (already in the codes) https://github.com/titu1994/DenseNet Face alignment (already in the codes) https://github.com/xyfeng/average_portrait Others 代码 该项目分为三个不同的部分。 数据预处理 培训与测试 视频演示部分我们将在以下各节中详细介绍。 该存储库适用于IMDB,WIKI和Morph2数据集。 数据预处理 从https://data.vision.ee.ethz.ch/cvl/rrothe/imdb-wiki/ 下载IMDB-WIKI数据集(仅面部)。 Morph2数据集需要申请表格 https://www.faceaginggroup.com/?page_id=1414 https://ebill.uncw.edu/C20231_ustores/web/classic/product_detail.jsp?PRODUCTID=8 将它们解压缩到“ ./data”下 运行以下代码进行数据集预处理。 训练和测试 通过随机选择80%的数据集作为训练和20%的数据集作为验证(或测试)来完成实验。本文中每个数据集中的设置详细信息。 对于MobileNet和DenseNet: 对于SSR-Net: 请注意,在此代码中提供了几种不同的超参数组合。如果只需要单个超参数集,请在“ run_ssrnet.sh”中更改命令。 绘制结果: 例如,在训练IMDB数据集之后,想要绘制曲线和结果。将“ plot.sh”,“ ssrnet_plot.sh”和“ plot_reg.py”复制到“ ./imdb_models”中。以下命令应标出训练过程的结果。 视频演示部分 纯CPU演示命令: 注意:你可以选择其他预先训练的模型。但是,morph2数据集处于良好控制的环境中,并且比IMDB和WIKI小得多,来自morph2的预训练模型可能在野外图像上表现出色。因此,对于野外图像或视频演示,建议使用IMDB或WIKI预训练模型。 由于面部数据井井有条,因此本项目在上一个实验部分中使用了dlib检测和面部对齐。但是,dlib无法为野生视频提供令人满意的人脸检测。因此,在演示部分中,本项目将mtcnn用作检测过程。 实时摄像头演示 考虑到人脸检测过程(MTCNN或Dlib)还不够快,无法进行实时演示。本项目通过使用lbp人脸检测器显示实时网络摄像头版本。 请注意,当使用MTCNN,Dlib或LBP时,面部检测的覆盖区域是不同的。你应该在推理和训练之间选择相似的大小。 同样,预训练的模型主要用于数据集的评估。它们并非真正用于真实世界的图像。你应该始终通过自己的数据集重新训练模型。在网络摄像头演示中,发现morph2预训练模型实际上比wiki预训练模型表现更好。讨论将包含在项目的未来工作中。 如果是亚洲人,则可能要使用megaage_asian预训练模型。 Morph2预先训练的模型非常适合网络摄像头,但是性别模型过拟合且不实用。 扩展 训练性别模型 可以将二进制分类问题重新构造为回归问题,并且可以使用SSR-Net来预测置信度。例如,本项目在扩展代码中提供了性别回归和演示。 训练性别网络: 分数可以在[0,1]之间,并且对于一般提议回归,可以将SSR-Net内部的'V'更改为1。 第三方 MXNET: https://github.com/wayen820/gender_age_estimation_mxnet pytorch: https://github.com/oukohou/SSR_Net_Pytorch Pytorch: https://github.com/CrazySummerday/SSR-Net 转载自:https://github.com/shamangary/SSR-Net

计算机

计算机·圈子   首发

阿托 更新了
资源

基于spark的商品推荐系统

项目体系架构设计 1.1 项目系统架构 项目以推荐系统建设领域知名的经过修改过的中文亚马逊电商数据集作为依托,以某电商网站真实业务数据架构为基础,构建了符合教学体系的一体化的电商推荐系统,包含了离线推荐与实时推荐体系,综合利用了协同过滤算法以及基于内容的推荐方法来提供混合推荐。提供了从前端应用、后台服务、算法设计实现、平台部署等多方位的闭环的业务实现。 用户可视化:主要负责实现和用户的交互以及业务数据的展示,主体采用AngularJS2进行实现,部署在Apache服务上。 综合业务服务:主要实现JavaEE层面整体的业务逻辑,通过Spring进行构建,对接业务需求。部署在Tomcat上。 【数据存储部分】 业务数据库:项目采用广泛应用的文档数据库MongDB作为主数据库,主要负责平台业务逻辑数据的存储。 缓存数据库:项目采用Redis作为缓存数据库,主要用来支撑实时推荐系统部分对于数据的高速获取需求。 【离线推荐部分】 离线统计服务:批处理统计性业务采用Spark Core + Spark SQL进行实现,实现对指标类数据的统计任务。 离线推荐服务:离线推荐业务采用Spark Core + Spark MLlib进行实现,采用ALS算法进行实现。 【实时推荐部分】 日志采集服务:通过利用Flume-ng对业务平台中用户对于商品的一次评分行为进行采集,实时发送到Kafka集群。 消息缓冲服务:项目采用Kafka作为流式数据的缓存组件,接受来自Flume的数据采集请求。并将数据推送到项目的实时推荐系统部分。 实时推荐服务:项目采用Spark Streaming作为实时推荐系统,通过接收Kafka中缓存的数据,通过设计的推荐算法实现对实时推荐的数据处理,并将结构合并更新到MongoDB数据库。 1.2 项目数据流程 【系统初始化部分】 通过Spark SQL将系统初始化数据加载到MongoDB中。 【离线推荐部分】 可以通过Azkaban实现对于离线统计服务以离线推荐服务的调度,通过设定的运行时间完成对任务的触发执行。 离线统计服务从MongoDB中加载数据,将【商品平均评分统计】、【商品评分个数统计】、【最近商品评分个数统计】三个统计算法进行运行实现,并将计算结果回写到MongoDB中;离线推荐服务从MongoDB中加载数据,通过ALS算法分别将【用户推荐结果矩阵】、【影片相似度矩阵】回写到MongoDB中。 【实时推荐部分】 Flume从综合业务服务的运行日志中读取日志更新,并将更新的日志实时推送到Kafka中;Kafka在收到这些日志之后,通过kafkaStream程序对获取的日志信息进行过滤处理,获取用户评分数据流【UID|MID|SCORE|TIMESTAMP】,并发送到另外一个Kafka队列;Spark Streaming监听Kafka队列,实时获取Kafka过滤出来的用户评分数据流,融合存储在Redis中的用户最近评分队列数据,提交给实时推荐算法,完成对用户新的推荐结果计算;计算完成之后,将新的推荐结构和MongDB数据库中的推荐结果进行合并。 【业务系统部分】 推荐结果展示部分,从MongoDB中将离线推荐结果、实时推荐结果、内容推荐结果进行混合,综合给出相对应的数据。 商品信息查询服务通过对接MongoDB实现对商品信息的查询操作。 商品评分部分,获取用户通过UI给出的评分动作,后台服务进行数据库记录后,一方面将数据推动到Redis群中,另一方面,通过预设的日志框架输出到Tomcat中的日志中。 商品标签部分,项目提供用户对商品打标签服务。 1.3 数据模型 Product【商品数据表】 字段名 字段类型 字段描述 字段备注 productId Int 商品的ID name String 商品的名称 categories String 商品所属类别 每一项用“|”分割 imageUrl String 商品图片的URL tags String 商品的UGC标签 每一项用“|”分割 Rating【用户评分表】 字段名 字段类型 字段描述 字段备注 userId Int 用户的ID productId Int 商品的ID score Double 商品的分值 timestamp Long 评分的时间 Tag【商品标签表】 字段名 字段类型 字段描述 字段备注 userId Int 用户的ID productId Int 商品的ID tag String 商品的标签 timestamp Long 评分的时间 User【用户表】 字段名 字段类型 字段描述 字段备注 userId Int 用户的ID username String 用户名 password String 用户密码 timestamp Lon0067 用户创建的时间 RateMoreProductsRecently【最近商品评分个数统计表】 字段名 字段类型 字段描述 字段备注 productId Int 商品的ID count Int 商品的评分数 yearmonth String 评分的时段 yyyymm RateMoreProducts【商品评分个数统计表】 字段名 字段类型 字段描述 字段备注 productId Int 商品的ID count Int 商品的评分数 AverageProductsScore【商品平均评分表】 字段名 字段类型 字段描述 字段备注 productId Int 商品的ID avg Double 商品的平均评分 ProductRecs【商品相似性矩阵】 字段名 字段类型 字段描述 字段备注 productId Int 商品的ID recs Array[(productId:Int,score:Double)] 该商品最相似的商品集合 UserRecs【用户商品推荐矩阵】 字段名 字段类型 字段描述 字段备注 userId Int 用户的ID recs Array[(productId:Int,score:Double)] 推荐给该用户的商品集合 StreamRecs【用户实时商品推荐矩阵】 字段名 字段类型 字段描述 字段备注 userId Int 用户的ID recs Array[(productId:Int,score:Double)] 实时推荐给该用户的商品集合 来源https://github.com/AnemoneIndicum/ECommerceRecommendSystem

资源

基于机器学习方法的电影推荐系统

整体介绍 recsys_ui: 前端技术(html5+JavaScript+jquery+ajax) recsys_web: 后端技术(Java+SpringBoot+mysql) recsys_spider: 网络爬虫(python+BeautifulSoup) recsys_sql: 使用SQL数据处理 recsys_model: pandas, libFM, sklearn. pandas数据分析和数据清洗,使用libFM,sklearn对模型初步搭建 recsys_core: 使用pandas, libFM, sklearn完整的数据处理和模型构建、训练、预测、更新的程序 recsys_etl:ETL 处理爬虫增量数据时使用kettle ETL便捷处理数据 设计思路 用简单地方式表述一下设计思路, 后端服务recsys_web依赖于系统数据库的推荐表‘recmovie’展示给用户推荐内容 用户对电影打分后(暂时没有对点击动作进行响应),后台应用会向mqlog表插入一条数据(消息)。 新用户注册,系统会插入mqlog中一条新用户注册消息 新电影添加,系统会插入mqlog中一条新电影添加消息 推荐模块recsys_core会拉取用户的打分消息,并且并行的做以下操作: 注: 由于线上资源匮乏,也不想使系统增加复杂度,所以没有直接使用MQ组件,而是以数据库表作为代替。 recsys_model属于用notebook进行数据分析和数据处理以及建模的草稿,地址为:https://github.com/GavinHacker/recsys_model 其余的所有项目的地址索引为:https://github.com/GavinHacker/technologyx 模型相关的模块介绍 增量的处理用户comment,即增量处理评分模块 这个模块负责监听来自mqlog的消息,如果消息类型是用户的新的comment,则对消息进行拉取,并相应的把新的comment合并到总的训练样本集合,并保存到一个临时目录 然后更新数据库的config表,把最新的样本集合(csv格式)的路径更新上去 运行截图 消息队列的截图 把csv处理为libsvm数据 这个模块负责把最新的csv文件,异步的处理成libSVM格式的数据,以供libFM和LR模型使用,根据系统的性能确定任务的间隔时间 运行截图 基于内容相似度推荐 当监听到用户有新的comment时,该模块将进行基于内容相似度的推荐,并按照电影评分推荐 运行截图 libFM预测 http://www.libfm.org/ 对已有的基于内容推荐召回的电影进行模型预测打分,呈现时按照打分排序 如下图为打分更新 逻辑回归预测 对样本集中的打分做0,1处理,根据正负样本平衡,> 3分为喜欢 即1, <=3 为0 即不喜欢,这样使用逻辑回归做是否喜欢的点击概率预估,根据概率排序 来源https://github.com/GavinHacker/recsys_core

资源

带有关键点检测的超轻量级人脸检测器

实现功能 Retinaface-mobile0.25的训练/测试/评估/ncnn C++推理 Face-Detector-1MB slim和RFB版本的训练/测试/评估/ncnn C++推理 人脸5个关键点检测 支持onnx导出 网络parameter和flop计算 带有关键点检测的超轻量级人脸检测器 提供了一系列适合移动端部署包含关键的人脸检测器: 对Retinaface-mobile0.25修改anchor尺寸,使其更适合边缘计算; 重新实现了Face-Detector-1MB 并添加了关键点检测和ncnn C++部署功能, 在绝大部分情况下精度均好于原始版本. 测试的运行环境 Ubuntu18.04 Python3.7 Pytorch1.2 CUDA10.0 + CUDNN7.5 精度 Widerface测试 在wider face val精度(单尺度输入分辨率:320*240) 方法 Easy Medium Hard libfacedetection v1(caffe) 0.65 0.5 0.233 libfacedetection v2(caffe) 0.714 0.585 0.306 version-slim(原版) 0.765 0.662 0.385 version-RFB(原版) 0.784 0.688 0.418 version-slim(our) 0.795 0.683 0.34.5 version-RFB(our) 0.814 0.710 0.363 Retinaface-Mobilenet-0.25(our) 0.811 0.697 0.376 在wider face val精度(单尺度输入分辨率:640*480) 方法 Easy Medium Hard libfacedetection v1(caffe) 0.741 0.683 0.421 libfacedetection v2(caffe) 0.773 0.718 0.485 version-slim(原版) 0.757 0.721 0.511 version-RFB(原版) 0.851 0.81 0.541 version-slim(our) 0.850 0.808 0.595 version-RFB(our) 0.865 0.828 0.622 Retinaface-Mobilenet-0.25(our) 0.873 0.836 0.638 ps: 测试的时候,长边为320 或者 640 ,图像等比例缩放. Parameter and flop 方法 parameter(M) flop(M) version-slim(our) 0.343 98.793 version-RFB(our) 0.359 118.435 Retinaface-Mobilenet-0.25(our) 0.426 193.921 ps: 320*240作为输入 使用 安装 下载安装 下载此项目文件 安装 “Pytorch version 1.1.0+”和“torchvision 0.3.0+” 代码基于Python 3 数据 数据集目录如下 ps: wider_val.txt只包含val文件名,不包含标签信息。 我们提供了上面目录结构中使用的数据集。 Link: 来自google cloud或百度云 密码: ruck 训练 训练前,你可以在data/config.py and train.py中检查一下网络配置(如batch_size, min_sizes and steps 等) 使用WIDER FACE训练模型: 如果你不想进行训练,我们也提供了一个./weights的训练模型 评估 评估widerface val 生成txt文件 评估txt结果.演示 你也可以使用widerface的MATLAB官方演示。 C++_inference _ncnn 生成onnx文件 onnx文件更改为ncnn(.param和.param) 将*.param和*.bin放进模型中 建立项目(在CmakeList.txt中设置opencv路径) 运行 我们在 "./model"中提供了转换后的文件 参考 FaceBoxes Retinaface (mxnet) Retinaface (pytorch) Ultra-Light-Fast-Generic-Face-Detector-1MB 来源https://github.com/biubug6/Face-Detector-1MB-with-landmark

资源

中文语音克隆兼中文语音合成系统

注意事项: 这个说明是新版GMW版本的语音克隆框架的说明,使用ge2e(编码器)-mellotron-waveglow的模块(简称GMW),运行更简单,效果更稳定和合成语音更加优质。 基于项目Real-Time-Voice-Cloning改造为中文支持的版本ESV版本的说明见README-ESV,该版本使用encoder-synthesizer-vocoder的模块(简称ESV),运行比较复杂。 需要进入zhrtvc项目的代码子目录【zhrtvc】运行代码。 zhrtvc项目默认参数设置是适用于数据目录中的样本数据,仅用于运行通整个流程。 推荐使用mellotron的语音合成器和waveglow的声码器,mellotron设置多种模式适应多种任务使用。 中文语料 包含8个开源数据集,3200个说话人,900小时语音,1300万字 合成样例 https://github.com/KuangDD/zhrtvc/tree/master/data/files/examples 目录介绍 zhrtvc 代码相关的说明详见zhrtvc目录下的readme文件。 models 预训练的模型在百度网盘下载,下载后解压,替换models文件夹即可。 data 语料样例,包括语音和文本对齐语料。 注意: 该语料样例用于测试跑通模型,数据量太少,不可能使得模型收敛,即不会训练出可用模型。 在测试跑通模型情况下,处理自己的数据为语料样例的格式,用自己的数据训练模型即可。 该存储库是通过实时工作的声码器实现从说话者验证到多说话者语音合成的转换学习(SV2TTS)的实现。 代码说明 使用指引 主要做语音合成器Mellotron,声码器WaveGlow。 新版GMW版本的语音克隆框架,用ge2e(编码器)-mellotron-waveglow的模块(简称GMW),运行更简单,效果更稳定和合成语音更加优质。 旧版ESV版本是基于项目的Real-Time-Voice-Cloning改造为中文支持的版本,使用encoder-synthesizer-vocoder的模块(简称ESV),运行比较复杂。 建议使用GMW版本开发,本项目重点维护GMW版。 容器环境 仅限基于ubuntu18.04,python环境是python3.7版本,用anaconda的环境。必要依赖已经安装好,TensorFlow和Torch可以根据自己的实际情况安装。 安装依赖环境 建议用zhrtvc / makefile.py来安装依赖包,如果有依赖包没有成功安装,再单独处理不能成功安装的依赖包。 执行: python makefile.py 或者: python makefile.py [requirement.txt的路径] 注意: GMW版本的依赖:requirements_gmw.txt ESV版本的依赖:requirements_esv.txt 全部版本适用的依赖:requirements.txt 语音合成器mellotron 处理语料 生成用于训练mellotron的数据。 语料格式 metadata.csv 一行描述一个音频文件。 每一行的数据格式: 音频文件相对路径\ t文本内容\ n 例如: aishell / S0093 / BAC009S0093W0368.mp3有着对美和品质感执着的追求 注意: 文本可以是汉字,拼音,汉字可以是分词后的汉字序列。 训练mellotron模型 用处理好的数据训练mellotron的模型。 注意: 如果多个数据一起用,可以用绝对路径表示,汇总到一个metadata.csv文件,便于训练。 应用mellotron模型。 语音合成器waveglow 处理语料 生成用于训练waveglow的数据。 方法同处理mellotron的数据方法。 因为训练声码器只需要音频即可,不需要文本和适当人的标注,故可以任意指定文本和适当的人,格式如训练mellotron的数据格式即可。 训练waveglow模型。 应用waveglow模型。 参考项目 实时语音克隆 此存储库是一个从语音验证到多说话者文本到语音合成(SV2TTS)的迁移学习的实现,其语音编码器可以实时工作 SV2TTS是一个三阶段的深度学习框架,它允许从几秒钟的音频中创建语音的数字表示,并使用它来调节经过训练的文本到语音模型,以推广到新的语音。 结果展示 转载自:https://github.com/KuangDD/zhrtvc

  • 1
  • 20
  • 21
  • 22
  • 46
前往