开源AI(开源ai项目)
大家好!今天让创意岭的小编来大家介绍下关于开源AI的问题,以下是小编对此问题的归纳整理,让我们一起来看看吧。
开始之前先推荐一个非常厉害的Ai人工智能工具,一键生成原创文章、方案、文案、工作计划、工作报告、论文、代码、作文、做题和对话答疑等等
只需要输入关键词,就能返回你想要的内容,越精准,写出的就越详细,有微信小程序端、在线网页版、PC客户端
创意岭作为行业内优秀的企业,服务客户遍布全球各地,如需了解SEO相关业务请拨打电话175-8598-2043,或添加微信:1454722008
本文目录:
一、人工智能的开源代码
LISP:像LISP这样的高级语言在人工智能中备受青睐,因为在各高校多年的研究后选择了快速原型而舍弃了快速执行。垃圾收集,动态类型,数据函数,统一的语法,交互式环境和可扩展性等一些特性使得LIST非常适合人工智能编程。PROLOG:这种语言有着LISP高层和传统优势有效结合,这对AI是非常有用的。它的优势是解决“基于逻辑的问题”。Prolog提供了针对于逻辑相关问题的解决方案,或者说它的解决方案有着简洁的逻辑特征。它的主要缺点(恕我直言)是学起来很难。C/C++:就像猎豹一样,C/C++主要用于对执行速度要求很高的时候。它主要用于简单程序,统计人工智能,如神经网络就是一个常见的例子。Backpropagation 只用了几页的C/C++代码,但是要求速度,哪怕程序员只能提升一点点速度也是好的。JAVA:新来者,Java使用了LISP中的几个理念,最明显的是垃圾收集。它的可移植性使它可以适用于任何程序,它还有一套内置类型。Java没有LISP和Prolog高级,又没有C那样快,但如果要求可移植性那它是最好的。PYTHON:Python是一种用LISP和JAVA编译的语言。按照Norvig文章中对Lips和Python的比较,这两种语言彼此非常相似,仅有一些细小的差别。还有JPthon,提供了访问Java图像用户界面的途径。这是PeterNorvig选择用JPyhton翻译他人工智能书籍中程序的的原因。JPython可以让他使用可移植的GUI演示,和可移植的http/ftp/html库。因此,它非常适合作为人工智能语言的。
二、一文看尽2018全年AI技术大突破:NLP跨过分水岭、CV研究效果惊人
量子位 出品 | 公众号 QbitAI
2018,仍是AI领域激动人心的一年。
这一年成为NLP研究的分水岭,各种突破接连不断;CV领域同样精彩纷呈,与四年前相比GAN生成的假脸逼真到让人不敢相信;新工具、新框架的出现,也让这个领域的明天特别让人期待……近日,Analytics Vidhya发布了一份2018人工智能技术总结与2019趋势预测报告,原文作者PRANAV DAR。量子位在保留这个报告架构的基础上,对内容进行了重新编辑和补充。这份报告总结和梳理了全年主要AI技术领域的重大进展,同时也给出了相关的资源地址,以便大家更好的使用、查询。报告共涉及了五个主要部分:
下面,我们就逐一来盘点和展望,嘿喂狗~
2018年在NLP 历史 上的特殊地位,已经毋庸置疑。
这份报告认为,这一年正是NLP的分水岭。2018年里,NLP领域的突破接连不断:ULMFiT、ELMo、最近大热的BERT……
迁移学习成了NLP进展的重要推动力。从一个预训练模型开始,不断去适应新的数据,带来了无尽的潜力,甚至有“NLP领域的ImageNet时代已经到来”一说。
正是这篇论文,打响了今年NLP迁移学习狂欢的第一枪。论文两名作者一是Fast.ai创始人Jeremy Howard,在迁移学习上经验丰富;一是自然语言处理方向的博士生Sebastian Ruder,他的NLP博客几乎所有同行都在读。两个人的专长综合起来,就有了ULMFiT。想要搞定一项NLP任务,不再需要从0开始训练模型,拿来ULMFiT,用少量数据微调一下,它就可以在新任务上实现更好的性能。
他们的方法,在六项文本分类任务上超越了之前最先进的模型。详细的说明可以读他们的论文:https://arxiv.org/abs/1801.06146Fast.ai网站上放出了训练脚本、模型等:http://nlp.fast.ai/category/classification.html
这个名字,当然不是指《芝麻街》里那个角色,而是“语言模型的词嵌入”,出自艾伦人工智能研究院和华盛顿大学的论文Deep contextualized word representations,NLP顶会NAACL HLT 2018的优秀论文之一。
ELMo用语言模型(language model)来获取词嵌入,同时也把词语所处句、段的语境考虑进来。
这种语境化的词语表示,能够体现一个词在语法语义用法上的复杂特征,也能体现它在不同语境下如何变化。
当然,ELMo也在试验中展示出了强大功效。把ELMo用到已有的NLP模型上,能够带来各种任务上的性能提升。比如在机器问答数据集SQuAD上,用ELMo能让此前最厉害的模型成绩在提高4.7个百分点。
这里有ELMo的更多介绍和资源:
https://allennlp.org/elmo
它由Google推出,全称是 B idirectional E ncoder R epresentations from T ransformers,意思是来自Transformer的双向编码器表示,也是一种预训练语言表示的方法。从性能上来看,没有哪个模型能与BERT一战。它在11项NLP任务上都取得了最顶尖成绩,到现在,SQuAD 2.0前10名只有一个不是BERT变体:
如果你还没有读过BERT的论文,真的应该在2018年结束前补完这一课:https://arxiv.org/abs/1810.04805另外,Google官方开源了训练代码和预训练模型:https://github.com/google-research/bert如果你是PyTorch党,也不怕。这里还有官方推荐的PyTorch重实现和转换脚本:https://github.com/huggingface/pytorch-pretrained-BERT
BERT之后,NLP圈在2018年还能收获什么惊喜?答案是,一款新工具。
就在上周末,Facebook开源了自家工程师们一直在用的NLP建模框架PyText。这个框架,每天要为Facebook旗下各种应用处理超过10亿次NLP任务,是一个工业级的工具包。
(Facebook开源新NLP框架:简化部署流程,大规模应用也OK)
PyText基于PyTorch,能够加速从研究到应用的进度,从模型的研究到完整实施只需要几天时间。框架里还包含了一些预训练模型,可以直接拿来处理文本分类、序列标注等任务。
想试试?开源地址在此:
https://github.com/facebookresearch/pytext
它能主动打电话给美发店、餐馆预约服务,全程流畅交流,简直以假乱真。Google董事长John Hennessy后来称之为“非凡的突破”,还说:“在预约领域,这个AI已经通过了图灵测试。”Duplex在多轮对话中表现出的理解能力、合成语音的自然程度,都是NLP目前水平的体现。如果你还没看过它的视频……
NLP在2019年会怎么样?我们借用一下ULMFiT作者Sebastian Ruder的展望:
今年9月,当搭载BigGAN的双盲评审中的ICLR 2019论文现身,行家们就沸腾了: 简直看不出这是GAN自己生成的 。
在计算机图像研究史上,BigGAN的效果比前人进步了一大截。比如在ImageNet上进行128×128分辨率的训练后,它的Inception Score(IS)得分166.3,是之前最佳得分52.52分 3倍 。
除了搞定128×128小图之外,BigGAN还能直接在256×256、512×512的ImageNet数据上训练,生成更让人信服的样本。
在论文中研究人员揭秘,BigGAN的惊人效果背后,真的付出了金钱的代价,最多要用512个TPU训练,费用可达11万美元,合人民币76万元。
不止是模型参数多,训练规模也是有GAN以来最大的。它的参数是前人的2-4倍,批次大小是前人的8倍。
研究论文:https://openreview.net/pdf?id=B1xsqj09Fm
前前后后,Fast.ai团队只用了16个AWS云实例,每个实例搭载8块英伟达V100 GPU,结果比Google用TPU Pod在斯坦福DAWNBench测试上达到的速度还要快40%。这样拔群的成绩,成本价只需要 40美元 ,Fast.ai在博客中将其称作人人可实现。
相关地址: Fast.ai博客介绍:
今年8月,英伟达和MIT的研究团队高出一个 超逼真 高清视频生成AI。
只要一幅动态的语义地图,就可获得和真实世界几乎一模一样的视频。换句话说,只要把你心中的场景勾勒出来,无需实拍,电影级的视频就可以自动P出来:
除了街景,人脸也可生成:
这背后的vid2vid技术,是一种在生成对抗性学习框架下的新方法:精心设计的生成器和鉴别器架构,再加上时空对抗目标。
这种方法可以在分割蒙版、素描草图、人体姿势等多种输入格式上,实现高分辨率、逼真、时间相干的视频效果。
好消息,vid2vid现已被英伟达开源。
研究论文:https://tcwang0509.github.io/vid2vid/paper_vid2vid.pdf
GitHub地址https://github.com/NVIDIA/vid2vid
相关地址
相关地址
三、ai换脸可以指定吗
ai换脸可以指定。根据查询相关公开信息显示:用AI技术实现动态视频的换脸已经可以指定换脸了,在Github上有很多关于AI换脸的开源项目,比如faceswap,deepfacelab。
四、ZAO换脸软件为什么能一夜爆红?
“仅需一张照片,出演天下好戏”。这是近日刷爆朋友圈的换脸应用ZAO逢脸造戏的广告语。从刷屏走红到质疑不断,ZAO仅仅用了一天时间。
对ZAO的质疑主要来自AI换脸存在的伦理道德风险,以及ZAO产品本身对用户隐私和相关信息的保护程度。
“AI换脸并不是新技术。”一位长期研究人脸识别和分析技术的专业人士告诉《深网》,AI换脸所使用的核心技术是人脸关键点检测GAN(生成式对抗网络模型),这项技术目前已相对成熟,ZAO的换脸功能使用“deepfake”+移动端优化就可以做到,不过并不确定ZAO是否使用了“deepfake”的开源代码。
“deepfake”是国外一项开源AI换脸软件。据《智东西》报道,2017年12月,国外某ID名为“deepfakes”的Reddit论坛用户首次将自己制作的AI换脸视频发布在了网络上。当时“deepfakes”把情色电影里的女主角换成了盖尔·加朵等好莱坞明星。由于大量受害者的投诉,Reddit论坛迫于压力封杀了“deepfakes”的账号,不过这次封杀却让“deepfakes”直接开源了其AI换脸项目的代码。
女明星“出演”情色电影里的女主角,AI换脸存在的伦理道德风险可见一斑。但这仅仅是ZAO被质疑的冰山一角。
用户协议争议
AI换脸技术存在的伦理道德风险已经让用户对换脸应用有所顾忌,ZAO用户协议中关于个人和他人肖像权授权的界定,更是直接引爆了外界的质疑。
“ZAO的用户协议太离谱了”“简直是霸王条款”有用户在阅读ZAO的用户协议后这样说到。
ZAO的用户协议中关于用户必要授权的部分包含如下条款:
“1) 在您上传及/或发布用户内容之前,您同意或者确保实际权利人同意授予“ZAO”及其关联公司以及“ZAO”用户全球范围内完全免费、不可撤销、永久、可转授权和可再许可的权利,包括但不限于可以对用户内容进行全部或部分的修改与编辑(如将短视频中的人脸或者声音换成另一个人的人脸或者声音等)以及对修改前后的用户内容进行信息网络传播以及《著作权法》规定的由著作权人享有的全部著作财产权利及邻接权利; ”
“2) 如果您把用户内容中的人脸换成您或其他人的脸,您同意或确保肖像权利人同意授予“ZAO”及其关联公司全球范围内完全免费、不可撤销、永久、可转授权和可再许可的权利,包括但不限于:人脸照片、图片、视频资料等肖像资料中所含的您或肖像权利人的肖像权,以及利用技术对您或肖像权利人的肖像进行形式改动;”
一位微博认证为@法山叔的知名法律博主这样解释他对以上两项法律条款的理解,“根据协议内容,该app除了可免费使用并修改你的肖像,还可以将它任意授权给自己想授权的第三方,当做信息进行贩卖。所以当有一天,你在zao或者其它关联平台上发现你的脸被随意变换、不再属于自己的时候,你想起诉zao,不好意思,它会拿出这个协议来堵你的嘴,告诉你你自己早已同意。”
“比如现在你将杨幂的脸换成自己的脸,你除了要保证自己永久、不可撤销地把自己的肖像免费给zao使用,还要保证杨幂同意zao及关联公司使用她的肖像...这么做,就是因为自己没钱拿到明星们的授权,日后侵权,它们可以将锅甩给你们。”
以上就是关于开源AI相关问题的回答。希望能帮到你,如有更多相关问题,您也可以联系我们的客服进行咨询,客服也会为您讲解更多精彩的知识和内容。
推荐阅读: