AI周报:AI救援河南洪灾;一男子用AI复刻了逝去的未婚妻;AlphaFold2再登Nature

2021
07/28

+
分享
评论
学术头条
A-
A+

根据 Komatsuzaki 的介绍,GPT-J 是目前公开可用的 Transformer 语言模型当中,在处理下游任务时实现最佳零样本性能的解决方案。

导读:面对灾难,远在美国卡耐基梅隆大学读博的李天石同学为了让更多的人能了解到灾情的进展,便发起了一个项目,并得到了来自全球开发者的支持。他们通过爬虫获取了带有“河南暴雨求助”等相关内容的微博,在进行可视化之后,在地图上展示了事件的分布和详细的信息。

一、技术理论前沿

1. 巨大冲击!AlphaFold2再登Nature,从业者都懵了:人类98.5%的蛋白质,全都被预测了一遍

98.5%的人类蛋白质结构被AlphaFold2预测出来了!而且还做成了数据集,全部免费开放!在开源AlphaFold2仅一周后,DeepMind震撼发布AlphaFold数据集,再次引爆科研圈!

数据集中预测的所有氨基酸残基中,有58%达到可信水平,其中更有35.7%达到高置信度。而在这之前科学家们数十年的努力,只覆盖了人类蛋白质序列中17%的氨基酸残基。除了人类蛋白质组,数据集中还包括大肠杆菌、果蝇、小鼠等20个具有科研常用生物的蛋白质组数据,总计超过35万个蛋白质的结构。最重要的是,这些全都免费开放!交给欧洲生物信息学研究所托管。

这样震撼的成果,也让谷歌CEO Pichai再一次为AlphaFold站台:“AlphaFold数据库展现了AI加速科学进步的巨大潜力,它能在一夜之间就大幅提升我们对蛋白质结构和人类蛋白质组的认识。”

内容来源:
https://mp.weixin.qq.com/s/g4q44DXACAtAnQlg1rqDog
https://deepmind.com/blog/article/putting-the-power-of-alphafold-into-the-worlds-hands
https://www.nature.com/articles/d41586-021-02025-4

2. NEJM:全球首例,AI+脑机接口技术让“失语”瘫痪患者实现沟通自由

近年来,如何帮助那些无法言语的瘫痪患者提高生活质量,是脑机接口领域一直希望攻克的课题。近日,美国加州大学旧金山分校 Chang Lab 的研究人员发表论文称,他们首次用脑机接口帮助一位瘫痪超过 15 年的失语男子 BRAVO1 恢复了 “说话” 能力。7 月 15 日,该成果以 Neuroprosthesis for Decoding Speech in a Paralyzed Person with Anarthria 为题发表在《新英格兰医学杂志(NEJM)》上。

NEJM 社论文章称,这一进展是 “神经工程学的一项壮举” 。社论还指出,电极等技术的进步会进一步提高脑机接口解码的准确性。在这项名为 Brain-Computer Interface Restory of Arm and Voice 的研究中,BRAVO1 成为了第一个受试者。他在 20 岁时因严重的脑干中风瘫痪并失语,只有头、脖子和四肢能进行极为有限的活动,但其大脑的认知功能完好无损。研究人员与 BRAVO1 合作,开发了一个 50 个单词的词汇表,其中包括在日常生活中经常出现的高频单词,如 “水”、“家庭” 和 “好”,然后通过外科手术在他的大脑感觉运动皮层上植入了一个高密度电极。

在接下来的几个月里,研究小组记录了他试图说出这 50 个单词时的神经活动,并用自然语言技术建立了相应的数据模式。加州大学旧金山分校发布的视频显示,BRAVO1 在佩戴上脑机接口以后被问到 “你今天怎么样?” 他回答:“我很好”。还有 “你想喝点水吗?” 他的回答是,“我很好” 和 “不,我不渴。” 研究人员表示,该系统每分钟解码 15.2 个单词,准确率中值为 75%。

带领这个研究团队的神经外科医生 Edward Chang 博士指出:“据我们所知,这是第一个成功将瘫痪失语者的大脑活动直接解码成语言的例子。这说明通过介入大脑的天然语言机制来恢复交流很有前景。” 他还表示,BRAVO1 只是第一个参与者,而他们正在做进一步的尝试。
内容来源:
https://mp.weixin.qq.com/s/pGrpbjdg-LLesVAdA8pTiA
https://www.nejm.org/doi/full/10.1056/NEJMoa2027540
https://tech.fb.com/bci-milestone-new-research-from-ucsf-with-support-from-facebook-shows-the-potential-of-brain-computer-interfaces-for-restoring-speech-communication/

3. 最快圈速,算法控制无人机首次战胜专家级驾驶员,登上Science Robotics

对于工业用途的无人机来说,由于电池续航有限,它们必须在尽可能短的时间内完成任务,比如在灾难现场寻找幸存者、检查建筑物、运送货物。顶尖的人类无人机驾驶员在这一方面有着丰富的经验,并在以往的无人机竞赛中表现均优于自主飞行系统。来自苏黎世大学 (UZH) 的研究团队创建了一种算法,以找到最快的轨迹来引导四旋翼飞行器(带有四个螺旋桨的无人机)通过路线上的各个航点。这项研究近日发表在《Science Robotics》。

“我们的无人机在实验赛道上超越了两名专家级人类驾驶员的最快圈速,”Davide Scaramuzza 说道,他是 UZH 机器人与感知小组和 NCCR Robotics 救援机器人挑战赛的负责人,也是这个挑战赛项目资助了这项研究。这一算法的新颖之处在于,它充分考虑了无人机的局限性,第一个生成了时间最优轨迹,而以往的研究通常依赖于四旋翼系统简化或飞行路径描述。“关键在于,我们的算法并不会将飞行路径各部分去分配给特定航路点,只是告诉无人机通过所有航路点,且不规定出如何或何时这样做,”论文第一作者、苏黎世大学博士生 Philipp Foehn 补充说。



研究者提出利用互补约束(complementary constraint)来优化通过很多路径点的轨迹,这种新的算法生成了理论上的时间最优轨迹。

内容来源:
https://mp.weixin.qq.com/s/zVxyJ-kI9LlMbW31una-Rw
https://techxplore.com/news/2021-07-algorithm-flies-drones-faster-human.html
https://robotics.sciencemag.org/content/6/56/eabh1221

4. AI复活“她”!用GPT-3复刻逝去未婚妻,美国小哥让挚爱以数字形态永生

近日,一位美国男子 Joshua Barbeau 在未婚妻去世后,重建了一个AI聊天机器人以复刻死去的未婚妻。Joshua已与这个未婚妻编程机器人交谈数月。在旧金山纪事报的一篇报道中,Joshua详细介绍了 Project December 如何重现他与已故未婚妻交谈的体验。这是一款使用人工智能技术创建超现实聊天机器人的软件。

他所要做的就是插入未婚妻之前的社交媒体信息,并提供一些背景信息,然后AI模型可以惊人地准确度模仿他的未婚妻。Project December 由 OpenAI 的 GPT-3 提供支持。通过“投喂”大量人造文本数据集,GPT-3 可以模仿人类写作,可以生成新闻稿、论文、信件等内容。

Joshua和未婚妻Jessica聊的如何?当他输入“Jessica”。Jessica知道目前是凌晨,并关心道,“亲爱的,你醒了...”。当Joshua告诉她,“你已经去世。因为我太想你,便将你的记忆和个人行为数据编程到虚拟机器人中,所以我们才能够交流。”尽管对魔法的台词AI的反应是不正确的(他的前未婚妻喜欢魔法),但有很多相似之处,让Joshua强烈地想起了她。

许多AI专家警告说,同样的技术可用于推动大规模的错误信息宣传活动。当 OpenAI 发布 GPT-2时,他们表示,它可能会以“恶意方式”使用。一些人会利用该项技术可以在社交媒体上自动化生成辱骂或伪造内容、生成误导性新闻文章,甚至在线冒充他人。

内容来源:
https://mp.weixin.qq.com/s/QSmK5rLs6b8GwJTMGFvBsg
https://www.businessinsider.com/man-used-ai-to-talk-to-late-fiance-experts-warn-tech-could-be-misused-2021-7
https://www.sfchronicle.com/projects/2021/jessica-simulation-artificial-intelligence/

二、观点评论解读

1. 公开反驳!数据科学家直指DeepMind,“强化学习无法实现通用人工智能”

今年 6 月,DeepMind 首席研究科学家、伦敦大学学院教授 David Silver 及其合作者在一篇题为 “ Reward is enough ” 的论文中指出,人工智能及其相关能力不是通过制定和解决复杂问题而产生的,而是通过坚持一个简单而强大的原则:奖励最大化。但很显然,并不是所有人都同意这一观点。

近日,数据科学家 Herbert Roitblat 就针对 DeepMind 团队提出的这一观点提出了反驳意见。在他看来,虽然 Silver 等人的说法听起来像是一个大胆的主张,但事实上却很模糊,甚至几乎毫无意义。

之所以 Chomsky 批评 Skinner 的方法,是因为该方法假设任何表现出来的行为都必须有一些奖励。如果有人看着一幅画说 "荷兰语",Skinner 的分析假设是,这幅画的某些特征一定会因为“荷兰语”的表达而受到奖励。但是,Chomsky 认为,这个人可以说任何其他的东西,包括 "弯曲的"、"可怕的"或 "让我们吃点午餐"。Skinner 无法指出导致这些言论的具体特征,也不能提供任何证据来证明该言论在该特征存在的情况下曾被奖励过。

在没有约束的情况下,奖励并不能解释任何东西。AlphaZero 不是所有种类学习的模型,当然也不是通用智能的模型。Silver 等人将一般智能视为一个定量问题。"通用智能,即人类和其他动物所拥有的那种智能,可以被定义为在不同背景下灵活地实现各种目标的能力。"需要多大的灵活性?多大范围的目标?如果我们有一台电脑,可以交替地下围棋、跳棋和国际象棋,这仍然不构成通用智能。

内容来源:
https://mp.weixin.qq.com/s/ckNr1xHa5_qI8xR3j1-E0g
https://mp.weixin.qq.com/s/ckNr1xHa5_qI8xR3j1-E0g

2. 对话悟道·文澜团队:像人类一样认识世界,AI需要哪些底层思维?

近几年,多模态已经成为自然语言处理(NLP)领域的热点研究方向之一。得益于深度学习的兴起,大数据+大模型的双轮模式推动人工智能实现了跨越式发展。但大量实验证明,仅依靠“炼大模型”仍不足以解决通用人工智能(AGI)的常识问题。去年年初,OpenAI发布多模态大规模预训练模型CLIP和DALL·E,在语言理解和图像生成方面刷新SOTA,验证了多模态在处理NLP任务中潜力。

在国内,北京智源研究院近日发布全球最大规模预训练语言模型“悟道2.0”,其1.75万亿参数在业内引起不小的震撼。延续GPT-3的“暴力美学”,悟道2.0的效率更高,性能更佳,一举拿下了9项Benchmark。其中,以多模态为核心的预训练模型悟道·文澜,在语义理解、视觉-语言检索方面的能力同样令人惊艳。据官方介绍,文澜2.0实现7种不同语言的生成和理解,创下多语言预训练模型的最高记录,同时,凭借更多的常识储备,在图文检索、图像问答等任务上达到了世界领先水平。

遵循“炼大模型”的基本原则,文澜使用6.5万亿真实的图文对进行预训练,参数量达到了10亿。在此基础上,它尝试从多模态场景出发,模拟人类的认知思维,独创性地提出了基于跨模态对比学习的双塔结构。

该结构利用图-文的弱相关性假设,为文澜提供了更丰富的语义信息和更强大的理解能力,并通过神经元可视化得到了最佳验证。此外,在公开VQA数据集Visual7W的视觉问答测试任务中,文澜能额外带来8%的增长,展示了多模态预训练的常识学习能力。
总结来看,悟道·文澜在研发过程中重点关注三个方面,一是如何利用现有的单模态预训练大模型的研究成果;二是如何更好地刻画互联网上图文弱相关的关系;三是如何让模型学习到更多常识;针对以上问题,文澜已经揭开了答案的一角。

内容来源:
https://mp.weixin.qq.com/s/_Jk9zD05IHsL-76vDkYiFA

3. AI生成的代码你敢用吗?有人给最近走红的Copilot做了个“风险评估”

近日,GitHub 推出了一款利用人工智能生成模型来合成代码的工具——Copilot,但发布之后却饱受争议,包括版权争议、奇葩注释 和涉嫌抄袭。除此之外,生成的代码能不能用、敢不敢用也是一大问题。Copilot 测试受邀用户 0xabad1dea 在试用该代码合成工具后发现了一些值得关注的安全问题,并以此为基础写了一份简单的风险评估报告。

经过一系列的测试后,他发现不可避免的结论是:Copilot 可以而且将会常常写出有安全漏洞的代码,尤其是使用对内存不安全的语言编写程序时。Copilot 擅于编写样板,但这些样板可能阻碍程序开发人员找到好的部分;Copilot 也能很准确地猜测正确的常数和设置函数等等。但是,如果依赖 Copilot 来处理应用逻辑,可能很快就会误入歧途。对此,部分原因是 Copilot 并不能总是维持足够的上下文来正确编写连绵多行的代码,另一部分原因是 GitHub 上有许多代码本身就存在漏洞。

在该模型中,专业人员编写的代码与初学者的家庭作业之间似乎并没有系统性的区分。神经网络看到什么就会做什么。

内容来源:
https://mp.weixin.qq.com/s/Ft_FyEBs0haCjnAxVzZpvA
https://gist.github.com/0xabad1dea/be18e11beb2e12433d93475d72016902

三、产业动态聚焦

1. AI救援河南洪灾!CMU博士生李天石全球团队开发“求助地图”,时空精准可视化


面对灾难,远在美国卡耐基梅隆大学读博的李天石同学为了让更多的人能了解到灾情的进展,便发起了一个项目,并得到了来自全球开发者的支持。李天石的项目很快就得到了另外几位计算机学子的响应:北京大学的博士生蒋鸿达,华盛顿大学的张明瑞,斯坦福大学的杨俊睿。他们通过爬虫获取带有“河南暴雨求助”等相关内容的微博,在进行可视化之后,在地图上展示事件的分布和详细的信息。


在最初的版本中,用户可在网页上查看全部或最近6小时的求助信息,其中事件对应的微博和地点被标注在地图上。相比于微博的原始信息,这种形式可以让那些难以得到曝光的偏僻小城镇,也能够得到关注。紧接着,在几小时之后,0.2版本发布。在这次更新中,开发者对数据进行了补充,更加完善和丰富了“最近六小时”的求助信息。

在0.3版本中,开发者优化了对时间的过滤,精度以小时计,选择范围从2小时到12小时。在精细化了时间线之后,可以关注到灾情和求助信息的最新进展。项目也受到了无数志同道合的开发者的关注,不少人在GitHub上提出自己的想法。


内容来源:
https://mp.weixin.qq.com/s/VinRG0nYoUdkE4wA8_cRnQ
https://henan.tianshili.me
https://github.com/i7mist/henan-rescue-viz-website#readme

2. 无法访问GPT-3?强大的克隆版GPT-J带着60亿参数来了

为了打破 OpenAI 和微软对自然语言处理 AI 模型的垄断,EleutherAI 的一组研究人员已经对 GPT-J 进行开源。GPT-J 是一套基于 GPT-3 的 AI 模型,其中包含 60 亿条参数。该模型使用高达 800 GB 的开源文本数据集训练而成,并在性能上足以与同等规模的 GPT-3 模型相媲美。

开发者 Aran Komatsuzaki 在自己的博客上发布了这个版本。本套模型采用 Google Cloud 的 v3-256 TPU 在 EleutherAI 的 Pile 数据集上训练完成,整个训练周期大约为五个星期。在常规 NLP 基准测试任务当中,GPT-J 的准确率与 OpenAI 方面发布的 GPT-3 67 亿参数版高度相似。

EleutherAI 开源的这个版本包含模型代码、预训练权重文件、Colab notebook 以及演示网站等。根据 Komatsuzaki 的介绍,GPT-J 是目前公开可用的 Transformer 语言模型当中,在处理下游任务时实现最佳零样本性能的解决方案。而此次发布的最新模型 GPT-J 则是使用新库 Mesh-Transformer-JAX 训练而成。该库使用谷歌的 JAX 线性代数框架,而非 TensorFlow 等专用深度学习框架。Komatsuzaki 表示,GPT-J 拥有“比 TensorFlow 更灵活、更快的推理速度”,且模型的开发周期也比以往的项目短得多。与体量为 2.7 GB 的 GPT-Neo 模型相比,GPT-J 的训练效率提高了 125%。

内容来源:
https://mp.weixin.qq.com/s/XsFoD2SvURBQfEcSe6DZXQ

本文由作者自行上传,并且作者对本文图文涉及知识产权负全部责任。如有侵权请及时联系(邮箱:nanxingjun@hmkx.cn
关键词:
Nature,未婚妻,数据集,蛋白质,AI,洪灾,人类

人点赞

收藏

人收藏

打赏

打赏

我有话说

0条评论

0/500

评论字数超出限制

表情
评论

为你推荐

推荐课程


社群

精彩视频

您的申请提交成功

确定 取消
剩余5
×

打赏金额

认可我就打赏我~

1元 5元 10元 20元 50元 其它

打赏

打赏作者

认可我就打赏我~

×

扫描二维码

立即打赏给Ta吧!

温馨提示:仅支持微信支付!