AI周报:AI救援河南洪灾;一男子用AI复刻了逝去的未婚妻;AlphaFold2再登Nature
2021-07-28
学术头条
导读:面对灾难,远在美国卡耐基梅隆大学读博的李天石同学为了让更多的人能了解到灾情的进展,便发起了一个项目,并得到了来自全球开发者的支持。他们通过爬虫获取了带有“河南暴雨求助”等相关内容的微博,在进行可视化之后,在地图上展示了事件的分布和详细的信息。
一、技术理论前沿
1. 巨大冲击!AlphaFold2再登Nature,从业者都懵了:人类98.5%的蛋白质,全都被预测了一遍
数据集中预测的所有氨基酸残基中,有58%达到可信水平,其中更有35.7%达到高置信度。而在这之前科学家们数十年的努力,只覆盖了人类蛋白质序列中17%的氨基酸残基。除了人类蛋白质组,数据集中还包括大肠杆菌、果蝇、小鼠等20个具有科研常用生物的蛋白质组数据,总计超过35万个蛋白质的结构。最重要的是,这些全都免费开放!交给欧洲生物信息学研究所托管。
这样震撼的成果,也让谷歌CEO Pichai再一次为AlphaFold站台:“AlphaFold数据库展现了AI加速科学进步的巨大潜力,它能在一夜之间就大幅提升我们对蛋白质结构和人类蛋白质组的认识。”
内容来源:
https://mp.weixin.qq.com/s/g4q44DXACAtAnQlg1rqDog
https://deepmind.com/blog/article/putting-the-power-of-alphafold-into-the-worlds-hands
https://www.nature.com/articles/d41586-021-02025-4
2. NEJM:全球首例,AI+脑机接口技术让“失语”瘫痪患者实现沟通自由
NEJM 社论文章称,这一进展是 “神经工程学的一项壮举” 。社论还指出,电极等技术的进步会进一步提高脑机接口解码的准确性。在这项名为 Brain-Computer Interface Restory of Arm and Voice 的研究中,BRAVO1 成为了第一个受试者。他在 20 岁时因严重的脑干中风瘫痪并失语,只有头、脖子和四肢能进行极为有限的活动,但其大脑的认知功能完好无损。研究人员与 BRAVO1 合作,开发了一个 50 个单词的词汇表,其中包括在日常生活中经常出现的高频单词,如 “水”、“家庭” 和 “好”,然后通过外科手术在他的大脑感觉运动皮层上植入了一个高密度电极。
在接下来的几个月里,研究小组记录了他试图说出这 50 个单词时的神经活动,并用自然语言技术建立了相应的数据模式。加州大学旧金山分校发布的视频显示,BRAVO1 在佩戴上脑机接口以后被问到 “你今天怎么样?” 他回答:“我很好”。还有 “你想喝点水吗?” 他的回答是,“我很好” 和 “不,我不渴。” 研究人员表示,该系统每分钟解码 15.2 个单词,准确率中值为 75%。
带领这个研究团队的神经外科医生 Edward Chang 博士指出:“据我们所知,这是第一个成功将瘫痪失语者的大脑活动直接解码成语言的例子。这说明通过介入大脑的天然语言机制来恢复交流很有前景。” 他还表示,BRAVO1 只是第一个参与者,而他们正在做进一步的尝试。
https://mp.weixin.qq.com/s/pGrpbjdg-LLesVAdA8pTiA
https://www.nejm.org/doi/full/10.1056/NEJMoa2027540
https://tech.fb.com/bci-milestone-new-research-from-ucsf-with-support-from-facebook-shows-the-potential-of-brain-computer-interfaces-for-restoring-speech-communication/
3. 最快圈速,算法控制无人机首次战胜专家级驾驶员,登上Science Robotics
“我们的无人机在实验赛道上超越了两名专家级人类驾驶员的最快圈速,”Davide Scaramuzza 说道,他是 UZH 机器人与感知小组和 NCCR Robotics 救援机器人挑战赛的负责人,也是这个挑战赛项目资助了这项研究。这一算法的新颖之处在于,它充分考虑了无人机的局限性,第一个生成了时间最优轨迹,而以往的研究通常依赖于四旋翼系统简化或飞行路径描述。“关键在于,我们的算法并不会将飞行路径各部分去分配给特定航路点,只是告诉无人机通过所有航路点,且不规定出如何或何时这样做,”论文第一作者、苏黎世大学博士生 Philipp Foehn 补充说。
内容来源:
https://mp.weixin.qq.com/s/zVxyJ-kI9LlMbW31una-Rw
https://techxplore.com/news/2021-07-algorithm-flies-drones-faster-human.html
https://robotics.sciencemag.org/content/6/56/eabh1221
4. AI复活“她”!用GPT-3复刻逝去未婚妻,美国小哥让挚爱以数字形态永生
他所要做的就是插入未婚妻之前的社交媒体信息,并提供一些背景信息,然后AI模型可以惊人地准确度模仿他的未婚妻。Project December 由 OpenAI 的 GPT-3 提供支持。通过“投喂”大量人造文本数据集,GPT-3 可以模仿人类写作,可以生成新闻稿、论文、信件等内容。
Joshua和未婚妻Jessica聊的如何?当他输入“Jessica”。Jessica知道目前是凌晨,并关心道,“亲爱的,你醒了...”。当Joshua告诉她,“你已经去世。因为我太想你,便将你的记忆和个人行为数据编程到虚拟机器人中,所以我们才能够交流。”尽管对魔法的台词AI的反应是不正确的(他的前未婚妻喜欢魔法),但有很多相似之处,让Joshua强烈地想起了她。
许多AI专家警告说,同样的技术可用于推动大规模的错误信息宣传活动。当 OpenAI 发布 GPT-2时,他们表示,它可能会以“恶意方式”使用。一些人会利用该项技术可以在社交媒体上自动化生成辱骂或伪造内容、生成误导性新闻文章,甚至在线冒充他人。
内容来源:
https://mp.weixin.qq.com/s/QSmK5rLs6b8GwJTMGFvBsg
https://www.businessinsider.com/man-used-ai-to-talk-to-late-fiance-experts-warn-tech-could-be-misused-2021-7
https://www.sfchronicle.com/projects/2021/jessica-simulation-artificial-intelligence/
二、观点评论解读
1. 公开反驳!数据科学家直指DeepMind,“强化学习无法实现通用人工智能”
近日,数据科学家 Herbert Roitblat 就针对 DeepMind 团队提出的这一观点提出了反驳意见。在他看来,虽然 Silver 等人的说法听起来像是一个大胆的主张,但事实上却很模糊,甚至几乎毫无意义。
之所以 Chomsky 批评 Skinner 的方法,是因为该方法假设任何表现出来的行为都必须有一些奖励。如果有人看着一幅画说 "荷兰语",Skinner 的分析假设是,这幅画的某些特征一定会因为“荷兰语”的表达而受到奖励。但是,Chomsky 认为,这个人可以说任何其他的东西,包括 "弯曲的"、"可怕的"或 "让我们吃点午餐"。Skinner 无法指出导致这些言论的具体特征,也不能提供任何证据来证明该言论在该特征存在的情况下曾被奖励过。
在没有约束的情况下,奖励并不能解释任何东西。AlphaZero 不是所有种类学习的模型,当然也不是通用智能的模型。Silver 等人将一般智能视为一个定量问题。"通用智能,即人类和其他动物所拥有的那种智能,可以被定义为在不同背景下灵活地实现各种目标的能力。"需要多大的灵活性?多大范围的目标?如果我们有一台电脑,可以交替地下围棋、跳棋和国际象棋,这仍然不构成通用智能。
内容来源:
https://mp.weixin.qq.com/s/ckNr1xHa5_qI8xR3j1-E0g
https://mp.weixin.qq.com/s/ckNr1xHa5_qI8xR3j1-E0g
2. 对话悟道·文澜团队:像人类一样认识世界,AI需要哪些底层思维?
在国内,北京智源研究院近日发布全球最大规模预训练语言模型“悟道2.0”,其1.75万亿参数在业内引起不小的震撼。延续GPT-3的“暴力美学”,悟道2.0的效率更高,性能更佳,一举拿下了9项Benchmark。其中,以多模态为核心的预训练模型悟道·文澜,在语义理解、视觉-语言检索方面的能力同样令人惊艳。据官方介绍,文澜2.0实现7种不同语言的生成和理解,创下多语言预训练模型的最高记录,同时,凭借更多的常识储备,在图文检索、图像问答等任务上达到了世界领先水平。
遵循“炼大模型”的基本原则,文澜使用6.5万亿真实的图文对进行预训练,参数量达到了10亿。在此基础上,它尝试从多模态场景出发,模拟人类的认知思维,独创性地提出了基于跨模态对比学习的双塔结构。
该结构利用图-文的弱相关性假设,为文澜提供了更丰富的语义信息和更强大的理解能力,并通过神经元可视化得到了最佳验证。此外,在公开VQA数据集Visual7W的视觉问答测试任务中,文澜能额外带来8%的增长,展示了多模态预训练的常识学习能力。
总结来看,悟道·文澜在研发过程中重点关注三个方面,一是如何利用现有的单模态预训练大模型的研究成果;二是如何更好地刻画互联网上图文弱相关的关系;三是如何让模型学习到更多常识;针对以上问题,文澜已经揭开了答案的一角。
内容来源:
https://mp.weixin.qq.com/s/_Jk9zD05IHsL-76vDkYiFA
3. AI生成的代码你敢用吗?有人给最近走红的Copilot做了个“风险评估”
经过一系列的测试后,他发现不可避免的结论是:Copilot 可以而且将会常常写出有安全漏洞的代码,尤其是使用对内存不安全的语言编写程序时。Copilot 擅于编写样板,但这些样板可能阻碍程序开发人员找到好的部分;Copilot 也能很准确地猜测正确的常数和设置函数等等。但是,如果依赖 Copilot 来处理应用逻辑,可能很快就会误入歧途。对此,部分原因是 Copilot 并不能总是维持足够的上下文来正确编写连绵多行的代码,另一部分原因是 GitHub 上有许多代码本身就存在漏洞。
在该模型中,专业人员编写的代码与初学者的家庭作业之间似乎并没有系统性的区分。神经网络看到什么就会做什么。
内容来源:
https://mp.weixin.qq.com/s/Ft_FyEBs0haCjnAxVzZpvA
https://gist.github.com/0xabad1dea/be18e11beb2e12433d93475d72016902
三、产业动态聚焦
1. AI救援河南洪灾!CMU博士生李天石全球团队开发“求助地图”,时空精准可视化
在0.3版本中,开发者优化了对时间的过滤,精度以小时计,选择范围从2小时到12小时。在精细化了时间线之后,可以关注到灾情和求助信息的最新进展。项目也受到了无数志同道合的开发者的关注,不少人在GitHub上提出自己的想法。
https://mp.weixin.qq.com/s/VinRG0nYoUdkE4wA8_cRnQ
https://henan.tianshili.me
https://github.com/i7mist/henan-rescue-viz-website#readme
2. 无法访问GPT-3?强大的克隆版GPT-J带着60亿参数来了
开发者 Aran Komatsuzaki 在自己的博客上发布了这个版本。本套模型采用 Google Cloud 的 v3-256 TPU 在 EleutherAI 的 Pile 数据集上训练完成,整个训练周期大约为五个星期。在常规 NLP 基准测试任务当中,GPT-J 的准确率与 OpenAI 方面发布的 GPT-3 67 亿参数版高度相似。
EleutherAI 开源的这个版本包含模型代码、预训练权重文件、Colab notebook 以及演示网站等。根据 Komatsuzaki 的介绍,GPT-J 是目前公开可用的 Transformer 语言模型当中,在处理下游任务时实现最佳零样本性能的解决方案。而此次发布的最新模型 GPT-J 则是使用新库 Mesh-Transformer-JAX 训练而成。该库使用谷歌的 JAX 线性代数框架,而非 TensorFlow 等专用深度学习框架。Komatsuzaki 表示,GPT-J 拥有“比 TensorFlow 更灵活、更快的推理速度”,且模型的开发周期也比以往的项目短得多。与体量为 2.7 GB 的 GPT-Neo 模型相比,GPT-J 的训练效率提高了 125%。
内容来源:
https://mp.weixin.qq.com/s/XsFoD2SvURBQfEcSe6DZXQ
不感兴趣
看过了
取消
Nature,未婚妻,数据集,蛋白质,AI,洪灾,人类
不感兴趣
看过了
取消
精彩评论
相关阅读
赞+1