AIGC周报|ChatGPT升级计划来了;微软承认:new Bing有时很无赖;ChatGPT作为设计师,水平怎么样?

2023
02/18

+
分享
评论
学术头条
A-
A+

像他这样的工程师应该对纠正错误负责,学习“如何将最坏情况的可能性降至最低非常重要”,而不是一味地跟风。

跟踪AIGC前沿资讯

WEEK BY WEEK

AIGC(AI Generated Content)即人工智能生成内容。近期爆火的 AI 聊天机器人 ChatGPT,以及 Dall·E 2、Stable Diffusion 等文生图模型,都属于 AIGC 的典型案例,它们通过借鉴现有的、人类创造的内容来快速完成内容创作。

“新晋流量”ChatGPT的背后,AIGC是“昙花一现”?还是将引领人工智能进入新的时代?「AIGC 周报」将从【技术前瞻】【企业动态】【政策法规】【专家观点】带你快速跟进 AIGC 世界。

01 技术前瞻

ChatGPT作为设计师,水平怎么样?

最近大型语言模型(LLMs)的进步,特别是像 ChatGPT 这样的对话式 LLMs,已经促使一系列领域发生变化,甚至包括设计领域。这项研究旨在检验 ChatGPT 在以人为中心的设计过程中的能力。研究团队进行了一个虚拟设计项目,利用 ChatGPT 来生成角色,模拟与虚拟用户的访谈,创造新的设计理念,模拟使用场景和想象中的原型与虚拟用户之间的对话,最后评估用户体验。

结果显示,ChatGPT 有效地完成了分配给它的设计、用户或产品的任务,提供了大部分合适的响应。它能够:(1)作为想象中的设计师、用户和产品进行角色扮演;(2)在多个回合中围绕多个相互关联的话题维持对话的上下文背景(多达 4000 个符号);(3)通过自由形式的自然语言对话纠正其输出的错误。

然而,该研究确实强调了 ChatGPT 的一些缺点,包括:(1)难以理解一些问题和请求;(2)在会话长度增加到一定程度时难以保持对话的上下文;(3)无法提供丰富的模拟用户数据输出。

总的来说,虽然有一些局限性,但 ChatGPT 是有能力通过自然发生的对话(在合理的程度上)与虚拟助手交谈来完成各种任务的。类似这种形式的人类与 AI 的合作似乎在未来会变得更加普遍。两个关键的能力是 ChatGPT 的对话能力以及它对问题领域的良好的理解。关于对话能力,ChatGPT 能正确理解以自然形式和种类表达的自然语言提示,这让人类感到舒适和高效。在问题领域的知识方面,LLMs 的信息准确性是有争议的,可能需要进行事实核查。

在这个虚拟项目中,ChatGPT 对问题领域、用户和他们的需求的理解大多是合理和恰当的,ChatGPT 似乎适合于总结一个给定的内容和构思各种备选的解决方案。

在教学代数上,ChatGPT 和人类教师有差别吗?

大型语言模型(LLMs),如 ChatGPT,正在迅速将 AI 推向消费者实际使用的前沿,并引导行业内重新评估如何分配资源用于内容生产。在适应性辅导系统中编写开放教育资源和提示内容是劳动密集型的。如果像 ChatGPT 这样的 LLMs 生产的教育内容能够与人类编写的内容相媲美,那么对于进一步扩大计算机辅导系统的规模将具有重要意义。

在这项研究中,两位学者对 ChatGPT 进行了第一次学习增益评估,将其提示的效果与人类教师编写的提示进行了比较,77 人参与了两个代数主题领域,即初级代数和中级代数。

研究发现,关于质量,ChatGPT 生成的提示中有 70% 通过了研究者的手动质量检查,人类和 ChatGPT 条件都产生了积极的学习效果,但该技术在当前形式下仍需要人工监督;关于学习增益差异,ChatGPT 生成的提示和手动生成的提示都产生了学习增益,但只有“人类教师”创造的提示才有统计学意义,且在两个主题领域中,人类创造的提示所带来的学习增益都大大高于 ChatGPT 的提示。

然而,在中级代数实验中,参与 ChatGPT 生成提示的参与者(在测试前还没有达到对照组的水平)的学习增益接近上限。

53251676675563070

15631676675563127

ChatCAD:整合ChatGPT和医学CAD网络,搭建“患者友好”的诊断系统

大型语言模型(LLMs)最近展示了它们在临床应用中的潜力,并提供了宝贵的医学知识和建议。例如,像 ChatGPT 这样的大型对话 LLMs 已经成功通过了部分美国医学执照考试。

然而,LLMs 目前在处理图像方面存在困难,这使得解读医学图像中的信息十分具有挑战性,而医学图像中包含丰富的支持临床决策的信息需要处理与分析。

另一方面,通过使用先进的深度学习算法支持临床决策,形成医学图像的计算机辅助诊断(CAD)网络在医学领域取得了重大成功。

据此,这项研究提出了一种将 LLMs 整合到医学图像 CAD 网络工作中的方法。研究提出的框架使用 LLMs 来增强多个 CAD 网络的输出,如诊断网络、病变分割网络和报告生成网络,通过总结和重组以自然语言文本格式呈现的信息,将 LLMs 的医学领域知识和逻辑推理的优势与现有医学图像 CAD 模型的视觉理解能力相结合,为患者创造一个比传统 CAD 系统更友好和更容易理解的系统。

未来,LLMs 的医学知识也可以被用来提高基于视觉的医学图像 CAD 模型的性能。

21951676675563237

02 企业动态

微软承认,AI版必应长时间聊天会变得“无赖”

微软近期启动了 AI 版必应的公开测试,许多用户发现,新版必应在某些情况下会出现 “精神错乱” 的言论,甚至侮辱用户、撒谎,并试图 PUA 用户。

目前,微软官方已经承认,如果在长时间聊天中被激怒,新版必应可能会出现问题,并回应称正在根据反馈采取行动,以优化回答的语气和准确性。

具体而言,在周三的博客文章中,微软表示,在 “15 个或更多问题的延长聊天会话” 中,新版必应可能会变得重复或被 “提示” 或 “激怒” 给出无益或与其设计语气不符的回答。微软将这种语气不佳的回应称为 “需要大量提示的重要场景”,并表示普通用户不太可能遇到这个问题,一些用户一直在 “真正测试该服务的功能和限制”,并指出一些他们与聊天机器人交谈长达两个小时的案例。

微软声称,他们正在寻找方法为用户提供更精细的控制,比如为用户添加一个工具来刷新上下文或从头开始。

参考链接:

https://www.businessinsider.com/microsoft-bing-chatbot-go-rogue-if-prodded-2023-2

OpenAI揭秘构建ChatGPT全过程并承诺将努力“debug”

针对推出 ChatGPT 以来,用户所分享的他们认为有政治偏见、攻击性或其他令人反感的产出,OpenAI 制定 ChatGPT 的升级计划。

在博客中,OpenAI 揭示了 ChatGPT 的构造工程:ChatGPT 依托的大模型首先要经历 “预训练” 阶段,即通过接触大量的互联网文本来学习预测一个句子中的下一个词;第二个阶段是对模型进行 “微调”,以缩小系统的行为范围。

针对用户和研究者发现的诸多 “偏见” 等问题,OpenAI 分享了与政治和争议有关话题的部分指南,明确指出参与微调的评审员不偏袒任何政治团体,并表示正在努力以不违反隐私规则和规范的方式共享有关评审员的汇总统计信息,因为这是系统输出中潜在偏见的另一个来源。

最后,OpenAI 提出将设置三个构建模块来实现使命——确保更广大的人群能够使用 AI 和 AGI,并从中受益:(1)改进默认行为,使得 AI 系统做到开箱即用并且尊重用户的价值观;(2)在广泛的范围内定义 AI 价值,使得每个用户都可以根据一些限制条款进行定制使用。(3)通过公共输入(默认值和硬性界限)的方式避免权力过度集中,让使用 ChatGPT 等系统或受其影响的人反过来能够影响系统规则。

参考链接:

https://openai.com/blog/how-should-ai-systems-behave/

Tim Cook对ChatGPT的沉默让苹果看起来格格不入

一场围绕 OpenAI ChatGPT 应用程序的病毒式传播炒作推动的新竞赛已经将 AI 变成了新的战场。微软和谷歌在 2 月初发布了竞争性的 AI 产品,许多其他公司开始宣布在某种类型的 AI 上运行的产品和服务的计划。

苹果公司首席执行官 Tim Cook 曾表示,AI 将成为其业务的核心——但在围绕 ChatGPT 和所谓的生成式 AI 的激烈竞赛中,苹果却出奇的沉默。

Wedbush 的 Ives 指出,苹果公司已经在 AI 研发上花费了大约 100 亿美元,预计会在今年夏天发布新产品时,同时发布一些与 AI 相关的重大公告。不过,苹果很少被认为是 AI 的先行者,而是倾向于等到消费者开始需要某些技术时才推出。同时,苹果自 2021 年起面临供应链问题,因此将不得不分散其重心。

但是,用户是被苹果的设计和生态系统所吸引,苹果只需要表明它正在考虑 AI,而不必真正重新发明轮子。正如 DA Davidson 分析师 Tom Forte 所说,“作为投资者,我宁愿相信它在许多不同的场景中使用 AI 来增强其现有技术,因为 AI 不是消费者购买苹果产品的原因。”

参考链接:

https://www.businessinsider.com/tim-cook-apple-ai-chatgpt-strategy-competition-2023-2

03 政策法规

美国议员们正考虑如何监管ChatGPT

ChatGPT 自发布以来用户增长迅速,引发了一场全球 AI 军备竞赛,也导致生成式 AI 的局限性和潜在风险暴露在了大众眼前,包括信息安全、传播错误信息、教育和侵犯知识产权等问题。最近,美国国会议员正在考虑是否应该对其加强监管。

美国众议院科学委员会民主党籍众议员 Ted Lieu 在发表的一篇文章中表示,他对 AI 以及它将以令人难以置信的方式推动社会发展感到兴奋,但也表示非常担忧不受限制和不受监管的 AI。他尝试用 ChatGPT 起草了一项决议,这份决议称,美国国会应该关注 AI,“确保 AI 的开发和部署以安全、道德、尊重人们权利和隐私的方式进行,并确保 AI 的好处得到广泛分配,使得风险最小化。”

参考链接:http://t.cn/A6CZ8E3o

04 专家观点

查理·芒格:AI技术确实重要,但炒作成分很高

近日,股神巴菲特的老搭档、伯克希尔-哈撒韦公司的副董事长查理·芒格分享了他对 AI 的看法,“AI 技术确实很重要,但其中也充斥着大量炒作成分。”他表示,“AI 不会治愈癌症,它也不会做我们想做的所有事情。有很多无稽之谈,我认为所有这些 AI 都是好坏参半。”他指出,人们已经尝试将 AI 用于保险承销和购买办公楼,但他怀疑这会有多大帮助。

参考链接:

http://t.cn/A6CwBlf5

Google搜索负责人:AI有时会产生错觉

谷歌高级副总裁兼 Google 搜索负责人 Prabhakar Raghavan 在接受采访时表示:“我们现在谈论的这种 AI ,有时会导致出现某种我们所谓的幻觉(hallucination)……机器会以一种令人信服但完全编造的方式来表达自己。”他补充说,目前 AI 行业的基本任务之一,就是将这种情况控制在最低限度。

参考链接:

https://www.businessinsider.com/google-search-boss-warns-ai-can-give-fictitious-answers-report-2023-2

“互联网之父”Vint Cerf:请警惕对 AI 聊天机器人的淘金热

近日,Vint Cerf 表示:“每个人都在谈论 ChatGPT 或谷歌的版本,我们知道它并不总是按照我们希望的方式工作。”Cerf 被公认为“互联网之父”之一,是 TCP/IP 协议和 Internet 体系结构的共同设计者。

同时,他认为人们必须“记住”一些使用新技术的人并不总是真诚的,并且“会寻求做对他们有利而不是你的事情”,因此投资者必须“考虑我们如何使用这些技术”。

他警告人们,不要因为 ChatGPT 和 Google Bard 这样的对话式 AI 聊天机器人“很酷”并且很热闹就仓促投资它们。像他这样的工程师应该对纠正错误负责,学习“如何将最坏情况的可能性降至最低非常重要”,而不是一味地跟风。

参考链接:

https://www.businessinsider.co.za/father-of-internet-vint-cerf-on-ai-chatbots-chatgpt-2023-2

不感兴趣

看过了

取消

本文由“健康号”用户上传、授权发布,以上内容(含文字、图片、视频)不代表健康界立场。“健康号”系信息发布平台,仅提供信息存储服务,如有转载、侵权等任何问题,请联系健康界(jkh@hmkx.cn)处理。
关键词:
AIGC,CAD,AI,ChatGPT,人工智能

人点赞

收藏

人收藏

打赏

打赏

不感兴趣

看过了

取消

我有话说

0条评论

0/500

评论字数超出限制

表情
评论

为你推荐

推荐课程


社群

  • 第九季擂台赛官方群 加入
  • 手术室精益管理联盟 加入
  • 健康界VIP专属优惠 加入
  • 健康界药学专业社群 加入
  • 医健企业伴飞计划 加入

精彩视频

您的申请提交成功

确定 取消
5秒后自动关闭

您已认证成功

您已认证成功,可享专属会员优惠,买1年送3个月!
开通会员,资料、课程、直播、报告等海量内容免费看!

忽略 去看看
×

打赏金额

认可我就打赏我~

1元 5元 10元 20元 50元 其它

打赏

打赏作者

认可我就打赏我~

×

扫描二维码

立即打赏给Ta吧!

温馨提示:仅支持微信支付!

已收到您的咨询诉求 我们会尽快联系您

添加微信客服 快速领取解决方案 您还可以去留言您想解决的问题
去留言
立即提交