MIT校乐鱼体育长对线或将数据与推理引擎分离

2024-05-05

  当地时间5月2日中午13:00,距离这场对线个小时,就有观众来到了活动所在的MIT Swraj Paul剧院。演讲开始前1个小时,门口已排起长龙。由于报名的人数太多,组织方不得不启用摇号的方式分配门票。

  令人唏嘘的是,在活动的不远处,对巴以冲突持不同观点的两派学生正在抗议。就像这个时代的割裂缩影,冲突频发和科技跃迁,希望与挑战并存。

  作为OpenAI的掌舵人,奥尔特曼和团队一直不断打破人工智能领域的边界。所有的目光都集中在舞台上,这不仅是关乎一个公司的故事,更是一场关乎人类创新阈值的对话——它关乎希望、责任与未来。

  正如活动的主持人、MIT董事会主席马克·戈伦伯格(Mark Gorenberg)在开场时所说:“当大多数人提及生成AI时,便会立即想到OpenAI和奥尔特曼。”

  奥尔特曼这次的分享依旧主打一手“情怀”,关于技术本身则鲜有剖析。一个小时的对话,他用直白的语言描绘出了一个“人类所用工具(tools for human)”的未来。但对于谈话内容,有MIT的同学听过后对“甲子光年”表示“深受鼓舞”;也有人认为他“净讲些‘虚头巴脑’的大概念”。

  OpenAI在做的是“人类用的工具”,不是在创造生物;而人类充满偏见却往往不自知;

  在参数中保存数据很“奇怪”。GPT-5或GPT-6可能尝试将数据与推理引擎分离;

  AI不会抢夺人类的工作。未来每个人可能都会拥有一个由AI驱动的完整公司;

  OpenAI被推到今天的位置,是因为ChatGPT的迭代速度,某种程度上代表了自然语言处理(NLP)的技术发展和AI应用的爆发速度。

  伴着科恩布鲁斯抛出的第一个问题,对话正式开始。她向奥尔特曼介绍,这场对话的所有问题,都是由学生提出、校方筛选的。

  所谓“末日值”(probability of doom,简写为p(doom)),即指个人认为AI可能带领人类走向末日的机率,也是近期硅谷科技新贵们最常挂在嘴边的问候语。

  这个指标的范围从1到100。数字越高,表示个人越相信AI会消灭所有人类并导致世界末日。

  “我认为这个问题表述不太恰当,问题假设了一种静态的系统。”奥尔特曼回答,“虽然我自己也乐于对数字进行长篇大论。但不管这个数字是2、10、20或90,关键点在于它不是0。讨论灾难概率虽然能激发深思,但相比之下,我们更应该关注如何避免灾难,确保我们能安全、积极地面对未来。”

  同时,奥尔特曼认为AI现阶段还没有“做得足够好”。十年前,他对AI有一种更“天真”的看法,将其视为一种能自行解决问题、带来财富的“魔法超级智能”;但现在,他认为AI更像是一场“技术革命”,为人类带来希望。

  他一直反复强调的观点——AI是人类科技树上的新工具(a new tool in the tech tree of humanity)。在斯坦福演讲时,奥尔特曼同样提到OpenAI在做的是“人类用的工具(a tool for human)”,并不创造生物。人类没必要害怕超级智能的人工智能,每个新模型的缺点也是它们持续迭代的动力。

  长期以来,AI一直被诟病存在价值观问题:谁来定义什么是偏见,什么是价值观?如何决定系统应该执行什么任务?社会应该在多大程度上定义这些边界,而我们又应该在多大程度上信任用户合理使用这些工具?

  对于这个困境,奥尔特曼的想法是在明晰技术的潜力和限制的同时,还需在技术潜能和道德限制之间找到平衡。通过人类反馈进行强化学习(RLHF)等技术,可以消减模型偏见的缺陷。

  “人类本身就是充满偏见的生物,但往往并不自知。”他说道,“像GPT-4或之后的GPT-5这样的模型没有和我们相同的心理缺陷。虽然它们不完美,但总的来说,我这些系统会比人类表现得更公正。”

  除偏见外,AI发展的另一个核心问题是如何在用共享数据训练AI模型时保护个人隐私。

  随着技术的进步,一个全知全能的个性化AI并非与我们遥不可及:它能追踪我们的电子邮件、短信和生活记录,甚至我们看过的电视节目和文件夹。

  奥尔特曼将称它是“让人又爱又恨的存在”:便利生活同时也带来了极大的隐私风险。

  诚然,我们已在互联网时代中牺牲了一部分隐私以获得便利,AI的介入会让这种权衡更为复杂。“在AI发展的背景下,我们需要重新定义‘特权信息’的概念,以防止个性化AI在法律上被用于不利于我们的情况”。

  “我们得的GPT-5或GPT-6成为最佳的推理引擎,目前而。


本文由:乐鱼app官方网站提供