当机器真正具备人类水平的理解、学习和推理能力时,我们将迎来怎样的未来?是医疗、教育、科研等领域的全面跃升,还是失控风险下的生存危机?在不久前举办的中关村论坛年会上,朱松纯提出通用人工智能是下一个前沿之一的观点;与此同时,谷歌DeepMind团队也发布了长达145页的人工智能安全报告,称通用人工智能(AGI)或将在5年(2023年)内出现,并警告其可能带来“永久毁灭人类”的极端风险。在这个技术奇点临近的时代,我们既站在突破人类认知边界的曙光里,也徘徊在未知风险的阴影中。
一、前沿机遇:革新的无限可能
从技术发展的维度来看,近年来通用人工智能取得了突破性进展。以大语言模型为代表,如 OpenAI 的 GPT-4,展现出了令人惊叹的多任务处理能力。它不仅能流畅地进行自然语言对话,协助人们完成文案撰写、问题解答等常规任务,还能在复杂的逻辑推理、代码编写以及创意写作等方面表现出色,通过理解任务的本质和要求,灵活运用知识生成高质量的结果。谷歌 DeepMind 开发的 Gemini Ultra 模型,融合强化学习技巧与大模型经验,在某些基准测试中超越了 GPT-4,进一步彰显了技术的进步。在多模态融合方面,通用人工智能系统正逐步实现对文本、图像、音频等多种数据类型的综合理解与处理。
产业应用层面,通用人工智能正深度赋能各个行业,成为推动产业升级和创新的核心力量。在医疗健康领域,它可以对海量的医疗数据,包括患者的病历、影像资料、基因信息等进行综合分析,帮助医生进行疾病的早期诊断和精准治疗方案的制定。通过学习大量的医学案例和最新研究成果,人工智能系统能够发现潜在的疾病模式和治疗线索,为医疗决策提供可靠的参考依据,从而提高医疗效率和质量,挽救更多生命。
图:全球首个通用智能人“通通”(图源:北京通用人工智能研究院)
二、风险剖析:潜在危机的审视
然而,DeepMind 报告中对 AGI 风险的阐述,如同一记警钟,振聋发聩。滥用风险首当其冲,随着 AGI 技术普及,恶意分子极有可能利用其生成高度逼真的虚假信息,操纵舆论走向。在信息时代,虚假信息的传播速度与破坏力呈指数级增长,可能引发社会信任危机,扰乱正常社会秩序。例如,通过深度伪造技术合成政治人物的虚假言论视频,足以误导公众,影响选举等重大事件进程。
错位风险同样棘手,当 AGI 系统在复杂任务执行中,因目标设定偏差或对人类价值观理解有误,便可能产生与预期相悖的结果。设想一个负责城市资源分配的 AGI 系统,若单纯以经济效益最大化为导向,忽视了社会公平与弱势群体需求,可能导致资源过度集中,贫富差距进一步拉大,激化社会矛盾。
三、争议焦点:发展节奏与伦理界限的博弈
围绕 AGI 发展,争议从未停歇。首要争议在于发展节奏把控。部分科技乐观派深受 AGI 巨大潜力鼓舞,主张加速推进技术研发,认为快速实现 AGI 突破能抢占发展先机,解决诸多全球性难题,如能源危机、气候变化等。然而,谨慎派依据 DeepMind 报告,忧心当下技术根基不稳,盲目加速可能导致风险失控。他们指出,在对 AGI 的底层运行逻辑、安全机制尚未充分理解与完善前,过快发展无异于在薄冰上疾驰,一旦破裂,后果不堪设想。
伦理界限的界定亦是争议核心。当 AGI 具备一定自主决策能力,其行为的道德责任归属成为难题。若 AGI 在执行任务中造成损害,责任该归咎于开发者、使用者,还是 AGI 自身?以医疗事故为例,若由 AGI 辅助的手术出现失误,患者权益该如何保障?同时,在 AGI 研发过程中,数据收集与使用的伦理规范也亟待明确。为训练 AGI 获取大量个人数据,如何在保障数据可用性的同时,充分尊重个人隐私,避免数据滥用,成为横亘在发展道路上的关键议题。