2月9日消息,斯坦福以人为本人工智能研究院(HAI)院长、空间智能初创企业World Labs的联合创始人兼首席执行官李飞飞在英国《金融时报》最新撰文中表示, 人工智能发展迅猛,但全球目前缺乏明确的治理框架,已成为一项亟待解决的挑战。 为此,她提出了三大AI政策制定的基本原则。
李飞飞强调,AI治理应以科学为基础,而非依赖科幻想象。目前,一些科幻小说般、意识形态化的概念似乎正渗透到AI治理框架的制定过程中,需要用科学的观念和务实的态度极力避免。
在撰文中,李飞飞表示 大力支持开源AI 。她认为,开放AI模型和计算工具的访问权限至关重要,可以帮助推动技术进步。而限制访问将会设置障碍,减缓创新。
以下为李飞飞撰文全文:
AI正以前所未有的速度发展。曾经需要几天才能完成的计算任务,现在几分钟就能解决。尽管训练成本大幅上升,但随着开发者学会如何以更少的资源做更多的事情,这些成本很快将会下降。我之前说过,但我今天还要重申——AI的未来已来。
对于这个领域的从业者来说,这并不令人惊讶。计算机科学家们一直在努力工作,企业多年来也在不断创新。但令人惊讶和令人担忧的是,AI似乎缺乏一个全面的治理框架。是的,AI正在快速发展,但与此同时,我们也必须确保它能惠及全人类。
作为一名技术专家和教育工作者,我坚信全球AI生态系统中的每个人都有责任推动技术进步,并确保以人为本的方法。这是一项艰巨的任务,值得制定一套结构化的指导方针来加以规范。在为下周的巴黎AI行动峰会做准备时,我为未来的AI政策制定提出了三大基本原则。
第一,依靠科学,而非科幻。
原则上,科学工作的基础是依赖经验数据和严谨的研究,同样的方法也可以用于AI治理。虽然有些未来主义的场景——无论是乌托邦还是世界末日,这些都常常激发我们的想象力,但有效的政策制定需要对当前现实有清醒的认识。
我们在图像识别和自然语言处理等领域取得了重大进展。聊天机器人和智能助手正在以令人兴奋的方式改变我们的工作方式, 但它们应用的是高级数据学习和模式生成技术。而不是具有意图、自由意志或意识的智能形式。 理解这一点至关重要,它可以让我们避免被不切实际的场景分散注意力,从而专注于应对关键挑战。
鉴于AI的复杂性,即使专注于现实也并不总是容易的。为了弥合科学进步与现实应用之间的差距,我们需要一些能够提供关于人工智能能力的准确和最新信息的工具。像美国国家标准与技术研究院等老牌权威机构,可以帮助我们理解人工智能对现实世界的影响,从而为制定切实有效的政策提供依据。
第二,务实而非意识形态化。
尽管AI领域的发展迅速,但它仍处于起步阶段,其最大潜力尚未显现出来。因此,关于什么可以构建、什么不能构建的政策必须以务实的态度制定,既要最大限度地减少意外后果,同时激励创新。
以AI用于更准确地诊断疾病为例,这有可能迅速普及高质量的医疗服务。然而,如果没有适当的引导,它也可能加剧当今医疗系统中存在的偏见问题。
开发AI并非易事。即便怀着最美好的初衷开发出一个模型,但该模型日后却可能被滥用。因此, 最好的治理政策应该是通过策略性手段来规避风险,同时奖励以负责任的态度开发和部署AI技术的行为。 政策制定者必须制定实用的责任政策,以阻止故意滥用,同时避免不公正地惩罚善意的努力。
第三,赋能AI生态系统。
AI技术能够激励学生,帮助我们照顾老龄化人口,并提供清洁能源创新解决方案,而最好的创新往往是通过合作实现的。因此,政策制定者赋能整个AI生态系统就显得更加重要, 这个生态系统包括开源社区和学术界 。
开放AI模型和计算工具的访问权限至关重要,可以帮助推动技术进步 。而限制访问将会设置障碍,减缓创新,特别是对于资源少于私营部门的学术机构和研究人员而言。当然,这种限制的后果远远超出了学术界的范围。如果今天的计算机科学学生无法使用最好的模型进行研究,当他们进入私营部门或决定创办自己的公司时,他们将无法理解这些复杂的系统,这是很严重的知识空缺。
AI革命已经到来,我对此感到兴奋。我们有可能在人工智能驱动的世界中,实现大幅改善人类的生活。但为了实现这一目标 ,我们需要全新的治理架构:它以实际数据和验证过的研究结果为基础,强调协作性,并深深植根于以人为本的价值观中 。
领取最新网赚项目,免费带项目 添加 微信:sjzqb999 备注:项目!