友情提示:本平台主要功能已迁移至全国标准信息公共服务平台,请访问 http://www.std.gov.cn
收藏本站   设为首页
当前位置:ISO新闻 > 正文

人工智能:回报、风险和监管

发布时间: 2023-11-10 00:00:00   审校:元宇宙   浏览次数:
来源:ISO网站  

从未知的力量到可信的工具,构建人工智能的未来就是要问正确的问题。

ISO年会将于2023年9月18日至22日在澳大利亚布里斯班举行。国际标准化组织及其成员与世界变革推动者携手合作,展示国际标准如何帮助应对世界上最大的挑战。我们在活动前发表了一系列嘉宾文章,深入解读本次大会将讨论的各种议题。

在日常生活中,关于人工智能(AI)最常见的对话是这样的:“我使用了ChatGPT,它做了XXX”。然而,企业领导人、政府和国际组织正在进行一场截然不同的对话。他们的观点是如何以尽量减少风险的方式,来最大程度的发挥人工智能的优势。

一些人认为我们需要紧急监管人工智能,另一些人将人工智能比作核运动,有些人甚至警告说它将终结世界。与此同时,许多顾问和初创企业会让我们相信,人工智能是治愈我们所有商业和个人疾病的灵丹妙药,包括爱情、生命和生命威胁。现在下很多结论还为时过早,但重要的是,专家已经在进行充分的商讨。只有这样,这项突破性的技术才能更好地支持和赋予人类力量。

提出正确的问题

事实是,有很多我们应该进行的,关于人工智能的讨论我们还没有做。包括加速人与人之间的不平等造成更广泛的社会影响,以及将人数据化,而忽略了在数据点上,人们可以被认为是多余的或不再有价值的。历史上科学的每一次发展都有好处也有风险。事实上,历史的失败可以给我们留下深刻的教训,避免犯同样的错误。人工智能虽然在某些方面与众不同,但与之前范式转变一样,也存在许多潜在缺陷。其中,过度承诺、低估风险和商业利益影响沟通并不是什么新鲜事。那么问题岀在哪里呢?我们为什么要关心?

我们现在谈论的很多东西都是老生常谈。早在20世纪50年代,第一批聊天机器人之一Eliza的创建者Weizenbaum就提出了围绕语言模型进行神奇思维的想法,自此,语言模型就一直存在。最近,数据科学社区对使用ChatGPT2的一些建议表示担忧 ,包括在没有人为干预的情况下自动判断,可能出现死循环。尽管这项技术现在在更大的数据集上得到了加强,但许多老问题仍然存在。新颖之处是这些模型的速度和规模,以及它们的数据来源。

治理

好消息是,一个完整的治理工具箱已经存在。这包括围绕知识产权、企业行为、人权、歧视、合同和隐私的国际和国家立法等等。世界各地的许多专家,如Edward Santow教授长期以来,一直主张提高律师的技能,以便他们能够理解并在自己的工作中应用现有的立法和新技术。

然而,在立法的同时,还应考虑更多的监管要求。目前,监管框架已经到位,例如最近制定的《欧盟人工智能法案》、美国国家标准与技术研究院(NIST)以及中国的人工智能新政策。但有些需要更新或修订。在存在监管空白的地方,我们应该进行加强。

降低风险,实现回报最大化

事实是,我们不能按照传统的思路来思考人工智能的风险。亚利桑那州立大学Andrew Maynard教授是风险方面的专家,他坚定地认为,传统的思维并不能“把我们带到我们需要的地方”。

国际标准,如ISO/IEC JTC 1/SC 42关于人工智能管理的标准,将有助于弥合监管中的这些差距。它们使决策者和政策制定者能够以可追溯的方式创建一致的数据和流程。这将在许多方面为企业带来长期价值,包括环境报告、可操作性和利益相关者的可信度。这种方法将确保回报大于风险,符合法规和其他治理工具。

数据伦理也可以发挥作用。如果使用和应用得当,数据伦理可以帮助形成拟人思维, 从领导决策到日常任务,再到“做事不仅因为你能做,而且因为你应该做”。

但最重要的是,国际标准可以确保合适的人进行合适的对话—— 使用共享语言。建立我们需要的监管工具和文化可能需要时间。但国际标准有助于确保我们在风险和回报之间取得正确的平衡。


  • 版权所有 侵权必究
  • 主管:国家标准化管理委员会
  • 主办:国家标准化管理委员会标准信息中心
  • 运营:北京中标赛宇科技有限公司
  • 经营许可证编号 京ICP证 号
  • 盗版侵权 举报热线:400-650-6190
  • 关于我们
  • 技术团队
  • 合作伙伴
  • 法律声明
  • 知识产权