首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

纽约大学发布与新兴人工智能相关的8大风险

2023年6月28日,随着世界上最大的科技公司和越来越多的初创企业参与快速发展的生成人工智能“武装竞赛”,一份新报告审查了ChatGPT和其他基于被称为大型语言模型(LLM)的人工智能系统的应用程序所带来的一系列直接风险。该报告由纽约大学斯特恩商业和人权中心发布,确定了与新兴人工智能相关的八个紧迫风险,并就如何应对这些威胁向科技行业、监管机构和国会提出了建议。

报告认为,为未来潜在的生存威胁做好准备的最好方法是开始监管摆在我们面前的危险。这些直接风险包括公司机密及其过早发布、虚假信息、网络攻击、欺诈、侵犯隐私、偏见和仇恨言论、幻觉、LLM捏造虚假事实以及新闻业务的进一步恶化。随着2024年总统大选的临近,该报告强调,人工智能为选举虚假信息提供便利的风险是最具体的危险之一。

该报告警告不要重蹈社交媒体的覆辙:让一个强大的新科技部门成长为一个庞然大物,而不关注其有害的副作用。与不透明的社交媒体公司一样,使外部专家能够评估对用户和整个社会的潜在危害。人工智能公司,包括OpenAI和Anthropic等初创企业,正在现实中危险地测试人们理解不清的产品,这种方法几乎肯定会加剧有关选举和公共卫生的虚假信息的传播以及网络攻击的危险。

该报告的主要作者纽约大学斯特恩商业与人权中心副主任保罗·巴雷特(音)说:“立法者和监管机构必须迅速采取行动,考虑如何监管这项强大的技术。我们不应该重复社交媒体公司所犯的错误,即允许该行业的一个新分支在没有识别技术危险的一面并果断采取行动将风险降至最低的情况下变得普遍和具有高度影响力。”

该报告强调了LLM生成与人类书写内容无法区分,并指出,LLM有能力生成或修复代码,用于针对银行、电网或政府机构等目标的恶意软件攻击。

对生产生成人工智能模型的科技公司提出了以下建议:

减少对训练数据和改进方法的保密性,包括为尽量减少幻觉和有害内容而进行的测试。

确保人工智能系统在发布前被证明对其预期用途安全有效,并在发布后受到监控。

对人工智能生成的内容进行显示或标记。

还向美国政府提出了以下建议:

执行适用于生成人工智能的现行刑事、消费者保护、隐私和反垄断法。

加强联邦监督数字行业的权力,包括人工智能公司。

通过国会行动要求提高透明度。

通过国家在线隐私法,如《美国数据隐私和保护法》。

建立公共部门和学术计算机基础设施,以弥合私人之间的差距。

寻求衡量生成人工智能效果的公司和外部专家。

本文由升哲科技编译,转载请注明

  • 发表于:
  • 原文链接https://page.om.qq.com/page/On7BVmZ4DIN6Nx98KqLGW0qQ0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券
http://www.vxiaotou.com