预计阅读时间: 11 分钟
从 假照片 唐纳德特朗普被纽约市警察逮捕的聊天机器人描述了一个 计算机科学家非常活着,因为悲惨地死了 , 新一代系统的能力 人工智能 创建引人入胜但虚构的文本和图像的生成动力正在引发关于类固醇欺诈和错误信息的警报。 事实上,29 年 2023 月 XNUMX 日,一群人工智能研究人员和行业人士敦促该行业暂停对最新人工智能技术的进一步培训,否则政府将“暂停”。
图像生成器喜欢 DALL-E , 中途 e 稳定扩散 和内容生成器,例如 诗人 , ChatGPT , 龙猫 e 骆驼 – 现在可供数百万人使用,无需技术知识即可使用。
鉴于科技公司正在部署人工智能系统并在公众身上进行测试,政策制定者应该问问自己是否以及如何监管这项新兴技术。 The Conversation 请三位技术政策专家解释为什么监管 AI 是一个如此大的挑战,以及为什么正确处理它如此重要。
S. Shyam Sundar,多媒体效果教授兼宾夕法尼亚州立大学社会责任人工智能中心主任
之所以要规范人工智能,不是因为技术失控,而是因为人类的想象力失控。 铺天盖地的媒体报道助长了对人工智能能力和意识的非理性信念。 这些信念是基于“ 自动化偏差 ” 或在机器执行任务时放松警惕的倾向。 一个例子是 飞行员警惕性降低 当他们的飞机在自动驾驶仪上飞行时。
我实验室的大量研究表明,当机器而不是人类被确定为交互源时,它会在用户的脑海中触发一条我们称之为“机器启发式”的心理捷径。 “ . 这个简写是相信机器是准确的、客观的、公正的、绝对可靠的等等。 蒙蔽了用户的判断,导致用户过度信任机器。 然而,仅仅让人们对 AI 的万无一失的幻想破灭是不够的,因为众所周知,即使技术不能保证,人类也会下意识地假设熟练。
研究还表明 人们将计算机视为社会人 当机器表现出哪怕是最轻微的人性暗示时,例如使用会话语言。 在这些情况下,人们会应用人际交往的社会规则,例如礼貌和互惠。 所以当计算机看起来有感觉时,人们往往会盲目地相信它们。 需要监管来确保 AI 产品值得这种信任并且不会利用它。
AI 提出了独特的挑战,因为与传统的工程系统不同,设计人员无法确定 AI 系统的性能。 当一辆传统汽车出厂时,工程师们确切地知道它的性能如何。 但是有了自动驾驶汽车,工程师们 他们永远无法确定自己在新情况下会如何表现 .
最近,世界各地成千上万的人惊叹于 GPT-4 和 DALL-E 2 等大型生成式 AI 模型响应他们的建议而产生的结果。 参与开发这些 AI 模型的工程师都无法准确告诉您这些模型将产生什么。 使事情复杂化的是,这些模型随着越来越多的交互而变化和发展。
所有这些都意味着有很大的失火可能性。 因此,很大程度上取决于人工智能系统是如何实施的,以及当人类的情感或福祉受到损害时有哪些追索条款。 人工智能更像是一种基础设施,就像高速公路一样。 你可以设计它来塑造集体中的人类行为,但你需要机制来处理滥用行为,如超速和不可预测的事件,如事故。
AI 开发人员还需要在预测系统可能的行为方式方面具有非凡的创造力,并尝试预测可能违反社会标准和责任的行为。 这意味着需要依赖于对 AI 结果和产品的定期审计和审查的监管或治理框架,尽管我认为这些框架也应该认识到系统设计者不能总是对事件负责。
Cason Schmit,德克萨斯 A&M 大学公共卫生助理教授
监管人工智能很复杂 。 想要调好AI,首先要 defi完成人工智能并了解人工智能的预期风险和收益。 Defi合法提交人工智能对于确定哪些内容受法律管辖非常重要。 但人工智能技术仍在不断发展,所以很难 defi完成一个 defi稳定的法律定义。
了解人工智能的风险和好处也很重要。良好的监管应该最大化公共利益,同时最小化风险。然而,人工智能应用仍在不断涌现,因此很难知道或预测未来可能存在的风险或收益。这些类型的未知因素使得人工智能等新兴技术变得极其重要 难以监管 与传统的法律法规。
立法者是 经常调整太慢 适应快速变化的技术环境。 有人 新法 在发行时已过时或 成为执行官. 如果没有新的法律,监管机构 他们必须使用旧法律 面对 新问题 . 有时这会导致 法律障碍 为 社交好处 o 法律漏洞 为 有害行为 .
在“软法 ”是旨在防止特定违法行为的传统“硬法”立法方法的替代方案。 在软法方法中,私人组织建立 规则或标准 对于行业成员。 这些可以比传统立法更快地改变。 这使得 有前途的软法 对于新兴技术,因为它们可以快速适应新的应用和风险。 然而, 软法律可能意味着软执法 .
梅根杜尔 , 詹妮弗·瓦格纳 e io (卡森施密特) 我们提出第三种方式: Copyleft AI with Trusted Enforcement (CAITE) . 这种方法结合了知识产权中两个截然不同的概念:许可 copyleft
e patent troll
.
许可证 copyleft
允许您根据许可条款轻松使用、重复使用或修改内容,例如开源软件。 模型 CAITE
使用许可证 copyleft
要求 AI 用户遵循特定的道德准则,例如对偏见影响的透明评估。
在我们的模型中,这些许可还将强制执行违反许可的合法权利转让给受信任的第三方。 这创建了一个执法实体,其存在的唯一目的是执行 AI 道德标准,并且可以通过对不道德行为的罚款来获得部分资金。 这个实体就像一个 patent troll
因为它是私人的而不是政府的,并且通过执行从他人那里收集的合法知识产权来支持自己。 在这种情况下,该实体不是为了盈利而运行,而是执行道德准则 defi晚上的许可证。
该模型灵活且适应性强,可以满足不断变化的 AI 环境的需求。 它还允许像传统的政府监管机构那样进行实质性的执法选择。 通过这种方式,它结合了硬法和软法方法的最佳元素来应对人工智能的独特挑战。
John Villasenor,加州大学洛杉矶分校电气工程、法律、公共政策和管理学教授
该 最近的非凡进步 基于大型语言模型的生成 AI 正在刺激创建新的 AI 特定法规的需求。 以下是要问自己的四个关键问题:
现有框架已经解决了 AI 系统的许多潜在问题结果。 如果银行用于评估贷款申请的 AI 算法导致种族歧视的贷款决定,将违反《公平住房法》。如果无人驾驶汽车中的 AI 软件导致事故,产品责任法规定了 寻求补救的框架 .
一个典型的例子是 存储通信法案 ,于 1986 年颁布,旨在解决电子邮件等当时创新的数字通信技术。 在颁布 SCA 时,国会为超过 180 天的电子邮件提供的隐私保护明显减少。
理由是有限的存储空间意味着人们不断清理收件箱,删除旧邮件以为新邮件腾出空间。 因此,从隐私的角度来看,存档时间超过 180 天的消息被认为不那么重要。 目前尚不清楚这种逻辑是否有意义,而且在 20 年代肯定没有意义,当时我们的大多数电子邮件和其他存档的数字通信都存在六个月以上。
随着时间的推移,对基于单一快照的监管技术的担忧的常见回应是:如果法律或法规变得过时,请对其进行更新。 说起来容易做起来难。 大多数人都认为 SCA 在几十年前就已经过时了。 但由于国会无法就如何修改 180 天条款达成具体一致,它在颁布超过三分之一个世纪后仍然存在于书本上。
Il 允许各州和受害者打击 2017 年在线性交易法案 他修改了 2018 年通过的法律 第230节 旨在打击性交易的《通信规范法》。 虽然几乎没有证据表明他减少了性交易,但他已经 极其有问题的影响 另一群人:依赖 FOSTA-SESTA 下线网站的性工作者来交换有关危险客户的信息。 这个例子表明了广泛审视拟议法规的潜在影响的重要性。
如果美国的监管机构采取行动故意减缓人工智能的进展,那只会将投资和创新——以及由此产生的就业机会——推向别处。 虽然新兴人工智能引起了许多担忧,但它也有望在以下领域带来巨大好处: 教育 , MEDICINA , 生产 , 运输安全 , 农业 , 预气象 , 获得法律服务 等等。
我相信,考虑到以上四个问题起草的人工智能法规将更有可能成功解决人工智能的潜在危害,同时确保获得其利益。
本文自由摘自The Conversation,这是一家独立的非营利性新闻机构,致力于分享学术专家的知识。
BlogInnovazione.it