我正在教一门伦理学本科课程的第二学期,重点是人工智能工具的使用,我既希望也怀疑人工智能工具在大多数情况下都能得到有益的使用。然而,尽管这是一个足够大的数字,但这些工具的质量取决于使用它们的人。人工智能工具正是这样——工具。没别的了。
无追索权失败
为了我的课堂,我要求学生们告诉我他们是否正在使用Grammarly或Chat GPT等工具进行我这门课的学习。如果我得到实情,两者都是可以接受的。然而,尽管识别非原创作品的任务越来越艰巨,但我让他们充分意识到,我会检查每一个来源和引文,并进一步通过人工智能“检查器”检查每一份文档的原创性。虽然这些检查并非万无一失,但它们提供了一些帮助,就像我用来验证原创学生作品的其他“技巧”一样。学生们还被警告说,如果我发现作品不是原创的,他们将无法通过课程。毕竟,这是一门伦理学课。
人工智能在工作场所的使用
在工作场所,这种滥用人工智能工具的行为可能更难追踪,尽管这并不是说不应该仔细监控员工如何使用人工智能工具——不仅是偶尔的,而且是常规的。当然,这并不是说,如果不使用人工智能工具,人类不会犯很多错误。当时间和精力有限时,这些工具中的许多都提供了不可或缺的捷径。问题是,对它们的依赖可能是非常错误的,也是非常有害的。值得注意的是,因依赖不可靠的人工智能工具而引发的诉讼才刚刚开始。
人工智能是客户体验行业最大的流行语之一,运营客户体验平台的人正在寻找新的和现有的方法来优化产出,同时最大限度地降低成本。即使人工智能驱动的工具在80%的情况下解决了一个问题——这是根据运行该流程的实体的说法——剩下的更大的问题是,当AI驱动的CX“解决方案”(我故意在引号中使用这个词)不成功时,会发生什么,或者更糟糕的是,提供不准确的信息造成伤害时会发生什么?
在法律界,这些错误最为明显,律师甚至法官都被发现依赖人工智能工具来完成工作并指导决策。这些案件的后果可能非常严重,并可能导致彻底的误判。并不是说,如果不依赖人工智能工具,错误就不会发生,因为它们确实会发生。但当导致决策的研究从一开始就有错误时,风险要大得多。
纽约州最高法院法官John Licata阁下表示,“越来越多的情况是,(向法院)提交的文件将受益于生成式人工智能。”这可能会使提交的文件更好,但向法院提交的文件也可能基于人工智能幻觉,律师依赖人工智能工具进行研究,而研究产生了不恰当或不真实的结果。Licata继续说道,“律师们陷入困境的不是提供理论基础和理论,而是研究。”
在法律背景下,人工智能工具最适合使用的地方是法官和律师使用搜索工具来浏览任何信息,并用它来找到一个起点。这是一个很好的合成工具。然后,他们撰写动议文件和/或决定,但前提是要核实他们所掌握的信息既有用又真实。这对我来说是有道理的。但除非经过签署文件的人的审查,否则依靠人工智能工具撰写简报或意见是非常危险的。”
最后一点,也是最近法院判决中出现的一点,通常高级律师和/或合伙人会指派下属撰写文件和宣誓书。当合伙人或指定的律师在提交给法院的文件上签字时,谁引用了这些案件,谁做了研究,这无关紧要。也就是说,如果一个拼命想在时间或其他限制下做好工作的下属使用了一种产生幻觉的人工智能工具,那么提交给法庭的文书上的律师就是罪魁祸首。
这与企业或政府环境没有什么不同。在文件上签名的人,无论是为法院、市政还是慈善实体,都应该非常确定信息已经过验证——不仅是今天的真实情况,而且随着情况和流程的发展,信息仍然是适当的。
关键是要谨慎。避免使用人工智能工具会弄巧成拙。谨慎使用并持续监督和验证是最安全的方法。依赖不良产出,无论这些产出是如何产生的,总是非常危险的。
立即咨询