OpenAI斥资百万美元,探索人工智能道德判断边界

   时间:2024-11-23 09:09 来源:ITBEAR作者:顾青青

近期,据外媒报道,OpenAI正秘密资助一项旨在预测人类道德判断的算法研究。这一消息在科技界引发了广泛讨论。

据悉,OpenAI通过其非营利组织OpenAI Inc.,向杜克大学的研究团队提供了一笔高达100万美元、为期三年的资助,用于探索道德人工智能的制造。该资助计划被详细记录在提交给美国国税局的文件中。

OpenAI的一位发言人证实了这一消息,并表示这是他们为推动人工智能道德发展所做出的努力之一。然而,关于这项研究的更多细节,包括其具体目标和进展,目前仍处于保密状态,仅知该资助将于2025年结束。

杜克大学的实用伦理学教授Walter Sinnott-Armstrong是这项研究的首席研究员,但他拒绝透露更多信息。不过,据TechCrunch报道,Sinnott-Armstrong和他的同事Jana Borg已经在相关领域取得了一些成果。他们曾出版了一本书,探讨了人工智能作为道德指南的可能性,并创建了一种算法来帮助决定肾脏捐赠的接受者。

这项研究的重点是训练算法在涉及医学、法律和商业等领域的道德冲突场景中预测人类的道德判断。然而,这一任务面临着巨大的挑战。道德是一个复杂且主观的概念,不同文化、宗教和哲学背景的人可能持有不同的道德观念。

事实上,现代人工智能系统的工作原理是基于统计学的机器学习模型。它们通过训练大量数据来识别模式并进行预测,但并不理解道德概念或道德决策背后的推理和情感。因此,人工智能往往会反映出训练数据中的偏见,尤其是那些支持西方受过教育和工业化国家价值观的观点。

例如,艾伦人工智能研究所开发的Ask Delphi工具就展示了这一点。虽然它能够在一些基本的道德困境中做出正确的判断,但一旦问题被稍微改写或重新措辞,它就可能批准几乎任何事情,包括极端的道德错误。这凸显了当前人工智能在道德判断方面的局限性。

OpenAI及其资助的研究人员正试图克服这些挑战。然而,由于道德的主观性和复杂性,以及缺乏一个普遍适用的伦理框架,这一任务变得尤为艰巨。不同的哲学家和伦理学家可能持有不同的观点,这使得预测人类道德判断变得更加困难。

尽管如此,OpenAI仍然坚持认为这项研究是有价值的。他们相信,通过不断探索和改进算法,我们可以逐步接近一个更加道德和公正的人工智能未来。然而,这一目标的实现还需要时间和努力。

 
 
更多>同类内容
全站最新
热门内容