在对其使用政策的一次未公开的更新中,OpenAI为其技术的军事应用打开了大门。虽然该政策之前禁止将其产品用于"军事和战争"目的,但现在这种措辞已经消失,OpenAI也没有否认它现在对军事用途开放。
J#$U<`j*G L?h?LZnq The Intercept最先注意到了这一变化,它似乎是在1月10日上线的。
fxd+0R;f Z5vdH5?!r 在科技领域,随着产品的发展和变化,政策措辞也会经常发生未经宣布的变化,OpenAI显然也不例外。事实上,该公司最近宣布,其用户可定制的GPT将与含糊其辞的货币化政策一起公开推出,这很可能导致了一些必要的变化。
F}}!e.>c e\V
-L_ 但是,无军事化政策的改变很难说是这一特定新产品的结果。也不能像OpenAI就此次更新发表的声明那样,声称将"军事和战争"排除在外只是为了"更清晰"或"更易读"。这是一项实质性的、相应的政策变更,而不是对同一政策的重申。
v[Q)L!J1 6M
>@DRZ'| 你可以在这里阅读当前的使用政策,也可以在这里阅读旧版政策。以下是相关部分的截图:
VL*KBJ X)KCk2Ax 政策变更前
EX8+3>) @5^&&4>N 政策变更后
yJI~{VmU7 4k225~GQ:C 很明显,整个内容都被改写了,不过是否更易读更多取决于个人喜好,以列表的形式明确列出不允许的做法,要比换成更笼统的指导原则更具可读性。但OpenAI的政策制定者们显然不这么认为,如果这给了他们更多的自由度,让他们可以对迄今为止完全不允许的做法做出有利或不利的解释,那只是一个令人愉快的副作用。
AXlVH%' inaO{ny y 尽管正如OpenAI代表尼科-费利克斯(Niko Felix)所解释的那样,政策文本仍然全面禁止开发和使用武器,但你可以看到,它最初是与"军事和战争"分开列出的。毕竟,军方不只是制造武器,武器也是由军方之外的其他人制造的。
S"&Gutu3o D&):2F^9. 而正是在这些类别不重叠的地方,猜测OpenAI正在寻找新的商机。国防机构所做的一切并非完全与战争有关;任何学者、工程师或政治家都知道,军方深入参与了各种基础研究、投资、小企业基金和基础设施支持。
(I~ bA)nWWSg= OpenAI的GPT平台可以为军队工程师提供极大的帮助,比如说,他们可以总结一个地区水利基础设施数十年的文献资料。如何界定和处理与政府和军方资金的关系,确实是许多公司面临的难题。Google的"Project Maven"项目就走得太远了,不过似乎很少有人对价值数十亿美元的JEDI云合同感到困扰。接受空军研究实验室资助的学术研究人员使用GPT-4也许没问题,但美国空军研究实验室内部从事同一项目的研究人员就不行了。那么,界限在哪里?
e{E\YEc
TLsF c^X 尽管如此,OpenAI将"军事和战争"从禁止用途中完全删除,表明该公司至少对服务军事客户持开放态度。我要求该公司证实或否认这一点,并警告他们新政策的措辞很明确,如果不否认,就会被理解为证实。
$9X+dvu*