查看原文
其他

在OpenAI做法总是一种什么样的体验?

智合 智合
2024-08-26

作者 | 智合研究院 李亦儒

来源 | 智合

OpenAI的法律总顾问名叫Che Chang,亚裔,当770名员工中的702名一起写信威胁董事会,如果不让山姆·奥特曼回来,他们将辞职加入微软时,Che Chang的名字排在第九位。

联名信中,Che Chang的名字排在第九,第十二位是一开始将奥特曼投出去的董事会成员Ilya。


Che Chang博士毕业于美国西北大学,2021 年加入 OpenAI。加入OpenAI前他在亚马逊任职,也加入过硅谷其它创业公司。

作为这家因为ChatGPT而风头无两的公司的法务部领头人,Che Chang做了许多与众不同的法律工作。

在刚刚结束的OpenAI内斗中,Che Chang必然是支持山姆·奥特曼的那一方,按照他的说法,他的理念跟奥特曼相合,从被奥特曼面试然后决定加入时,就决定追随他了。

在了解他的理念与他法务团队的工作之前,我们可以先来看看他们是如何利用ChatGPT工作的。


ChatGPT的法律团队如何使用ChatGPT?


1

解释法律术语。

Che Chang认为ChatGPT非常擅长从大量数据和信息中提取关键点并整合成简洁、易懂的形式,“我的法律团队使用它来处理我们想要公开发布或谈论的事情,并给ChatGPT下达‘让这更容易理解’、‘不要使用法律术语’这样的指令。这种方式非常有用,也很受欢迎。”


2

OpenAI团队的律师会使用一个市场审查系统,喂给它市场资料,并给它一系列能说什么和不能说什么的指令。(OpenAI的官网有很多公司法律与道德价值观的内容,也许正来自于此。)


3

将数百页的听证会文件交给ChatGPT处理,得到核心人物、关键信息——Che Chang政策团队(policy team)的同事认为ChatGPT做的比任何咨询公司都做得好。


4

在OpenAI内部,ChatGPT最受欢迎的用法,就是做会议纪要:记录会议、总结笔记、归纳项目和整理后续行动。



“我记得当我们第一次测试ChatGPT-4时,团队里就有人问我,我们能在法律案件里用它吗?那时候我想的是,当然不可以!它在20%的情况下都是错的,律师不可能十次里错两次!”  Che Chang在伯克利法学院做分享时谈到,他的想法后来改变了,因为一些合作伙伴与公司进一步开发了ChatGPT,通过让它联系上下文、访问正确的数据库等方式

比如一家名为Lexion的初创公司,就通过与OpenAI合作,为客户公司提供简化法律、销售和供应商合同的服务。

但是OpenAI此次政变也让这类法律科技公司警惕,内斗还没落幕时,Lexion的老板就已经开始寻求OpenAI竞争对手Anthropic的替代服务来抵御OpenAI不稳定的风险了。

该老板表示,OpenAI的政变是个在一夜之间摧毁自己声誉和大量价值的故事。他本来十分认可OpenAI的技术,认为其比其它公司的大语言模型都要先进。

作为OpenAI的法律高管,Che Chang是一个非常好的公司价值观代言人,除了不厌其烦强调公司使命与法律、道德合规,Che Chang还试图纠正大众对AI的认知,比如他不止一次吐槽“生成式人工智能”这个表达,他认为这是一个很糟糕的营销术语、一个噱头、一个误称,因为它会误导人们认为这项技术的重点是为你写一篇文章,或生成一些图片。

人工智能为法律行业从业者带来焦虑,Che Chang认为刚毕业的法学生或刚刚工作一年的律师会面临就业焦虑,但律所管理者思考的是,如何培训下一代的合伙人,以及当客户听到MIT的研究说使用ChatGPT可以将效率提高40%,而要求律所降低40%费用的时候,律所管理者该如何转换工时收费系统。

“我们在全世界范围内,免费让大家合法使用ChatGPT这件事,其实并不简单,它给我和我的团队增加了很多工作量。但我能感觉到我们做的这件事满足了很多被压抑的需求,所以我们会继续在尽量更广的范围,免费去推广它。” Che Chang如此公开表示,并说自己对未来能实现4天工作制很乐观

ChatGPT为Che Chang的法律团队省下了做重复性枯燥工作的时间,也为其带来大量合规工作。

包括美国联邦贸易委员会的机构不断对此类工具提出担忧,ChatGPT甚至让两名律师犯下错误,导致了5000美元的罚款。那两名纽约的诉讼律师用ChatGPT撰写案情摘要,但ChatGPT捏造了部分案例。



特殊公司结构下的特殊法律工作


“你需要一个律师。”这是OpenAI创始人山姆·奥特曼在2023年5月的听证会上被给予的忠告。因为他说,自己没有任何股份,工资也就是刚刚够买健康保险。

这源于OpenAI公司特殊的结构设计与“使命”:

1

一个非盈利组织,嵌套一个设置利润上线的公司。


2

这样设置的目的,是要为全人类负责。


3

如此设置的后果,导致了与公司业务无关的人来决定公司大事,而奥特曼没有股份与董事会席位。


4

这样设置的商业逻辑,是公司运营很烧钱,需要融资,但是OpenAI的理想比赚钱崇高。


如上四点,导致了前两周的公司政变大戏。5月份奥特曼刚刚表示自己不需要律师,也不需要权力,说“董事会可以随时开除我”的时候,他还没有意识到一语成谶就发生在半年之后:OpenAI灵魂人物奥特曼被董事会清出,引发投资方微软以及几乎全公司的激烈抗议。在压力下,董事会重组,奥特曼火速回归。

在这个怪异(奥特曼语)的组织结构下,Che Chang 也做了一些特殊的法务工作,他在所有投资者文件的第一页上做的风险提示:“你可能会失去所有的钱。”

作为OpenAI的法律总顾问,Che Chang维护的不是投资者利益,不是公司利益,只因为该公司法律工作的目标,也是为写进公司章程的公司使命服务:OpenAI的法定责任,就是对全人类负责。


Che Chang参加伯克利法学院活动的视频截图


Che Chang说:“OpenAI的目标不是要做全世界最好的人工智能产品,而是要让人工智能惠及到每一个人,帮助每一个人。” 在OpenAI作为一家非营利机构的时候,非营利这一点将它对AI的目标与其它公司区分开来。

但看似道德正确的工作目标背后,隐藏着无数风险,尤其是当OpenAI顺利商业化,估值达到900亿美元,跟科技巨头们一起享受了前所未有的全球瞩目位置。

共益企业的问题与法律责任,ChatGPT在全世界各个地区的大量法律约束、监管要求,都是OpenAI及其法律团队正在探索但还未有结论的议题。所有在普通公司较为流程化的法律工作,因为没有前车之鉴,在Che Chang的团队都显得较为特殊,并产生一种市场效应。



监管互动


“如果你想要一部可以涵盖AI行为的法律,那你就是在要一部可以涵盖任何可以被机器模仿的人类行为的法律——我们没有这样一部法律,这实际上不是一部法律,而是我们整个的法律系统。”Che Chang说道。

欧洲、英美,各个国家地区对于人工智能的监管都在探索中日益严厉,Che Chang表示支持,因为他认为,AI,这不是一个随便谁都知道它是什么的东西,“我听说过的对AI最好的定义,是任何令人害怕的事物都可以被称为人工智能,直到它不再令人害怕”

Che Chang甚至是不错的政府公关,他跟很多监管部门打交道,当其它科技公司与监管部分游说、对抗,一边抵抗监管压力一边在激烈竞争中为自己的技术提速时,Che Chang则表现出一种站在对方角度思考的姿态。他说:“制订人工智能的监管规则是很难的,你要对所有可能和不可能发生的人类和机器行为的情况排列组合——这也是欧洲监管现在发现的问题,他们开始意识到,我们面临的是一种十分宽泛情况,涉及到很多情况,我们需要将它缩窄到一定的范围内。”

Che Chang与多地监管机构对话,并称OpenAI与政府有共识与一致目标:确保人类始终站在科技的前沿,而不是让科技凌驾于人类之上。

除此之外,OpenAI还在做自我监管(self-governance)。他们做大量的测试、报告,防止人工智能工具被错误使用,Che Chang也与头部科技企业一起组织行业论坛。

“我们只是一家公司,没有能力把控大的未来。我们需要监管方来帮助我们,帮助我们确保我们会对未来社会系统产生什么影响——这不是什么愤世嫉俗的,打压创业公司,抑制创新的伎俩,因为这不是一家小公司在做一些有趣的事,当这个系统变得越来越大, 越来越有权力,政府就得知道正在发生的是什么。政府得是那个来告诉我们,什么是应该做的,什么是不应该做的人。”Che Chang如此呼吁更积极的政府监管。

但OpenAI极富戏剧性的内斗事件让人们开始质疑该公司的自作多情程度。

OpenAI的董事会将自己打造成某种理想国,然后很快溃散,关于其讳莫如深的Q Star——一种可能会颠覆人类社会的新技术,马斯克提出:“考虑到先进人工智能的风险和力量,公众应该了解董事会为什么认为他们必须采取如此激烈的行动。”

对于此问题最好的解答,也许就是OpenAI开诚布公,告诉大家,那个怪物到底是什么。


注:本文素材来自文中人物的公开演讲、公司官网以及网络媒体;第一张配图源自公开联名信。


责编 / 吴梦奇Scott
编辑 / 李媛媛Yoyo分类 / 原创
继续滑动看下一个
智合
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存