OpenAI上演宮鬥劇 人類不可不知的內幕

▲馬斯克認為,人類的確應該對AI感到擔心,AI是人類文明所面對過的最大挑戰。Adobe Stock
第252期
程帆、楊天資

有「ChatGPT之父」稱號的OpenAI科技企業執行長奧特曼(Sam Altman)2023年11月17日被無預警趕出家門後,引發軒然大波,5天後卻又在微軟與逾90%員工聲勢浩大的施壓談判下,讓他回鍋續任執行長。如同宮鬥劇一般的情節,除了讓人嘆為觀止,同時爆出一項可能「威脅全人類」的人工智慧(AI)發展,是董事會決定開除奧特曼的重要原因。

 

OpenAI創辦人兼執行長奧特曼2023年11月17日被無預警趕出家門後,5天後卻又回鍋續任執行長。Getty Images

▲OpenAI創辦人兼執行長奧特曼2023年11月17日被無預警趕出家門後,5天後卻又回鍋續任執行長。Getty Images

 

2023年11月17日,OpenAI董事會突然宣布,奧特曼將離開公司,但未說明具體原因。不久,另一名OpenAI聯合創始人葛列格.布羅克曼(Greg Brockman)也隨即辭職。原本傳出奧特曼將加盟OpenAI主要投資方微軟與布羅克曼一起領導新的高級AI研究團隊。11月20日,OpenAI有700多名員工發聯署信,要求辭職,他們質疑董事會的能力,指責其破壞公司運作,並要求重新任用奧特曼。

OpenAI聲明,奧特曼被開除主因與董事會的溝通過程「不夠坦誠」,阻礙了董事會履行職責、捍衛該公司開發產品造福人類的使命,「不再相信他能繼續領導公司」。

因神祕Q*項目遭解職

OpenAI人事風波最終雖以奧特曼回歸而告一段落,然而,另一個將威脅人類、代號為「Q*」(Q-Star)的神祕項目卻被拋了出來,人們對這個強大的新AI模型有許多擔憂。在奧特曼被解職前4天,一群OpenAI研究員致函董事會,稱公司最新的AI突破能力之強,可能「威脅全人類」,但公司尚未具備足夠的安全保障能將這種先進模式「商業化」,進而成為董事會決定開除奧特曼的重要原因。

「Q*」新模型是一種能夠自行解決基本數學問題的演演算法,包括超過其訓練資料以外的問題,這使得它向備受期待的「通用人工智慧」(Artificial General Intelligence,簡稱AGI,使AI能夠執行人腦可完成的任何智力任務)或「超智慧」(Superintelligence)邁進了一大步。換句話說,它可能有了人類或超越人類級別的數學和高階邏輯推理能力,並能完成一些人類的中高端腦力工作,這是GPT4語言模型等不具備或不擅長的東西。

總體來講,Q*展示了類似人的高階推理能力。例如它將可以像人類一樣透過邏輯和推理來開拓出新領域、得到新知識。有人也稱之為「第四次」知識界限突破。

這將對人類構成四個嚴重的潛在威脅,分別是:一、可進行高階邏輯推理與對抽象概念的理解;二、可整合並掌握深度學習與程式設計規則;三、具備發展新想法的能力;四、帶來意外後果與遭人誤用。

奧特曼被炒魷魚,暗示了未來AI業界將出現的爭論。AI的發展與安全的矛盾正如一些科學研究,如基因改造的禁忌一樣,今後也會被設置道德界限。

「造福人類」是OpenAI初衷

對傳統創投投資人來說,這個案例的不同尋常之處在於OpenAI是由非營利母公司OpenAI Nonprofit掌控,在2015年成立時是非營利研究機構,至2019年才成立一家有限營利的子公司,成立初衷是「造福人類」,而不是為「OpenAI投資人」牟利。OpenAI聲稱這是一種創新安排,投資者的回報仍受到限制,目的是讓公司保留非營利組織的使命,公司賦予了董事會管理有限利潤實體的權力。奧特曼身為公司領導者,並不直接持有OpenAI任何股份,而董事會有權投票直接開除他。

牟利與發展過激引發爭議

據知情人士說法,奧特曼與董事會存在著廣泛的意見分歧,特別是與公司共同創辦人兼首席科學家蘇茨克維(Ilya Sutskever)之間的爭論,包括AI的安全、技術的開發速度,與公司商業化上的意見產生分歧。

充滿雄心壯志的奧特曼一直指望從中東主權財富基金募得數百億美元,用來創建一家AI晶片新創公司,好跟輝達(Nvidia)生產的處理器競爭。奧特曼也在追求軟銀集團董事長孫正義對一家新公司投資數十億美元,要跟蘋果公司前設計師艾夫(Jony Ive)合作,打造以AI為導向的硬體。然而,奧特曼以OpenAI的名義募資新創,但這些新公司卻沒有跟OpenAI共用同樣的治理理念,可能讓蘇茨克維和董事會盟友覺得反感。

OpenAI董事會對於安全上的糾紛,呼應了該公司對於負責任開發強大AI工具而存在已久的內部裂痕。一些安全倡導者指出,OpenAI和其他公司發展AI的速度過快,忽視了提倡謹慎行事的聲音。自OpenAI草創以來,這些問題一直困擾著他們,安全性與商業化的類似分歧,不只是億萬富豪、特斯拉創始人馬斯克(Elon Musk)2018年與OpenAI決裂的原因,也導致一群員工在2020年出走並創立競爭對手Anthropic,他們認為奧特曼在開展AI研究時可能過於激進。

研究項目恐讓AI滅絕人類

OpenAI董事會成員中最少有兩個人──麥考利(Tasha McCauley)和托納(Helen Toner)與「有效利他主義」(Effective Altruism)運動有關聯,這是一個倫理運動,成員們推動了對AI的安全研究,認為失控的強大AI終有一天會導致人類滅絕。從英國著名理論物理學家霍金(Stephen Hawking)到馬斯克等世界頂尖人工智慧(AI)專家,都曾表示過對於AI可能帶給人類生存威脅的疑慮。

已經去世的霍金於2015年8月在美國Reddit網站首次提出對AI的「威脅論」,他確信,「優異的AI絕對會實現它的目標,因此當人類與它不同道時,絕對有間接或直接剷除人類的可能。」後來他又不斷警告:「人工智慧系統會自行啟動,並以前所未有的速度不斷重新設計、自我改良。」

OpenAI創辦人,後因公司逐漸脫離非營利初衷,憤而退出的馬斯克曾經直言,當他意識到AI的危險,看到谷歌掌握了AI獨角獸企業(Unicorn),但似乎不太重視安全性後,便決定與奧特曼創立非營利的OpenAI與谷歌抗衡。但他最終因OpenAI的營利導向違背了初衷而退出。他質疑,微軟掌控OpenAI的程度可能比想像中來得深,若OpenAI真能打造出超級智慧(Super Intelligence),又該如何管控?

馬斯克早在2017年7月就表達:「我接觸過最先進的人工智慧,我認為人類的確應該對它感到擔心。」他還說:「這是人類文明所面對過的最大挑戰。」AI的發展似乎不受人類控制,他強調人工智慧的潛在危險,可能比核武更加可怕。

你可能會有興趣的文章

一輩子可以倚賴的
重讀這本讓我想一探澳洲大陸,並在人煙稀少的西澳,遇到一輩子可以倚賴的真理──《曠野的聲音》此刻心中與作者的感覺更近了。…
西方領袖冷落北京奧運
專制的國家,像是得了政治癲癇症,時不時就發作一陣子。最近中國為奧運會舉國發狂,就是典型一例。因奧運火炬在巴黎遭人權組織抗議杯葛,…
美國9項職業 就業機會漸流失
未來10年,美國一些職業的就業機會將越來越少。如果你家裡有準備上大學的孩子,一定要注意這些專業領域的發展趨勢。   1. 總管:…
流感病毒會席捲多少真金白銀?
世衛組織6月11日將A型H1N1流感疫情警戒級別上調至最高的6級,這意味著這種疫病將在世界範圍內蔓延。如果瘟疫颶風發威,…
以貌取勝拿高薪 管不管用?
愛美是人的天性。美麗的容顏不僅是帶給自己好心情,旁人看來也賞心悅目,所以有不少人在交友或擇偶上,坦承自己是「外貌協會」成員。   有趣的是…
中國人口紅利消失 地方搶人大戰開始
世界上經濟成長高的地區,隨著生活水準提高,一般而言人口成長會慢下來,歐、美、日等國莫不如此,但這一點在中國似乎並不成立。…
中國「穹頂之下」 天霧霾人間更霧霾
大陸央視前主播柴靜2月28日在網路上發布有關霧霾的紀錄片《穹頂之下》,多家中共官媒網站將該紀錄片放至首頁,人民網還刊出柴靜專訪,…
kobo、Pubu、Hyread 搶占電子閱讀兵家之地
不像買實體書「一次解決」閱讀需求,想看電子書,除了「軟體」數位內容,還得藉助「硬體」電子書閱讀器方能竟功。愛書人該如何選擇適合的閱讀介面…