我被ChatGPT的「幻覺」「中傷」了?AI誹謗戰開打!
你有沒有在ChatGPT輸入過自己或朋友的名字,問問ChatGPT這個人是誰?
當ChatGPT開始流行後,我周圍不少的朋友都曾經這樣做過。有趣的是,許多朋友發現ChatGPT給出來的描述跟本人相差甚遠,有的朋友被說是「十大傑出青年」或「XX部長」,有的則是從上班族搖身一變成為「超級巨星」或「大公司老闆」,豐功偉業的程度彷彿是三代造橋鋪路才會有的善果。對ChatGPT這些與實際狀況「有所出入」的答覆,多數朋友只覺得莞薾,不少還會將查詢結果放到臉書上分享一笑。
不過,如果ChatGPT是說你或朋友是性騷慣犯呢?說你曾經殺人坐牢或是貪污五億呢?或許聖人未達、但絕對良民以上的你,會不會憤怒地想要OpenAI還你一個公道?
根據媒體報導,今年(2023)6月,美國喬治亞州一位廣播節目主持人在喬治州州法院對OpenAI提出誹謗訴訟,理由是ChatGPT宣稱他從一個擁槍權利團體挪用金錢,不過他說他從來沒有替該團體工作,遑論挪用該團體的金錢。
喬治亞州的廣播主持人不是唯一一個被ChatGPT「中傷」的人。稍早於他之前,澳洲就有市長寄發律師信給OpenAI,理由是ChatGPT說他曾因為支付賄賂而被判刑,但事實是他從未被指控任何犯罪,相反地,他還是賄賂醜聞的吹哨者。此外,ChatGPT也曾引用了一篇從未真正存在過的報導,指稱美國一名法學教授曾經在前往阿拉斯加的校外教學中試圖觸摸學生,但該位法學教授從未被指控性騷擾,而且報導中的校名也不對(雖然校名裡都有「喬治」這個字)。
在ChatGPT石破天驚的問世前,其實人類社會已經在討論人工智慧可能造成什麼社會問題。不過,ChatGPT的問世,彷彿是要趕銀行下午3點半的響鐘,找出方法來妥善解決人工智慧所帶來的社會問題,像是數位隱私、數位安全、假消息、演算法歧視、人工智慧倫理等等,變得必要與迫切。而在這些議題中,一個跟假消息相關、在國外也逐漸開始發燒的,便是人工智慧的誹謗責任。
OpenAI已經公開承認,ChatGPT有時可能會產生「幻覺」(hallucination)而製造出不實的資訊,而且也已經在ChatGPT首頁置放相關警告來提醒使用者。儘管如此,不管是名人或是小老百姓,當ChatGPT有不實言論而傷害了自己的名譽時,恐怕沒有一個人能心平氣和地接受。
只是很可惜的是,當個人名譽被ChatGPT不實言論傷害,想要靠現行法律制度獲得救濟,恐怕仍有許多挑戰。首先,雖然法律上的要件可能因為被「中傷」的人是不是公眾人物而有所不同,但要成立誹謗責任,至少通常會要求行為人有「故意」或「過失」的存在。問題來了,ChatGPT有像人類一樣有「故意」或「過失」的能力嗎?恐怕直觀來說,任何一般社會大眾都會直覺地搖頭。(如果有,你會怕,雖然人工智慧可能早晚都會走到這一步)。
你說,那麼製造ChatGPT的是OpenAI,OpenAI的工程師、主管、負責人…,這些人總該有「故意」或「過失」的能力吧?不過,除非能找得到這些人刻意輸入不實言論資訊或指示ChatGPT做特定回覆的證據,否則ChatGPT回覆內容都是自動生成的,OpenAI的人不會知道ChatGPT什麼時候針對什麼人會生成出什麼不實的言論,這樣能說他們有「故意」或「過失」嗎?仔細一想,好像也不是沒有可議之處。要成功說服法官判定OpenAI負誹謗責任,在法庭上就必須先要針對這些爭點都建立起清楚的論述。而且,我們還沒談到ChatGPT的「誹謗」言論究竟造成多大的名譽傷害:當ChatGPT還是維持單一使用者問答互動的型態時,究竟有多少人看到所謂的「誹謗」言論?怎麼證明?
在美國,法界人士還會討論OpenAI能不能主張自己像是臉書、Twitter或Google這一類的社群平台或互動式電腦服務商。在美國,臉書這一類的平台或服務商受到美國傳播端正法第230條的保護,他們不會因爲提供平台服務就被認為是「資訊內容提供者」或者「內容生成者」,因此不需要為平台上全部的言論負責。如果社群平台或互動式電腦服務商需要為平台上所有的言論負責,那麽恐怕今天的網路世界根本不會出現,因此許多人都說,美國傳播端正法第230條包含了科技世界最重要的26個英文字,是這一條法律創造了今日的網路世界。不過,ChatGPT能不能主張自己只是個社群平台或雲端服務平台,可以受美國傳播端正法第230條保護,恐怕美國法律圈內就會有正反不同的意見,而不論適不適用,顯然都有一部分的社會大眾會受到不利影響。我們當然理解,為了支持人工智慧的發展,應該要給ChatGPT這一類的聊天機器人更大的空間,現階段實在不宜課以過高的責任來遏制它的發展。不過,既然ChatGPT的不實言論是ChatGPT自動生成或合成的內容,這過程已經有「生成」或「製作」內容的概念或實質,如果OpenAI想主張ChatGPT只是像是臉書這類的網路平台,完全不用負言論責任,恐怕不少社會大眾無法接受,被「中傷」的人應該也會想翻桌。
無論如何,這場人工智慧誹謗責任的戰爭顯然才剛開始開打,當我們享受人工智慧帶來生產力提升的同時,潘多拉之盒(或英文裡常說的「一個蟲罐」(a can of worms))也同時被打開,誹謗責任只是其中一個。
每一次的科技發展,都為人類社會帶來許多的挑戰,政策跟法律制度通常是走在科技演變的腳步之後,逐步地更新。只是在AI的iPhone時刻來臨後,這一次人類社會究竟有多少時間來處理開箱啟罐的後果,誰又該付出多少代價?
許杏宜,資深商務律師,關心新興科技法律議題,期許律師工作能增加社會財富、創造人類幸福。