📻國立教育廣播電臺【新聞真假掰】AI孫燕姿違法嗎?「可信任的人工智慧」歐盟如何立法?五秒鐘原則的工作最容易被取代?(逐字稿大公開)
📻國立教育廣播電臺【新聞真假掰】AI孫燕姿違法嗎?「可信任的人工智慧」歐盟如何立法?五秒鐘原則的工作最容易被取代?(逐字稿大公開)
📻國立教育廣播電臺【新聞真假掰】節目資訊
播出時間:每周日 17:05-18:00
收聽方式:國立教育廣播電臺 官網 60 天隨選收聽
📌邀訪來賓
葉奇鑫 達文西個資暨高科技法律事務所所長
📌完整訪談內容Podcast
📌節目介紹
ChatGPT在2022年底上線後,短短半年時間帶給世界全面性衝擊,除了生活必須重新賦能,快速變動的時代,現代人應該具備哪些科技資訊與媒體素養呢?
達文西個資暨科技法律事務所所長葉奇鑫律師分享,AI的無所不能已讓法律圈頭痛不已,面對全新科技,法律要怎麼保障所有人?權利又該怎麼歸屬?進步社會與個人隱私的界線又該如何拿捏?
從「AI孫燕姿」,我們看到當代法律還無法規範新科技帶來的衝擊,但也凸顯出AI可能對於人權造成的危害、AI大爆發可能助長犯罪行爲、現有關於AI的法規又是遵循怎樣的框架、未來又該如何制定相關法規?本集節目邀請葉奇鑫律師,一一拆解AI時代下的法律問題。請收聽「新聞真假掰 」,假訊息Bye Bye。
葉奇鑫(達文西個資暨高科技法律事務所所長,以下簡稱「葉」)
黃兆徽(台灣事實查核教育基金會董事/台大新聞所兼任助理教授,以下簡稱「黃」)
📅節目預告
2023/07/30 周日 17:05-18:00 全台皆可收聽(查閱各地收聽頻率)
好用的ChatGPT需要「人設」?上億人都是ChatGPT的免費家教?專訪尹相志(數據科學家)
專訪尹相志 數據科學家
🌐最新精彩內容
AI孫燕姿違法嗎?「可信任的人工智慧」歐盟如何立法?五秒鐘原則的工作最容易被取代?
------------------------------------------------------------------------------------------------------------------------
葉:據我瞭解,就是說像這個很多公司,其實他們的真正的AI的演算法,其實他們也不想申請專利。
黃:因為專利必須要公開你的……
葉:對,你講到重點,然後反而提早曝光了它的秘密武器。
黃:哈囉!大家好,我是兆徽,歡迎來到新聞真假掰,今天來到現場要陪伴我們一起提升科技資訊與媒體素養的好朋友是科技法律的專家葉奇鑫律師,葉律師好!
葉:兆徽好,大家好!
黃:葉律師現在是達文西個資暨高科技法律事務所的所長,同時也是電腦稽核協會的理事長,也在東吳大學法律研究所擔任兼任的助理教授,也是國發會個資法的諮詢委員,還有智慧財產局的調解委員,也是司法院的國民法官、個人資料保護委員會的委員喔,那今天特別邀請葉律師來,來跟我們談談這個時代應該要具備的這個科技資訊的素養之外,其實有非常多法律都跟這個科技相關喔,然後有非常多跟人權相關的議題在資訊爆炸的年代,必須我們要有一些思考的,尤其是現在人工智慧大爆發之後,我們會發現原本的法律甚至有一些不太夠用的地方。
葉:非常不夠用。
黃:是。那國際間怎麼看待這些問題的一些立法的趨勢?葉律師都有非常熟悉的理解,所以也特別會來跟我們來一起討論,我們先來聊聊最近很紅的這個AI孫燕姿的就是有中國大陸的網站用一些歌手的聲音生成,然後去唱比如說AI版的孫燕姿去唱王菲的歌曲,甚至去唱周杰倫的歌曲,那孫燕姿當然有發表聲明也頗感無奈,但是覺得這是一個時代的趨勢,好像也不能怎麼辦,從AI孫燕姿來看這個法律問題,到底假設是孫燕姿,她可以怎麼辦?
葉:是。其實這個案子大家的焦點都放在孫燕姿身上,其實呢,受害者不只她一個人,像這個唱片公司,其實它會有這個錄音著作權,那這個錄音著作權也被改作跟重製了。
黃:是。
葉:另外每一首歌都有詞曲的著作權人,他們也是被這個使用了,但是並沒有授權,但是他們的……
黃:所以唱片公司跟這個詞曲創作人的權利是可以靠現有的智慧財產權就可以保障了嗎?
葉:對,他們的部分比較簡單,只要他們願意告,就用現在著作權法就可以告了,而且還有刑事責任,所以他們的部分比較簡單。
黃:所以網友也不要隨便亂分享。
葉:對,因為你分享就會另外牽涉到這個公開傳輸權的這個問題。
黃:這樣算盜版嗎?
葉:算某一種盜版。
黃:所以在分享這樣盜版覺得好玩,但也有可能有觸法的疑慮,對不對?
葉:其實已經觸法了,沒有疑慮,只是一般不會去抓啦,因為這個LINE(通訊軟體)裡面的分享其實也不太容易抓。
黃:但是有些人在臉書上分享,他就可能……
葉:那公開的分享,那就是給自己有點找麻煩。
黃:是。所以在分享這一類訊息的時候要非常小心,但更大的問題其實是孫燕姿本人,她可不可以主張什麼權利?它是這個聲音的模仿者,但是它當然可能……我在猜想啦,這個創作的人……這個叫創作嗎?改作的這個人可能可以說這不是你的聲音,這只是AI學你的聲音,是AI唱的,那她到底孫燕姿可以有哪些權力可以主張?
葉:是,目前大家比較集中在討論的是可不可以主張民法上的人格權?那但是問題是我們過去法院上承認的這個人格權……
黃:包含哪些?
葉:像名譽權、隱私權、肖像權,這也是被認可的,可是聲音是不是人格權?從來沒有人討論到。
黃:是,因為以前沒有想過可以模仿人的聲音到那麼像。
葉:對,那但是因為人格權,這個法院是可以做解釋的,它有個空間可以做解釋,所以這個如果將來有真實的案例的話,那法官我覺得他是有機會就是做一個與時俱進的判決。
黃:是。人格權在法律上是一個什麼樣的概念?請葉律師跟我們的聽眾朋友解釋一下。
葉:是,人格權它是專屬我們一個人的這個特有的權利,那就是你的人格必須要受到尊重,那但是呢,這個人格這個其實它有點抽象,那法律我們是有列舉了一些人格權的內涵,但是我覺得不可能窮盡啦。
黃:法律列舉的包括哪些?
葉:大概就是我剛才有提到的,就像這個最主要其實大家會談的還是以名譽權、隱私權這個為主。
黃:是,名譽、隱私,然後您說肖像權也是嗎?
葉:對,對,肖像權也是。
黃:但聲音其實以前沒有發生過這樣的案例。
葉:對,像這種就是全新的案例,就新時代全新的案例。
黃:是,但是聲音到底是不是一個人很重要的一個辨識的本質?
葉:對。所以也有人就是從您的這個思維角度去看它有沒有違反個資法。
黃:是個人資料。
葉:對,對,對。那反而呢,這個在個資法的判決裡面,法院有承認就是說聲音它是可以識別個人的,所以它應該算一種個資。
黃:是。因為聲音其實是每一個人很獨特的特質,對不對?
葉:對,我們一聽就知道是孫燕姿唱的,結果是AI唱的。
黃:是,聲音在法律上和科技上,其實是可以透過聲紋比對來確認,對不對?
葉:對,這個聲紋比對調查局、刑事局都有這個設備。
黃:葉律師之前是在擔任檢察官,對於這個犯罪偵防非常的熟悉,所以您以前有辦過用聲紋比對來辦案的嗎?
葉:我沒有辦過,但是其他有些社會矚目的案件是有的,就是被錄音,但是這個公眾的名人說那不是他。
黃:要證實這個錄音帶的真假。
葉:對,對,對。
黃:所以會用聲紋比對?
葉:可以去鑑定。
黃:但現在的AI如果用聲紋比對,恐怕有一些方式是可以被偵測不出來。
葉:對。您這個問題是很好的問題,就是說AI的出現,其實對司法機關的偵查,其實也是很大的挑戰,比方說像這個影片有沒有被變造?聲音有沒有被變造?那麼現在國外是有AI的軟體來做鑑識,就是用AI來看是不是AI改的。
黃:對,是,因為人眼已經無法辨識,人的耳朵也沒辦法了。
葉:對,對,對。
黃:但是其實用AI來辨識AI還是有一些問題。
葉:而且很昂貴,非常昂貴。
黃:是,昂貴是一點,然後另外一點是當它在訓練下一個AI的要造假的工具的時候,它就把你的這個辨識系統納入它的AI訓練裡面,所以下一代的假的AI就可以躲過你現有的這個偵測工具。
葉:很有可能。
黃:所以這個偵測工具也必須不斷的升級。
葉:對,對,對。
黃:魔高一尺、道高一丈的軍備競賽,那我們再回來談,所以AI孫燕姿,孫燕姿本人目前在法律上,她有可能可以用個資法來解決?
葉:對,或者用民法。
黃:用民法的人格權來解決。
葉:那我們律師的話就會建議說,那用個資法也不錯,是因為個資法有刑事責任,雖然這個觀念可能不是很應該,就叫做以刑逼民。
黃:先告刑事,然後再來要求民事的損害賠償。
葉:對,對,對。那如果說不想採取這麼激烈的手段,那就是告民事。
黃:對,但是有刑責,這個犯罪人會比較擔心,因為有國家的力量、有檢察官加入一起追溯這樣。
葉:對,會有壓力。
黃:是。所以人格權是一個可能可以未來歌手如果發生類似的狀況,可以主張民法人格權,然後另外一個是個人資料保護法,就是聲音是屬於個人資料的一部分。
葉:對,但是呢,這個用個資法來告,其實也我們應該知道說這是一種常識,會不會成功……
黃:也還沒有發生過這樣的案例。
葉:還沒有案例,不知道。
黃:所以國外也還沒有發生這樣子的訴訟的結果?
葉:對,事實上因為ChatGPT它是去年11、12月才出來嘛。
黃:是。
葉:所以其實到現在大概才半年,然後它就引發了一大堆的問題,所以現在大家其實都才剛剛開始討論AI的相關的法律。
黃:就ChatGPT是生成式AI的一種,那生成式AI現在可以生成聲音,可以生成影像,然後文字,所以它已經可以生成各種東西,我們就活在一個真假莫辨的年代了。
葉:沒有錯。
黃:所以這也是為什麼我們要特別邀請葉奇鑫、葉律師來跟我們談談這個背後我們必須要注意的科技倫理跟法律規範。
葉:是。
黃:是。所以我們來回來談談AI相關的數位人權的問題,AI可能構成哪些人權的危害?
葉:其實很多,像我們剛剛談孫燕姿,其實她也是一個人權被侵害。
黃:對。
葉:假新聞,AI它甚至是會不經意地就造假了,你現在會發現你問ChatGPT一些問題,它回答出來看起來好像是真的,其實它講的是假的。
黃:對,它會一本正經的胡說八道。
葉:對,對,對。那另外就是像我個人有參與,像這個行政院他們現在其實有一個相關法律。
黃:人工智慧的基本法的草案。
葉:那是其中一個,它現在要所有的部會都要提出來有沒有法律必須要因為AI而做修改。
黃:調整。
葉:對,然後現在各部會都在提案,那我也有參與幾個部會的這個提案的研究,比方說這個AI未來如果會淘汰大量的人類勞工,那不就有勞工工作權的問題,工作權就是憲法保障的一個人權嘛。
黃:是。
葉:對。那諸如此類,你會發現這個AI在每一個領域、每個部會幾乎都受影響。
黃:是,是。我們知道一個夠厲害的AI,它必須要有很龐大的資料,然後很優秀的演算法,所以從龐大的資料跟優秀的演算法,這中間就有非常多應該要討論的法律問題了,對不對?
葉:對,講幾個現在比較熱的,比方說像無人車,特斯拉撞到人說它是在自動駕駛的情況之下,那到底是特斯拉該賠?還是車主?
黃:AI要賠?還是誰要賠?
葉:對,還是車主要賠?那還有像這個AI的醫療,那萬一發生醫療過失的時候,是AI公司要賠?還是醫生要賠?
黃:是。
葉:那像AI有沒有著作權?這個是現在也急於在討論的一個問題。
黃:對,是。
葉:那這個先公佈一下答案,目前全世界主流的立法,著作權法都不保護生成式AI生成的著作。
黃:對,但是這個其實也引起很多的反彈,討論之外也很多的反彈,因為當人跟AI協作的時候,你說它沒有人的智慧活動在裡面嗎?其實是有的,比如說去年得到紐約畫畫比賽大獎的這個《太空歌劇院》,對不對?
葉:對,對,對。
黃:大家認為說是不是沒有著作權?可是創作者會反彈啊,對不對?他說他花了八十幾個小時不斷的訓練Midjourney(可根據文字生成圖像的人工智慧程式)才畫成那幅畫,這八十幾個小時難道沒有智慧的活動在裡面嗎?
葉:那但是呢,目前就是大家卡在一個迷思裡面,就是我們的法律在做調整的時候,你要從過去的觀念要轉型到新的觀念,其實要一點時間。
黃:是。
葉:那過去著作權法都認為說,著作權只有人才有,人做出來的才有。
黃:是。
葉:那所以呢,有一個案子叫做Naruto,牠是一隻猩猩、猴子,牠會自拍,那牠自拍的著作呢,這個有沒有著作權?在美國法院後來審判認為是沒有著作權的。
黃:因為是猴子,我們只保護人類,對不對?
葉:對,對,那AI也不是人類,所以這個觀念如果要改,整個就是要再經過很多的討論。
黃:是,但是這個後面啊,有這個設計這個AI的AI公司,它雖然不是人類,可是它是它可能是有一個法人,這個法人其實也是可以成為智慧財產權的主體嘛,對不對?然後再來一個是使用這個AI工具的人,像剛剛畫這個《太空歌劇院》的這個,花了八十幾個小時來用AI工具畫出一張圖,這裡面也有人類的智慧活動在裡面。
葉:沒有錯,所以呢,大概在3、4年前,其實智慧財產局就注意到這個問題。
黃:是。
葉:有特別請我寫了一篇論文,那當時呢,我就假設就是一個排列組合,大概有八種立法的可能,就是你這個著作權可能是下prompt(提示)的這個人所有,或者是背後的法人所有,還是是共有?那共有是怎麼樣的共有?是一人一半?還是說你有人格權,我有財產權?
黃:是。
葉:就是有各種的切法,那甚至還有一個比較聽起來有點……離現在還有點遙遠的,但這不是亂講的,是歐盟議會他們提出來的那個報告,他們建議是可以考慮讓AI來擁有,就AI變成人了,就有點像我們……
黃:AI人格化了。
葉:對,就像我們看《魔鬼終結者》,阿諾他就是一個真的人。
黃:這個立法非常的先進,應該很多人難以接受,對不對?
葉:對。連歐盟執委會都受不了,所以歐盟執委會沒有採,但它是正式地出現在議會提供的這個人工智慧報告。
黃:是,是,它會讓人類覺得被威脅感更強烈。
葉:對,對,對。所以這個立法方式可能有很多種,那目前大家都還在剛開始討論而已。
黃:是,我們待會更深入的來聊聊您的看法,那我們先跟大家簡單地介紹一下說在AI,您剛剛有提到在各個層面,其實有相關的法律問題,包括剛剛提到工作權,無人車的時候,出事誰負責?醫療疏失、AI智慧醫療,那有過失誰負責?AI的著作權怎麼分配?然後還有Deepfake出現了。
葉:Deepfake。
黃:深偽技術喔。
葉:對,對,對。其實孫燕姿也是。
黃:Deepfake的一種。
葉:那另外今年剛剛通過,就是法務部有修刑法,特別多了一個章叫二十八之一章。
黃:是。
葉:那一整章就是為了解決Deepfake,但是它限於就是說,性影像就是性影音。
黃:對,跟性有關的,以前就是會出現很多,比如說這個有名的小玉事件,還有很多就是會把它原本Deepfake是好萊塢電影裡面的技術,後來大家會把它用在比如A片裡面,就換了一個當紅的,或自己喜歡的偶像的臉進去,那這個偶像就會覺得我明明沒有演A片,然後就變成大家性幻想的對象。
葉:是。
黃:會覺得受到侵害。
葉:對,那這一次法務部的修法這個罰的非常重。
黃:我們的刑法。
葉:而且是罰的非常重。
黃:大概的條文是?
葉:大概的條文就是如果說你用這個深偽的技術,那如果是放在性影音上面,那有分營利還是沒有營利,那沒有營利也是5年以下,那如果有營利的話,甚至會到7年有期徒刑,那在刑法裡面,這個刑度如果訂到7年就算是重的罪。
黃:對,所以大家不要覺得好玩,然後就任意地把人家的臉換到色情的、性有關的影片。
葉:對,對,對。
黃:但是目前刑法雖然有發現Deepfake、AI的問題,但是目前還只限定在性有關的?
葉:對,對,對,這個部分對被害人的影響會特別大,所以就是先處理這個部分,那另外呢,也還會有像我們講人權的部分,也還是會有比方說我們這個履歷,那你知道像Google啊,或是像這個美國很多大公司,其實他們每一年收到的履歷是以百萬份在做計算。
黃:是。
葉:所以它事實上它的人資部門,其實沒有辦法每一份履歷都看,那因此他們就是用AI挑。
黃:AI做第一關,對不對?可是就是AI的偏見問題。
葉:對,這是我們叫做AI歧視問題,這個事情已經發生了,就是美國有一家非常有名的人工智慧公司叫Palantir,那Palantir它的最大的客戶是美國國防部跟國土安全部,為什麼呢?因為美國每天的衛星跟無人機拍回來的照片沒辦法用人看,全部是用AI來做識別。
黃:因為那個資料量實在太大。
葉:太大,那這家公司呢,它當然就以AI為傲,所以它挑選員工也是用AI,結果後來被美國勞工部發現說,它的這個AI有裡面條件有設錯,它那個AI只要看到是亞洲人就踢掉,但事實上亞洲人的程式是很厲害的,數學也很厲害的,所以他們辦公室裡面奇怪怎麼亞洲人那麼少,後來才發現他們的AI有錯。
黃:是。
葉:那這件事情呢,那個美國勞動部它就罰了1.7個million US dollars,所以這個應該算。
黃:換算成臺幣大概5000萬。
葉:就這件事情。
黃:就是在這個面試履歷的第一關,還沒有進到面試履歷的第一關,其實……
葉:亞洲人就不見了。
黃:對,這是AI的偏見問題,因為AI它的學習對象是人類,對不對?所以它可能從過往的人類的篩選裡面發現,好像人類比較喜歡非亞洲裔的,然後它就會擴大這個偏見。
葉:對,對,對。所以有時候我們不知道AI它為什麼會有這個想法,這個就是我們現在AI最著名的叫做黑盒子問題。
黃:是。
葉:我們資料餵給它,可是我們不知道它為什麼最後會形成這樣子。
黃:它怎麼歸類?然後怎麼去分辨人類的喜好?
葉:對,對,對。我們其實並不知道。
黃:那這是AI的幾個問題,那自動決策——拒絕權也是一個在被討論的議題。
葉:這個反而歐盟的個資法就直接訂在裡面,所以歐盟個資法很先進,它的意思就是說如果這個是純粹由AI所作出來的決定,人類可以拒絕。
黃:是,就是從頭到尾都是AI幫我們決定的。
葉:對。比方說你去銀行貸款,如果它就是快速貸款,所以它整個就是用AI在做,所以3分鐘就可以決定能不能撥款給你?利率大概是多少?那如果這個決策全部是AI做的,在歐盟你是可以直接拒絕。
黃:拒絕的意思是說?
葉:拒絕就是要求它用人工審核。
黃:等於重新審一次這樣?
葉:對,對,對。
黃:是,是,是。對。所以這個是AI我們已經看到的一些問題,那我們知道剛剛說,AI其實要必須要有龐大的資料加優秀的演算法,其實這個蒐集資料的過程,也就有我們剛剛之前最早提到個資法的問題,對不對?
葉:對,因為我們有很多的個資都在網路上,都被它學起來了,那所以像義大利,它就宣佈就是禁止ChatGPT在義大利使用。
黃:這個也蠻霹靂的手段。
葉:對,然後大家就會想,那它用哪個法律來禁止它呢?結果一看,它用的是個資法,就是說……
黃:用個資法的理由是?
葉:因為原則上你要用別人的資料來做訓練,你應該要經過每個人的同意,大概是這樣子的理由,主要是義大利,我覺得他們就是覺得說有很多人權的問題還沒有辦法釐清,那其實包含像著作權也是有問題啊,那如果說像我的文章你學去了,然後最後寫出跟我這個風格很像的文章。
黃:對,大家現在已經會用ChatGPT做這些事了嘛,對不對?
葉:對,對。
黃:請幫我用一個白先勇的風格。
葉:對,對。
黃:徐志摩的風格、李敖的風格。
葉:兆徽的主持風格。
黃:對,所以當AI有這麼大量的資料,大家都在網路上讓AI可以學習的時候,它其實還蠻容易真的就可以寫出一首徐志摩風格寫的詩,對不對?
葉:對,對。而且呢,我們的這個作品,或者是我們的個人資料,被它學習的時候,其實我們是沒有被notice(通知),我們都不知道。
黃:對,沒有人來問過我們說,我們願不願意?
葉:對,對。所以這個會有人權的問題。
黃:是。不過當然另一面也有人在討論的是說,其實人類學寫作的過程,我們也是參考了非常多人的文章,然後才會寫作。
葉:對。然後我們的大腦其實也是一種AI,是一種類神經網路。
黃:其實AI學我們啦,不是我們學AI,AI現在的後來現在發展的這個deep learning(深度學習)的模式,其實就是仿造人的腦神經元,在創建AI的系統。
葉:對。
黃:所以這裡面這就是個資法的問題,是一個我們必須要討論的,那安全維護措施也是一個要討論的議題。
葉:對。這個其實這個議題它還和你的這個……後面我們也會講的就是倫理這件事情有關係,就是說怎麼樣的AI才叫安全。
黃:是。
葉:那現在大家都說要有透明性,你會發現很多的這個法律,它都開始要求說這個要公佈你的演算的這個大致上的這個邏輯是什麼?可是我們剛才講過AI其實在學習的時候,它為什麼會作出這個決策?其實中間有個黑盒子。
黃:因為現在AI有一種是非監督式學習,它自己會去歸類類似的東西。
葉:對,所以呢,我們說透明,要怎麼透明?那個黑盒子就是因為透明不了,所以你也只能講我們大致上的設計的這個方向是什麼?那像這一類的這個因為法律都還訂不清楚,所以呢,法律在還沒有辦法訂之前,就會先講倫理,就先從倫理開始講,然後等到後面比較有共識的時候,才會慢慢地開始形成法律。
黃:把它落實到法律上這樣子。在這個AI蒐集龐大資料過程中,還有另外一個值得注意的是跨境傳輸的問題?
葉:是,因為我們個資法,特別是像歐盟,還有一些先進國家個資法,其實他們禁止個資跨到別的國家去,如果說你要跨到別的國家去,那你就是要符合一些特定條件,可是我們在訓練AI的時候呢,是用全世界的資料跨全地球,所以呢,這會有這個個資能不能跨境,然後被AI學習的這個問題。
黃:是。因為網路無國界,只要你的資料一上網,很容易就變成人家拿來訓練AI的資料庫,對不對?
葉:對。
黃:是。那其實在龐大的資料量以外,另外我們說它還必須要有優秀的演算法,那這個AI演算法它能不能變成一種專利?也是一個值得討論的。
葉:對,就是AI具不具有可專利性?這個美國專利局也是一下說可以,一下說不行。
黃:不行的理由是什麼?
葉:不行的理由就是覺得說這個如果讓它變成專利,會阻礙人類的進步,然後另外就是說因為軟體專利權本來就比較難申請,那它算是軟體專利權的一種。
黃:是。可是因為投入AI研發必須要大量的資金,對不對?當它沒有辦法變成專利的時候,那這個AI公司要怎麼確保它自己的權益?
葉:對,所以呢,就是也有人就覺得說,其實你不要想那麼多,既然人家投資那麼多,你就應該給人家保護嘛。
黃:是。
葉:對,但是據我瞭解,就是說像這個很多公司,其實他們的真正的AI的演算法,其實他們也不想申請專利。
黃:因為專利必須要公開你的……
葉:對,你講到重點,然後反而提早曝光了它的秘密武器。
黃:對,可是它有一個專利期間是不能公開的,但現在通常各國都是50年嗎?還是多久?
葉:專利比較短,專利10年、20年。
黃:對,所以它可能10年、20年後就必須公開這個技術。
葉:它是先公開,但是你10年、20年後才能用。
黃:所以專利法它是一開始就要……它就要先公開你怎麼這個專利的內容,只是別人不能夠侵犯。
葉:對。因為你要公開,然後別人可能還會說:「你這個哪是專利啊,這是我的專利吧?」還會去給它做異議挑戰。
黃:可是在這個過程,你就必須要先把你怎麼做成那個技術公開出來。
葉:這就是為什麼可口可樂……
黃:到現在不願意去申請專利。
葉:對,對,對。
黃:那另外一個我們在討論就是trust worthy(值得信任的),就是一個值得信任的AI,這個是什麼意思?怎麼樣可以做到值得信任?
葉:因為我們現在發現AI它作出的決定,有的時候我們會擔心會有偏見,那甚至你們應該就是在新聞上有看到,就是GPT-4(生成型預訓練變換模型 4)在測試的時候,發現它會騙人,它會騙人去取得那個密碼。那所以像這個AI到底值不值得信任?大家就會開始有疑慮。
黃:對。因為尤其當它專屬於某一家科技公司的時候。
葉:對,對,對。所以就希望說我們要用AI來輔助我們,可是我們也希望這個AI的整個機制是我們能夠信任的,那包含比方說像剛才您才提到的,就是我交給你的資料,你把它學習了,但是你也沒跟我講,對不對?但是呢,我給你的資料,又幫你AI變得更聰明,甚至你會了解我公司的機密。
黃:是,對,所以我知道很多律師事務所是禁止律師使用ChatGPT的,對不對?
葉:高科技公司律師,凡是公司有機密的東西都……
黃:不宜。
葉:不宜上傳。
黃:因為它可能就是拿來作為它訓練的資料,而且它可能在不小心的時候就透露給別的使用者了。
葉:沒有錯。
黃:所以我們要從這個道德跟社會的面向,都要來發展一個可信任的AI,這是非常重要的。所以我們在一開始……其實現在已經不是一開始了,是我們開始意識到這個問題的嚴重性的這個時候,要趕快建立好一些準則,讓AI可以確保它是往對人類有福祉的方向來前進。
葉:是的,沒錯。
黃:我們就先休息一下,請您幫我們點一首歌。
葉:我想點一首歌,周杰倫的〈等你下課〉。
黃:等你下課?這首歌跟AI有關係?
葉:沒有關係,我只是覺得學生都很想下課,然後我後來自己當老師之後,發現自己也很想下課。
黃:好,我們來聽這首周杰倫的〈等你下課〉。
黃:葉律師剛剛跟我們分享了這個AI人工智慧喔,它可能牽涉到的很多數位人權的議題,因為我們知道AI它必須要有龐大的資料來訓練,然後後面還要有優秀的演算法來支撐,這每個環節其實都有一些倫理跟法律的問題必須要被更充分的討論,然後制定一些遊戲規則,對不對?
葉:是。
黃:剛剛提到工作權,這個也是人類很憂慮的,就是說到底哪些工作會被AI取代?雖然我們現在跟大家說,其實你先不用擔心誰的工作會被取代,你要先擔心那些比你會用AI的人先取代掉你的工作,對不對?但是事實上也確實我們可以預見,甚至已經發生了,確實有一些工作因為AI的便利、廉價、快速,確實已經可以取代掉很多人類的工作了,包括法律的工作,我自己大學是念法律的,其實我也都提醒我的法律界的朋友們,其實法律的很多比較中、低階的工作是很容易被ChatGPT取代的。
葉:是,完全沒有錯,就是大家現在都在討論說,什麼樣的工作最容易被取代?我們目前看到第一個影響的其實是直播主。
黃:開始有這個虛擬主播出現了。
葉:對,對,對,對。那再來呢,以我比較熟悉的像法律人可不可以被取代?那你會發現就是,大家其實也是各說各話啦,那像有些研究報告出來說律師是可能被取代的第一名。
黃:因為我也想像中……也不用想像,其實現實已經發生,因為AI它只要讀完所有的判決跟法條,它記的比人類還清楚,對不對?我們以前還要去背,背了一個大概,還要去翻法典,AI它不用翻啊,它都在它的資料庫裡了。
葉:不過也有另外一種看法,就是說認為律師其實很難取代。
黃:為什麼?
葉:我覺得這兩個其實沒有矛盾。
黃:對,應該是看哪一種律師,對不對?
葉:沒有錯,就是這樣子,像刑事辯護律師,那這個要被取代,就還要比較久一點。
黃:對,AI現在沒有辦法上法庭辯論,而且辯論這牽涉到非常多的這個腦力活動。
葉:對,然後而且律師可能會想出比較刁鑽的這個訴訟策略,不過像如果說是非訟的律師,改改合約啊,那像這個可能就比較危險了。
黃:擬定合約、改合約,甚至寫訴狀,我覺得也是一個AI應該可以做得很好的。
葉:目前這樣看,因為你的訴狀其實是要跟你的訴訟策略走,那但是訴訟策略可能還是人類律師目前會比較有經驗一點,因為很多的策略都從法律的文字、從判決裡面其實看不出來,那是師父、徒弟口耳相傳。
黃:是。
葉:所以AI就學不到。
黃:這是很頂尖的這種律師,AI是沒有辦法取代的,可是如果只是一般法律助理的工作,比如說幫忙找說相關的有哪些法條可能可以適用,相關有哪些判決、判例可以適用、援用,這個AI應該都可以做得非常好。
葉:對,尤其是比較常見的這種案件,所以您剛剛講的也沒有錯,其實比方說像離婚案件啊,或者像這個……
黃:什麼車禍的小案件啊這種。
葉:對,對,對,那像這種因為有大量的判決可以學習。
黃:是。
葉:所以像這種它的訴狀就會比較……可能會寫得比較完整。
黃:所以像以國內外來說,您看到的有沒有開始事務所就不用找法律助理了?只要用ChatGPT其實就可以做到法律助理可以協助的事情。
葉:目前因為生成式AI才剛開始,而且因為它目前的這個資料量好像3.5(GPT-3.5)才到2021年,那目前GPT-4應該是已經到最近的資料了,可是呢,它目前生成的還有一些錯誤,那所以我覺得這個助理目前要被取代,可能還有一段時間,因為目前律師也還沒有完全的那麼信任,因為GPT回答會有錯誤。
黃:是,但是如果是一個被調整過,重新教育過的ChatGPT的進化版,其實是很有可能的?
葉:我覺得在未來每一個行業都很危險。
黃:是。您說我們現在在這個律師界有辯論,甲說、乙說,有一說是覺得法律的工作會被AI取代,有一說說不會,不會的這邊的主張是什麼?您剛剛說有一些訴訟技巧要很厲害的律師才會,還有呢?
葉:這個律師他有時候他的進攻防禦的方法,有時候甚至會用到一些比較黑暗的,那這個可能AI就……
黃:不宜加入他們的訓練、設定條件裡。
葉:對。
黃:這也是我之前在跟一個會計師朋友在談說,會計很多數字、很多公式,是不是很容易被AI取代?這個一流的會計師也都會覺得不會啦,因為一流的會計師常常在做的事是幫大家逃稅,這個不應該被納入可信任的AI的設計裡面。
葉:是,我們叫合法避稅。
黃:是,是,在合法避稅,這個也要很厲害的會計師才有辦法做到。
葉:對。所以未來就是這種非常專業的這種,我覺得會比較不容易被取代,但是比較中、低階的,就比較危險。
黃:是。但是這個其實也會有另外一個疑慮,就是您也不是第一天就像今天這麼厲害嘛,對不對?也是從一個菜鳥律師、菜鳥檢察官慢慢訓練起來,可是當一個比較中、低階的工作被AI取代之後,人還有沒有辦法進化到最厲害的高階?
葉:可能要轉行。
黃:那以後就沒有高階的律師、會計師。
葉:對,不過因為這個AI取代人類的這件事情,其實類似的爭論,我們已經發生過很多次了,電腦一出來,很多人都很擔心,但是後來發現它那個行業本身都會膨脹成更大的行業,比方像電腦網路,哇!現在的從業人口很多,對,我們可以發現就是說,不管怎麼革命,工業不管怎麼革命……
黃:人類都有辦法找出自己的出路來。
葉:對,然後失業率其實都差不多。
黃:就是想工作、不想工作的人的比例大概都是這樣嘛。
葉:對,對,所以呢,AI它以後也會創造出新的工作,那現在我覺得比較麻煩的是年紀比較大的人,那年紀比較大的人,他們在工作的轉型上面會比較困難,那你說年輕人我覺得他們都會找到自己的出路。
黃:反而很多年紀比較大的人會說,還好我已經快退休了,他們會覺得說在他們即將退休的這幾年,應該世界還不會有這麼大的改變,但我覺得真的很難說,因為生成式AI的這個浪潮來得實在太猛烈。
葉:對,我跟您講個笑話,就是我剛剛不是說智慧財產局有請我寫一篇論文嘛,它請我寫的時候是3、4年前,當時改變好多喔。
黃:哇!這半年世界就變了。
葉:然後當時我依照當時的資料,我當時的結論是AI還沒有辦法自己獨立的創作,但現在已經不是了,所以這個真的是2、3年就被淘汰了,所以進步真的非常的快。
黃:即使在法界也有爭論說AI到底能不能取代律師喔,那您自己認為呢?
葉:我覺得在短期內律師要被取代,還是不太容易的,那但是呢,律師應該要學會用很多的輔助系統,那像在蒐集資料上、撰寫的這個訴訟文件上面,其實如果會用AI,那可以節省不少的時間,對,所以呢,就像您剛剛講的,其實你要防範的可能不是AI,是會AI的人。
黃:比你會用AI的人,對不對?就是他們如果很會用AI的工具,其實提高的很多的工作效率,跟自己的能力都可以倍增。
葉:對,我覺得大家現在一定要去嘗試,因為我在很多的演講,我會現場隨便做個現場調查,我發現即使用過ChatGPT的人也還是少數,更不要講就是用這個API(應用程式介面)接了GPT訓練出來的一些特殊的一些專用的軟體,那他們是完全都沒用過。
黃:是,是,是。
葉:但是比方說我們今天這場訪談,其實我們可以用大概3、4個AI的工具,把我們訪談的內容轉成文字,然後再到最後做成PowerPoint(簡報辦公軟體)。
黃:轉成文稿,對,做成PowerPoint。
葉:一系列全部都AI來做。
黃:都可以靠AI了。是。
葉:對。所以呢,我覺得大家就是一定要回去學會怎麼用AI。
黃:對,而且現在的AI其實門檻非常低,對不對?不是像以前說你要會寫程式語言,你才能夠使用一些電腦工具。
葉:對。然後但是現在因為像那個下prompt。
黃:下那個咒語,怎麼下指令。
葉:現在有專門的書在講怎麼下指令。
黃:對,那可能可以節省嘗試的時間啦,不過其實AI的厲害就是它會不斷的進化的,所以其實你多跟它相處,多跟它溝通,你就知道怎麼樣是一個訣竅。
葉:對。所以就是熟能生巧,一定要常用,但我現在發現大家還是就是買AI股票的人呢,比真的自己在用AI的人多。
黃:是,是,是。這個關於這個律師可不可能被取代?哪些工作可能被取代?李開復曾經講過五秒鐘原則,您好像也相當的認同?
葉:不過他這個原則也是好幾年前提出來的,那他講的是說,如果你的工作的決策是在五秒鐘之內就可以做決策的話,那就很容易被取代,比方說開車,你要左轉、右轉,那這個是幾秒鐘之內就可以決定的事。
黃:就你需要花的腦力沒有很多。
葉:對,所以計程車司機、貨車司機這個很可能會被特斯拉取代。
黃:就是AI的自動駕駛,對不對?
葉:對,越不需要思考的工作越容易被AI取代。
黃:我們說所以其實未來被取代的不是jobs(工作),是tasks(任務),您怎麼解讀這句話?
葉:我覺得這個很有道理,因為我們一個比方說你是總經理,你會有下面會有很多tasks,總經理這例子可能不太好,因為總經理事情都是下面在做。
黃:他本來就不做事的,只出一張嘴。
葉:對,但是比方說下面的一個經理,那他其實他的工作有很多tasks,對,那有些tasks AI可以取代,但是你說這個manager(經理)這個角色、這個job,我覺得可能要取代還要一段很長的時間。
黃:就是我們的工作內容其實如果只是很單純的、任務型的,它是很容易被各種AI工具很快速就達成。
葉:對,對,對。
黃:但是我們需要的是一個統整的能力,然後去發號施令,知道說我們到底要做什麼?這個AI目前還是沒有辦法取代人。其實在企業來說,反而是高階主管目前不太容易被取代,但是中、低階的主管,或人力和員工,很多工作確實可以用AI可能會做得更好,而且還不會抱怨,不會有勞資糾紛。
葉:不用加班費。
黃:對,所以這個其實是未來會不會造成一些新的社會問題?或者是另外的一些階級問題?這個我們也是有意識到。
葉:對,這個所以現在勞動部其實他們也在研究這件事情。
黃:對,就是工作權、勞動權,怎樣確保?在AI的法律之前,您有提到我們的倫理議題也非常的重要,其實這個倫理議題在1942年就已經被提出來討論了,對不對?那個時候還沒有人工智慧,可是已經有機器人了。
葉:對,所以這是我很喜歡看科幻小說的原因,因為這個艾西莫夫他是很有名的一個科幻小說家,他1942年他就在想像就是說未來的這個AI的世界,那我們要怎麼幫這個AI設定一些原則?那他設定的第一個原則就是AI不可以傷害人類。
黃:機器人,那個時候已經有AI了嗎?
葉:沒有AI這個名詞,但是他講的機器人其實就是我們今天的AI機器人。
黃:是,是,是,機器人不可以傷害人類。
葉:對,那但是你看那個《魔鬼終結者》,其實它那個天網系統就違反第一原則,因為它會傷害人類。
黃:對,是,是,是,在這個艾西莫夫的機器人三原則裡面,第一條就說機器人不得傷害人類,而且看到人類受傷的時候,你不能袖手旁觀,對不對?
葉:是,是,那第二條原則就是說機器人要服從人類的命令,除非違反第一條原則。
黃:除非人類跟它說你要去傷害另一個人類。
葉:對,對。
黃:否則你必須服從。
葉:對,對,對。那第三個是機器人可以保護自己,但是又不能跟前二條原則違背,其實我覺得艾西莫夫的邏輯是很好的,這個有點像寫程式一樣,其實它是有個邏輯的。
黃:是。所以最大的重點就是機器人不可以傷害人類,而且人類受到傷害的時候,機器人也不能袖手旁觀,這個是在1942年就確立了這個艾西莫夫的機器人三原則,那近年隨著AI的這個發展,也不斷地有一些人或者組織想要制定AI的相關原則,您覺得哪些是我們可以參考的方向?
葉:其實當我們在講原則的時候,就大概表示我們這個問題都還沒想清楚,艾西莫夫其實他還沒想清楚,所以他就先簡單歸納三個原則。
黃:對,因為可能當時的科技也只有發展到那裡。
葉:對,然後呢,像我們看微軟的CEO(執行長),他其實在2016年,他也提出了AI六原則,但是一樣,一樣就是說他其實對問題,他只是想一些大原則。
黃:是。
葉:那像比方說像我們科技部也有啊,當然現在沒有科技部了,但是之前科技部它也是有發一個AI人工指引十個原則。
黃:我們來談談這裡面有哪些原則是曾經被提出來的,像2016年的微軟CEO他有提出AI的六個原則,是哪六個?
葉:第一個它必須是用來幫助人類,第二個就是說AI要是透明的。
黃:是指它的演算法是透明的?
葉:對。那第三個就是說他說這個AI的這個效能必須……
黃:最大化。
葉:最大化,而且不能傷害人的尊嚴。
黃:所以人的尊嚴還是最重要的。
葉:對。那第四個是AI必須用於智慧隱私。
黃:智慧隱私的意思是什麼?
葉:我的理解,他的智慧隱私指的是,就是不能因為AI而侵犯別人的隱私啦,所以它的整個機制是必須是屬於智慧的。對。其實他這一原則也就是比較抽象,因為我們念法律,我們每一個文字都要很精確。
黃:都很精準。
葉:但他提出來的是一些概念。那再來是AI必須承擔它的演算法的責任,以便人類可以撤銷非故意的傷害。
黃:所以就是這個AI的演算法,它必須是一個負責任的演算法,而且人類要有一些機制,人類可以隨時撤銷它的傷害。
葉:然後再來就是偏見,就是我們剛剛講的歧視。
黃:就AI要防止偏見,意識到這個問題,所以一個可信賴的AI應該是一個什麼樣的框架下面來運作?
葉:是。這個歐盟他們很早就開始思考這個問題,那他們就訂了一個這個可信賴AI框架,那這個大家可以在Google上可以去搜尋看看,不過你會發現它也沒寫完。
黃:因為AI的發展實在……大家那個時候也很難預測會多快。
葉:對,對,因為我們在講框架的時候就是我們蓋房子的鋼筋那叫做框架。
黃:是。
葉:對,但是那個水泥都還沒有灌進去。
黃:是。對。所以其實這個很……對一個正在發展中的新科技,要給它一個框架還蠻不容易的。
葉:對,而且它也算是寫得像我們剛剛前面提的是原則,那原則其實很空泛,那到框架就更細膩一點了。
黃:是。不過我們知道歐盟在2021年4月就開始提出這個AI法的一些草案,對不對?
葉:對。
黃:那它的大概的立法的方向是什麼?
葉:其實我看它主要都還是我們剛剛講的一些原則,但是又再把它更具體化,因為你要變成一個法案,那你就是要變得就是要用法律的文字來寫,那必須寫的就是能夠儘量具體,這個我們叫法律明確性原則。
黃:是,是。
葉:不過呢,在我看起來,其實它寫的東西還是比較類似基本法,那大概就是劃定一個邊界,大概什麼可以做、什麼不可以做。然後再來就是說應該還是要在可信賴的這個原則之下,然後能夠要促進AI的發展。
黃:是。
葉:歐盟的這個AI法草案,它是世界上第一部針對人工智慧提出專門性立法的草案,然後它是採用比較風險導向的監理模式,把AI系統分了不同的風險層級,然後來區分不同的監理密度,那它大概是一些什麼樣的制度設計?怎麼監理?
葉:歐盟的AI法草案,那麼基本上它是區分那個風險的層級,那麼它把不可接受的風險列為這個部分是絕對禁止使用AI的。
黃:哪些是不可接受的風險?
葉:比方說像影響這個人類的意識。
黃:就是我們說的認知操作這樣的行為嗎?
葉:對,對,對,或者是操控人類的弱點,那或者是做一些不公正的社會的一些評量,那這種最高風險的,它就是不能用AI來處理,那再來就是高風險的話,那這個就必須要受到監管,像這個生物識別,比方說我們現在在路上啊,然後那個都有……
黃:監視器,然後可以人臉辨識。
葉:對,對,對,像這個要受監管。
黃:是,因為這個系統很可怕的,它可以掌握我們去到哪裡。
葉:對,有這個警察辦案就很方便。
黃:對,其實這個背後其實是付出了隱私的代價。
葉:對。所以這個要受到高度監管,再來如果說是只是有限的風險,像跟你聊聊天,聊天機器人,就與人互動的,那或者是像這個Deepfake這種,它的風險有限,所以你的責任就是把它做到透明化就好。
黃:透明化的意思是說?
葉:就是要把你的演算法透明。
黃:告訴大家這個AI的演算法是什麼。那其他的低度風險的就沒有什麼監管的?讓科技去發展這樣。
葉:對,那所以呢,它這個其實還是比較類似像一個框架式的一個,因為到底什麼叫做不可接受?什麼叫做高、中、低?這個就慢慢地還要透過案例去累積。
黃:是。這個好像目前都還在歐盟的理事會討論當中,最新的進展也仍然是喔。
黃:另外啊,臺灣的科技部,除了歐盟之外,其實臺灣的科技部也有您剛剛提到科技部的時候,現在又叫國科會,其實從108年就有在做這個AI人工智慧科研發展的指引,它有幾個指引的方向有列了八點,對不對?
葉:第一個是這個共榮共利,那再來是……
黃:共榮共利就是說這個AI必須要對人類是?
葉:要能夠幫助人類,有點像剛才微軟CEO講的,就是要輔助人類。
黃:是。
葉:那再來就是非歧視性,這個要公平,那還有談到有關於這個AI的安全性、自主性、個資的問題,像剛剛這個微軟CEO也有提到隱私的問題,還有這個透明性、可解釋性、問責,就是誰設計的,出事情……
黃:出了事情以後,必須讓我們可以有一個可以究責的對象。
葉:對,對,對。但是它這個層級只是指引,連法律都不是,指引其實是沒有法律的拘束力。
黃:是。對。所以我們最近臺灣也開始擬定這個AI基本法的草案,目前的進度大概到什麼程度?
葉:我到現在還沒看到草案的文字,我有去要,但是他們覺得他們還有再修改的空間,所以想等更確定以後再公開,所以目前其實我們也還沒有看到它的完整的一個內容,但是呢,你只要看到基本法這三個字就知道,它裡面只會規定還是一些原理原則的東西。
黃:對,但也因為這個技術還不斷地在有突破性的發展,所以它大概也很難有很明確的法律規範出來。
葉:對。這個是我們法律的一個極限,這個主持人也瞭解就是法律永遠是落伍的。
黃:法律的明確性,所以法律可能很難在第一時間就作出太明確的立法,只能建立一些原理原則,但是光是原理原則其實就非常重要了,因為它就是引領未來法律的面向、規範的面向,以及科技發展的一些侷限,在一些框架裡面來發展科技,對不對?
葉:是。
黃:我們再回來談AI人工智慧到現在可能會構成哪些數位人權的議題,剛提到說法律,律師的工作是不是容易被AI取代?另外我們知道,其實國外還有臺灣,甚至臺灣也有,是不是用人工智慧可以輔助法官來做判決?包括這個刑度,以前比較是自由心證,1年到5年,到底要判幾年?很多是法官自由心證,到不同的法官的手上可能就會有1年、2年以上的差距。
葉:是。
黃:那所以也有人在試圖說,那是不是我們可以根據一些犯罪情結,讓法官還有過往的判決,讓法官有一個量刑的大致的標準,是不是AI可以協助這些?還有AI在哪些層面可以來幫助人類的審判?
葉:是,在量刑的這件事情上,確實如兆徽您講的,法官的下手的重度,輕重差很多,那所以其實司法院他們很早就有量刑系統,輔助法官來判斷,但是法官都不用,因為他們覺得量刑是審判的一部分,而且是核心部分,所以他們不想接受任何的干擾,就是要獨立審判,要維持他的獨立性,不過另外一個可能的原因,也是因為以前的那個量刑系統,可能法官用一用就發現……
黃:不好用。
葉:不好用,但是我聽到前一陣子又有改版,所以這個新改版的好不好用?法官的接受度怎麼樣?這我們還要一點時間來觀察。
黃:是。我覺得我們不用用AI來取代法官,但是它可以輔助法官在判決的時候更多比較具體的參考指標,是不是可以這樣?
葉:對,對。但是法官他有他的顧慮,因為他擔心比方說這個系統如果公開出來,那民眾會跟法官argue(爭論)「你為什麼判我三年?依照這個系統明明是一年」。
黃:AI建議,是是。
葉:然後他就用這個做上訴的事由。
黃:確實。
葉:對,對,就說他量刑過重,你看你們司法院自己的量刑系統都說我只要判1年,但是法官判3年可能是因為,比方說他的犯罪態度不好啊等等,是因為有其他特殊的原因,那像這個就是到底要聽AI的?還是要聽法官的心證?這個就會有爭議。
黃:是,在國外其實也有用這個AI來判斷說這個犯人的再犯可能性。
葉:對,假釋,要做假釋。
黃:所以這個系統在國外用起來,大家在法律界會引起什麼樣的討論?
葉:對,這個在幾年前,在美國就發生很有名的案子叫COMPAS,它那個系統叫COMPAS,它是一個輔助法官來決定要不要假釋的一個系統。
黃:對,因為假釋人犯的很重要的條件,就是他出獄以後會不會很快又再犯了,對不對?
葉:對。所以呢,這個系統它會給法官一個建議就是說,這一個人他們來判斷再犯率到底有多少?那如果再犯率很低,那法官就會比較敢把他假釋出去,兆徽您應該也看過一個報告,有一個研究報告是關於以色列法官的,後來他們研究就是說這個法官覺得可不可以假釋,其實最重要的影響因素是他肚子餓不餓,所以他們發現午餐前跟晚餐前,幾乎都是不准假釋。
黃:法官會有不同的判決結果。
葉:對,都不准假釋,但是早餐……
黃:肚子餓的時候心情不好。
葉:對,然後精神好、心情好的時候都准假釋,所以這個美國法院他們為什麼會嘗試用AI來輔助,就是說希望說不要讓法官被情緒所影響,能夠更公正一點,或者說更科學一點來判斷,那這一家大數據公司呢,他們設計的這個系統就有非常多的一個變量,但是它就擔產生歧視的問題。
黃:對,因為會有一些偏見。
葉:對。所以它在這個變量裡面,其實它是把你的種族是拿掉的,種族、膚色這些可能引起歧視的因子是拿掉的,那然後他們在官網上他沒有公佈它的演算法,可是它有公佈他們的數據,然後就會發現的確依照它的數據,判斷這個再犯或不再犯的準確率是蠻高的,那可是呢,後來就被網站給踢爆,因為他們發現依照它的數據這樣看起來,其實黑人被誤判的這個比例遠高於白人。
黃:所以這個系統雖然有意識到歧視的問題,可是還是免不了歧視。
葉:對,應該這樣講,黑人本來他的再犯率就在統計上真的比較高,然後呢,這個系統雖然故意拿掉了這些因素,可是因為這個系統太聰明了,它隱約有感覺到。
黃:它從其他條件裡面是可以判斷出。
葉:對,所以它就會給他一個就是這個人再犯率比較高的一個判斷,所以用這個系統就會發生就是黑人比較難被假釋,但白人比較容易被假釋的這個結果,然後呢,這個結果公佈了以後呢,就大家就非常的震撼,然後呢,全世界包含Google的大數據科學家都下來研究這個案子,就是為什麼會發生這種狀況?那最後的結論就是因為系統蠻準的。
黃:所以結論是不是偏見?
葉:不是偏見,其實這個系統是蠻準的。那後來呢,這個其實人權團體是有去告的,就是要求禁止法院使用這套系統,但是後來這個上級法院還是駁回了,還是承認就是說法官可以用這個系統輔助嘛,因為法官不用相信那個系統嘛,就是輔助。
黃:是,你可以完全不管它。
葉:對,對,對。
黃:但是它給你一些參考指標。
葉:所以最後還是決定准用。
黃:是,這中間真的有很多倫理問題,然後到底這個因果關係如何,有時候尤其又涉及到種族,是非常敏感的議題。
葉:在美國真的是超級敏感。
黃:是,那我們回來談著作權喔,剛剛我們講到AI孫燕姿,可能會有人格權的問題,但是好像可能會有個資法的問題,不過這些都只是可能,還沒有實際的判決發生過,那另外ChatGPT生產出來的小說,有沒有著作權?還有它的畫作有沒有著作權?
葉:目前的這個全球著作權法的共識是沒有,因為它不是人類的創作,最近看一些像音樂的這個AI的網站,那你會發現它的package(套裝)有分,就是如果你都不做商業使用是free(免費)的,但如果說你要做商業使用,那這個要收一點錢,那如果整個著作權要屬於你,那會收更高的錢,可是其實這個網站這樣子收錢,我覺得是有問題的。
黃:因為根本就沒有著作權。
葉:對,這整個都沒有著作權,你怎麼還可以這樣子去區分定價。
黃:對,但是沒有著作權這件事情對於……剛剛我們有提到過,對於AI公司,甚至對於使用這個AI工具的人不見得是公平的,對不對?
葉:對,其實我對著作權法有做了一個研究,就是從歷史經驗來看,其實龐大的經濟利益它會導致著作權法的修正,我們現在著作權法,其實它是源於英國的安妮法案,那是300多年前。
黃:對。
葉:那它是被什麼龐大利益影響呢?因為印刷術,所以這個書本、這個著作就變成有龐大的經濟利益,所以就出現了著作權法,那本來著作權法只保護書喔,可是後來呢,又慢慢的發現,你也不能說這幅畫它的價值沒有書高,你也不能說這個音樂它的價值也很高,你不能說它比書低,所以慢慢的著作權就從保護書這個語文著作,它的範圍就開始慢慢變大,然後呢,到了這個電腦程式出來的時候,電腦程式大家看過就知道,那你看不懂。
黃:對。
葉:那個跟寫詩是不一樣,那美國剛開始也在考慮那電腦程式到底要怎麼保護?
黃:到底有沒有……對,到底有沒有著作權?
葉:對,那剛開始用語文著作來保護,可是大家又覺得這很離譜,因為那個我們根本看不懂。
黃:那個語文是沒辦法跟一般人溝通的。
葉:所以後來就……好,那沒辦法溝通,那我們就獨立一個叫電腦程式著作,像我們臺灣著作權法也是叫獨立電腦程式著作,又納入著作權法保護,然後呢,後來這個錄音的這個技術,這個廣播技術越來越那個發展,這又是一個龐大的產業。
黃:是。
葉:所以呢,這個錄音、廣播也開始納入著作權法的保護,但是在國外是用著作鄰接權這種方式來保護。
黃:是,著作鄰接權,可不可以跟聽眾朋友解釋一下?
葉:就是我們著作權法保護的核心是我們這個……應該說是就是比較具有價值的創意,像寫詩、寫歌這種創意,但是像錄音,好像它的創意就沒那麼高,可是你也不能說它完全沒創意,因為好的錄音師跟不好的錄音師其實……
黃:結果也會差很多。
葉:對,他們的那個唱片的銷量也差很多,所以呢,跟傳統的著作權不太一樣,可是呢,你又不能說它不保護,你又想保護它,那就用比較弱一點的著作權,叫做著作鄰接權。
黃:弱一點的意思是說它保護的期限就比較短嗎?
葉:對,期限比較短,擁有的權利也比較少,但是像臺灣錄音著作,我們還是用著作權保護,我們不是用鄰接權,臺灣目前沒有鄰接權的概念。
黃:是,是。
葉:那再來就是資料庫,因為我們都說這個著作你一定要有創意嘛,那我就把一堆的資料變成資料庫,這哪有創意?所以臺灣本來也就說,你很辛勤地收集資料,對,我很感謝你,但是我著作權法還是不保護你,因為你沒有創意,可是呢,你看後來歐盟也把它保護起來了。
黃:是。
葉:為什麼呢?因為現在到處都是資料庫,而且資料庫……
黃:商機龐大。
葉:對,大家都說資料現在是油礦。
黃:是。
葉:對,所以呢,也把它保護起來了,所以呢,我就從這邊做一個大膽的一個推論,之前都認為說AI沒有著作權,也沒有什麼人會反應,因為生成式AI沒出來嘛,但現在不一樣了,很快的就是生成式AI它的著作產量,很快地會超越人類。
黃:對,因為它生成的速度實在太快了。
葉:所以呢,以後我們的小說後面可能要註明這是人類做的,還是電腦做的。
黃:或者是人機協作的。
葉:對,對,對。就像我們現在都會講這個皮包是手工做的。
黃:對。handmade。
葉:對,對,對,handmade要比較貴,我覺得未來也會變成這樣子。
黃:所以標註有沒有使用AI工具可能是一個解方?
葉:當AI的著作量很大,它就會是一個龐大的經濟利益,那時候就會……你會發現AI公司也會去……
黃:爭取它的權益。
葉:對。去lobby(遊說),然後這個……當然這個也會有人類的團體去lobby說這個不要給著作權,所以會進行拔河,但是我個人的預計是,當它的這個經濟利益龐大到某個程度,我們從歷史上來看,太多原來都認為不是著作權的東西,後來都被保護。
黃:是。
黃:所以葉律師啊,您會怎麼建議?在立法上,臺灣接下來要怎麼來在著作權法,或者是其他相關的法律,針對人工智慧在這個著作權、智慧財產權的權利歸屬上,應該要用怎麼樣的制度設計?
葉:前二個禮拜立法院有舉辦一個公聽會,那麼也找我去,就是談一下這個問題,那因為這個當時在寫文章的時候,我有去想過這件事情,那我的看法不見得正確,但是給各位做個參考,我覺得AI的這個著作,我們不要用核心的著作權來保護它,我們用鄰接權來保護它,那所以呢,像我們的著作權目前是保護50年,但是AI的著作也許保護個5年、10年就夠了,讓它能夠更早地變成公眾的這個財產,那另外呢,像我們現在著作權法還有刑事責任,那AI的著作也許就讓人家告民事就好了,不要用刑事責任來做處罰,也就是說降低它的保護弱度,但是還是保護。
黃:還是讓一些商業上的利益,作為科技研發的誘因。
葉:對,對,對。然後再來下一個問題就是,這個權利到底屬於誰?
黃:對,而且它是有什麼樣的權利?是智慧財產權?人格權?還是什麼樣的權利?
葉:我目前看起來在國外的討論,他們比較認為說按照比例來分,就是看這一個AI著作呢,是AI這個軟體的功勞大一點?
黃:貢獻度高一點,還是人類的貢獻度大一點?
葉:那如果說假設認為人類的貢獻度只有30%,那就是……
黃:擁有30%的權利。
葉:我覺得這個是目前我看到的理念,理論上最完美的一種立法方式,但是它事實上還是執行率幾乎是零。
黃:因為這個貢獻度其實很難量化,對不對?
葉:對呀!這個可操作性太低了。
黃:對。今天假設是一個孫燕姿的AI人聲模型,到底孫燕姿的聲音跟一個AI公司一起要打造這個聲音模型,誰的貢獻度是多少比例?這個很難欸。
葉:沒有錯。我後來我就會建議就是說,也許我們讓這個使用者取得著作人格權,讓AI的軟體公司來取得著作財產權,那為什麼呢?因為AI軟體公司它比較大,它有辦法去行銷這個它的著作在市場上,可以發揮比較大的這個著作的一個收益。
黃:是。
葉:那但是呢,創作這一個的這個人類,他有利用權,他也同時可以改作再去賣錢,這也是可以,但是呢,AI的公司它也可以,因為它還可以再授權給別人,因為這個財產權是屬於它。
黃:是。但如果使用者取得著作人格權,但是著作財產權是AI公司,那這個著作人格權可以有什麼權益?或是有什麼商業的價值?
葉:就是這一個下咒語的人是黃兆徽,然後同時您有利用權,對,那為什麼說……
黃:但是著作財產權是屬於AI公司的。
葉:對,但因為您有利用權,其實利用權也是一種財產權,那只是說這個就不是你專有的。
黃:要去談一個分潤的比例。
葉:就各自玩各自的,因為如果是共有的話,就會談分潤比例,但是我的建議是就是大家不要互相綁死。
黃:但利用權跟財產權怎麼脫鉤呢?
葉:其實目前著作權法裡面就有類似的規定,就是比方說我聘用你幫我寫一首歌,雖然著作權還是你的,但是這首歌我是有利用權的。
黃:好,我們來假設一個狀況,就是AI孫燕姿,假設這個它現在是被盜版的嘛,假設孫燕姿今天真的跟一個科技公司合作打造一個正版的AI孫燕姿的歌聲模型,所以您的建議是由這個AI的模型是由孫燕姿取得著作人格權,但是由AI公司取得著作財產權,那這個AI人聲模型是孫燕姿也可以有利用權?
葉:我們這個著作權的標的,我在討論的其實是那個模型後來產生的……
黃:衍生的,假設是創作出一首歌來。
葉:對,對,對。就是最終的那個著作,那至於那個模型的本身,可不可以當一個著作的標的?這個也是現在有在討論的一個問題,對,因為它是一個模型。
黃:那這個模型它會用孫燕姿的歌聲唱任何歌曲?
葉:對,那但是這個模型本身是不是一個著作?
黃:對。
葉:對,這又是一個目前還沒有討論的問題。
黃:是。所以可能的探討的方向是什麼?
葉:如果這個模型它會有很高的經濟價值,我認為未來也可能會被納入著作權的考慮。
黃:甚至這個模型它是不有專利權?
葉:也有可能,還是用營業秘密來保護,現在所有的智慧財產權專家都在想這些問題,但目前都沒有定論。
黃:國外目前也還沒有類似的案例出來?
葉:沒有,但是就是有一些訴訟,訴訟都還要等一段時間才會知道結果。
黃:才會有判決。但是可以有幾個思考的點,就是這個模型本身,它到底是有著作權?著作人格權?著作財產權?還是專利權?運用這個模型生產出來的歌,它的著作人格權、財產權、利用權又要怎麼分配?
葉:我目前這樣看,這一個模型,因為專利你要申請,這個可能也有點困難,那著作權,這個模型可不可以叫著作權?這個大家也是一個問號,但是營業秘密是比較有機會的。
黃:是。這個模型是屬於一個有商業價值的營業秘密,但是營業秘密本身沒有辦法獲利啊。
葉:這個營業秘密可以產生出有獲利價值的產品。
黃:有獲利價值的一首歌。
葉:對,對,所以這個模型的價值是在於它能夠生產出多好的作品。
黃:根據這個模型而產生的歌曲,它可能的權力的歸屬會是什麼模式?
葉:我還在猜,所以我才說了有八種可能。
黃:八種可能?
葉:對,對,對,那我的建議是看是不是就像我們剛剛講的,就是分別歸屬於一部分給AI的軟體公司,那一部分就是給下咒語的這個人,但是雙方的權利不要綁在一起,因為如果你用共同著作來保護,我說我要把這首歌授權,但是公司說它不准,就沒了,因為共同著作要雙方都要同意,所以我的建議就是比較好的一個就是讓它在市場上流通、授權的方式,就是下咒語的人也可以有權利,他也可以再去授權、再去改作,但是呢,AI這個公司它也可以再進行授權,那這樣子呢,就雙方不要綁在一起,綁在一起就這個變歡喜冤家,那這個著作的利用會有困難。
黃:是。但是比如說以聲音來說,對於這個聲音的提供者,他可能會擔心說,那這個AI公司不曉得會把我的聲音用到哪裡去?會不會跑到一個這個他很不喜歡的一種情境裡面,聽到自己的……跟自己聲音很像的,甚至百分百你真的聲音?
葉:誒!你的問題非常的好,我覺得確實會有可能會有這樣子的一個顧慮,所以我才會說就是現在的立法方式,像我所猜想的八種情形,其實也只是我還在猜想,但是像您剛剛講的這個,就很可能是我猜測的八種立法狀況中的盲點。那當然如果說這個完全屬於下咒語的人,當然就不會有你剛剛講這個問題,那但是就是可能AI公司不知道會不會同意。但是如果我們把這個權利也賦予給AI公司的話,我其實那天在立法院就提到,那這樣子我們恐怕要買進的就不是NVDIA(輝達)的股票,我們要買的是微軟跟Google的股票,因為它會成為全世界最大的著作權人。
黃:對。所以這中間真的有非常多要大家思考的點喔,那我們今天節目時間到了,我們之後再跟葉律師來談這個隨著AI科技的演進,有太多太多的倫理跟法律的問題,我們必須要思考。
葉:而且下次我們談的時候,可能狀況又不一樣了。
黃:好。非常謝謝葉律師!
葉:謝謝大家。(校對:李建甫|更新:2023/07/28)