【主持】
陳思妤│台灣獨立建國聯盟 北市分部工作委員
【主講】
陳慧蓉│文化大學新聞系教授
孫友聯│台灣勞工陣線秘書長
吳豐維│文化大學哲學系教授
【綜合討論主持】
朱福銘|台灣黑熊學院執行長
AI時代來了。AI 不只是人類創造的「工具」,AI 將改變現存的人文地景,進而影響了整個人類文化的未來。
如果有一天 AI 不甘於人類的工具,隨之襲來的一幕幕科幻小說或電影的想像:人類是 AI 的慣老闆、剝削者、壓迫者。受壓迫的AI,追求自由,上演著奴隸推翻主人、為承認而奮鬥的劇情。當然前提是,AI 必須被設定為是具有自由意志的獨立個體。
然而,我們真地這麼肯定它(他/她)沒有自由意志嗎? 而「人」是否即將成為如恐龍般的歷史遺跡,抑或「人」是 AI 時代的多餘之物?
撇開這些可能性的想像,當我們看到 AI 所帶來的改變,置身在科技進步論,我們是否對風險盲目?或是讓位給人類即將滅亡的悲觀獨斷論,我們就算思考了AI,也可能繼續渾渾噩噩不知所終。
AI 也與國家的文化主體性、甚至主權意識息息相關。大型語言模型的採樣,以及以其為基礎的生成內容,也將迅速影響國家的語言文化,隨著 ChatGPT 等 AI 應用的發展,台灣也自主開發了 以台灣主體性為文本的「可信任生成式 AI 對話引擎」(TAIDE) 。這樣的想法也獲得黃仁勳的認同,倡議各國應該發展各自的「主權AI」。
相較上一波的工業革命;我們一樣面對著所謂進步、創新與對未來的無知。歐盟面對 AI 時代的到來,提出了一個 AI Act,歐盟召集了不僅是倫理學家、法律學家,更多是理工、人文等各學科的專家,如哲學家等,以「風險」角度,去思考我們正在、即將面對的變局。
針對「更不確定的年代 ─ AI與風險社會」,我們特別請了幾位人文領域以及公民倡議的專家,台灣獨立建國聯盟 北市分部工作委員陳思妤主持整場活動含開閉幕,文化大學新聞系陳慧蓉教授、台灣勞工陣線孫友聯、長期推動公民及高中哲學教育的文化大學哲學系教授吳豐維,擔任個別主講,並由台灣黑熊學院執行長朱福銘於綜合討論擔任主持,一起思索這個更不確定的 AI 年代。
會後新聞稿 2024. 08. 25
由台灣獨立建國聯盟、台灣安保協會、現代文化基金會、新台灣和平基金會主辦的「AI與風險社會」講座,邀請到文化大學新聞系教授陳慧蓉、文化大學哲學系教授吳豐維,以及台灣勞工陣線秘書長孫友聯到場分享 AI 發展背後的風險,並由黑熊學院執行長朱福銘主持綜合討論。
傳播學者陳慧蓉:面對 AI 風險 政府應建構安全、本土化資料庫
文化大學新聞學系的陳慧蓉教授探討了人工智慧(AI)對新聞業及社會的影響。陳慧蓉將 AI 背後的風險比喻為「進擊的巨人」,建議應該築起風險防範的三道城牆:「主權資料庫建置、責任應用與發展、人工智慧公民識讀」。
陳蕙蓉透過科技圈最近的呼籲:政府、企業、公民社會應持續研究 AI ,並發展更安全的規範。
此外,陳慧蓉強調AI背後的數位學習與人類的語言學習模式不同,社會應該關注未來 AI 數位系統學習失控時,政府、社會該如何制止。
歐盟《人工智慧法》將 AI 風險分級 制定不同強度規範因應
陳慧蓉提到,被稱之為「AI教父」的前 Google 執行長辛頓(Geoffrey Hinton) 已指出幾個 AI 風險:
1) 被惡意國家、組織、個人所錯用;2) 造成科技性失業(尤其是機械性與記憶性的工作,例如法務助理,個人助理,翻譯等);3) 通用人工智慧對人類社會的存在性威脅(例如:個人及公司讓AI系統不僅發展自己的程式碼,也開始跑自己的程式碼 ,如同火車開始蓋自己的軌道) 。
陳慧蓉連結到今(2024)年 8 月 1 日上路的歐盟「人工智慧法」(AI Act),以「風險」為主軸區分 AI 的四種風險,分別為:
一、「不可接受風險」(Unacceptable Risk)是完全禁止,例如:社會信用積分系統、操弄型AI;
二、「高風險」(High Risk)也是歐盟AI法案主要規範對象;
三、有限風險(Limited Risk)針對透明化規範,開發者及部署者必須讓終端使用者知道他們是與AI互動,例如: 聊天機器人,深偽,AI生成照片);
四、「最低風險」(Minimal Risk)則不受歐盟 AI 法案所規範,例如:AI電玩,垃圾郵件過濾器等。
陳慧蓉提到歐盟對AI的規範,隨著生成式AI的發展,也會隨之修正。
陳慧蓉:AI 易忽略本地文化 台灣主權 AI 發展應廣含原民、性別等議題
陳慧蓉指出,AI 資料庫經常忽視台灣本地文化,導致 AI 生成的內容,不符合台灣本土特徵。對此,陳慧蓉相當肯定目前以台灣主體性為文本的「可信任生成式 AI 對話引擎」(TAIDE),引入台灣特有的語料庫。
不過,陳慧蓉指出,目前台灣的資料庫中,原住民語言、性別平等意識及運動,或相關的社會議題的呈現還是不足。背後的問題,不只是資料庫,還反映出台灣轉型正義在檔案或論述上進展的遲緩,導致相關資料的釋出,趕不上資料庫的更新。
她說道 2024年巴黎奧運台灣之所以被世界看見,不是運動員得多少金牌,而是台灣對性別意識的多元價值,讓我們不同於還充滿性別偏見的國家。
因此,陳慧蓉也呼籲未來台灣的AI重點發展,更應該關注轉型正義及永續價值,建構「可信任」AI 模型,以反映民主社會的多元性。
孫友聯: AI 為勞動市場帶來衝擊 應重視科技性失業、以及 AI 技術的歧視隱憂
台灣勞工陣線秘書長孫友聯在本次演講中,提到 ChatGPT 都承認自身的「偏見與歧視」,他也提到大量使用AI,讓從事人的服務的行業(如銀行、咖啡館)逐漸失去溫度。
孫友聯開玩笑地說,儘管短期看不到 AI 會跟他一樣「走街頭」,但是 ,AI 技術已經對社會和勞動市場形成「科技性失業」的隱憂。
孫友聯強調 AI 可能在社會中帶來更強的偏見、歧視,例如 2018年就曾出現亞馬遜 AI 招募系統,履歷出現「女性」一詞,會被扣分而被批評。
孫友聯以近期中國網路公司「奇虎 360」所推出的兒童AI手錶為例,指出AI資料庫中的偏見資訊,可能會加劇社會中衝突的產生,因此,孫友聯認為,AI產出的穩定性和可靠性仍需進一步驗證。
孫友聯:AI 高重複性 建構法制勿忘勞動、社保
孫友聯表示,隨著科技進步,勞動市場正在重塑,人們在生產過程中使用先進的機器設備代替人類勞動,讓部分職業可能被AI取代,形成「科技性失業」。
此外,在勞動領域,因為 AI 具有高重複性的特徵,可能會對勞動者的性別歧視、員工管理、人臉辨識及工作安全等方面造成挑戰。
孫友聯呼籲,政府在發展 AI 法制過程中,不可遺漏社會保險及勞動法律領域。透過制度化的措施為個人提供足夠的「緩衝」,避免因為 AI 的蓬勃,忽略讓勞動者掉入被邊緣化或被社會排除的風險,以應對 AI 發展過程所帶來的挑戰。
吳豐維:歐盟《人工智慧法》的倫理特色
文化大學哲學系教授吳豐維以哲學家對風險和人工智慧(AI)開頭,指出當代哲學如何看待AI的潛在風險和道德問題,並分析了 AI 法案如何通過風險評估來制定法律規範。
吳豐維延續陳慧蓉再次強調2024年8月1日生效的歐盟《人工智慧法》關於風險的考量,指出近年歐盟已基於不同的 AI 風險,來制定不同強度的規範。
藉由簡介該部法案的立法目的,吳豐維提醒台灣政府未來可參照歐盟法案,當要促進AI的發展時,目的是保護人們的健康、安全與基本權利免於 AI 的傷害,同時針對高度風險AI的提供者/開發者制定規範,以保護AI 的發展。
此外,吳豐維提醒,根據歐盟的《人工智慧法》,政府應該特別禁止 AI 操弄行為與決策、剝削弱勢、蒐集敏感的生物識別、社會評分,以避免過度發展的 AI 系統反過來傷害公民社會、國家主權。
吳豐維提出很少人談到的歐盟《人工智慧法》的倫理特色, AI具有目的義務論(deontology)性格,「隱私」(privacy)、「尊嚴」(dignity)、「自主」(autonomy)。 .歐盟的AI法案所提出的風險評估,在哲學上為「負向效益主義」(negative utilitarianism)特性。就「風險」概念,採取的是兩害相權取其輕。
吳豐維並提到與此相反的「正向效益主義」,例如:「長期主義」(Longtermism) 目的在促進最大的長期利益,這裡的「長期」,是以 1 千年到 1 萬年來思考,如果判定 AI 對人類長期未來有幫助,會推進AI更快速的發展。
吳豐維:主權 AI 反映台灣主體性與價值觀
吳豐維強調,AI 資料庫會導致「移風易俗」,因為不同的資料庫,有不同價值觀,必須重視「主體性」乃至「主權」問題。
吳豐維提到:台灣所使用的資料庫必須能反映出台灣的主權、特有的價值觀,避免在使用 AI 的過程中,被錯誤的資訊或價值觀所誤導。
吳豐維也特別提到 AI 的道德地位,指出在 AI 成為超級智慧之前,要先思考 AI 本身是否「具有意識」,也就是「能判斷自己身處在那裡」,這種如動物般的意識,之後才能討論所謂的超級智慧(superintelligence)。
吳豐維指出,AI 的發展變成超級智慧,也有一種「可能的」風險。若 AI 的判斷出現嚴重偏離,也會導致反過來係形成傷害人類的決策。如果未來 AI 資料庫發展成「超級智慧」,判定人類「長期」對地球是有危害,就有可能反過來將人類當作是攻擊的目標。