◎陳擷安

當AI不再只是工具,而是能主動產出內容、模擬人類語言,甚至參與商業活動時,法律責任該如何劃分,便成了不得不面對的問題。近期美國Anthropic公司在著作權案中獲得初步勝訴,法院認為其AI訓練屬於「合理使用」,一時之間被許多科技界人士視為對AI發展的鼓舞。但撇除美國法院的判決細節,這起事件所揭示的核心問題其實也攸關台灣未來的法律挑戰——當AI產出內容時,若造成侵權、誤導或損害,究竟由誰負責?而我們的現行法制,真的準備好了嗎?

台灣目前的著作權法雖有針對「合理使用」設下例外規定,但這些規範大多建立在傳統人為使用行為的假設之上,例如學術研究、新聞報導、教學使用等。AI的運作模式則截然不同,它可以在極短時間內大量擷取、分析、重組他人內容,並產生新形式的「創作」——然而,這樣的過程是否仍符合合理使用?AI是否真正具備「轉化性」?這些問題在目前法律中仍沒有答案。更重要的是,現行法對於AI是否有「行為能力」並無明文規範,一旦發生爭議,責任就只能回溯至開發者或使用者,但這樣的歸責方式在複雜的AI應用場景中,可能難以落實,也無法公平反映風險與控制能力之間的對應關係。

進一步來說,AI的內容生產能力,已經對傳統創作生態造成實質衝擊。許多創作者憂心,自己的作品在不知情的情況下,成為AI模型訓練的素材,而自己卻無從得知、無從拒絕、也無從獲得報酬。這在台灣也是極具爭議的灰色地帶。目前仍缺乏類似歐盟「資料挖掘例外條款」的設計,創作者無法主張「拒絕被AI使用」的選擇權,也沒有機制可對使用行為進行監控或申訴。換言之,當AI模型默默地「讀」了你的作品,它既不用告知、也不用負責,創作者只能眼睜睜看著內容被重組再利用,而無力可施。

這樣的制度空窗,勢必會在AI商業化應用愈發廣泛的今天,引爆更多的社會與法律矛盾。若我們希望在兼顧創新與權益的前提下推動AI發展,台灣的政策方向勢必需要盡快回應兩個核心問題:其一,是資料取得的合法性如何建立明確的原則與監管機制;其二,是AI生成行為的法律責任,能否透過制度設計有效分配到最能控制風險的一方。

這不代表我們要全面限制AI的訓練與發展,而是要建立一套既合理又透明的使用框架。例如,政府可考慮制定「AI訓練資料標準指引」,明訂哪些資料可被使用、需經授權、或應尊重創作者的選擇權。同時,在AI應用上,針對不同風險程度,可要求開發者進行風險評估、設置追蹤紀錄、並釐清若生成內容侵權或錯誤時的責任歸屬。若我們無法及早建立這樣的法律基礎,將會讓AI的成長變成在制度縫隙中的無責任擴張,最後受傷的只會是創作者、消費者,甚至整體社會信任。

AI的進步不會等人,法律制度更不能原地踏步。從美國的案例中,我們不需照單全收,但應看到背後所帶出的結構性問題。台灣要真正進入AI時代,不能只是科技部門推創新,法制部門也該及早預備好「修路鋪橋」,讓創新不踩過界,也讓創作者不被犧牲。我們不該等到問題爆發,才匆匆補破網。
(作者為科技集團法務)

文章標籤
全站熱搜
創作者介紹
創作者 wang23832245 的頭像
wang23832245

wang23832245的部落格

wang23832245 發表在 痞客邦 留言(0) 人氣(2)