該管理?還是鼓勵?AI治理迫在眉睫
AI風起雲湧,在盡享AI便利之際,各國也開始思考是否要跟上歐盟的腳步,進一步立法管制!歐盟於2024年8月生效首部AI法,成為全球首例,有科技島之稱的台灣也不落人後,於2024年3月將AI基本法草案送交立院審議,該案若經立法院通過,將成為全球第二部國家級AI法,進程較目前僅有AI行政命令和州政府法案的美國還快。
為趕在AI基本法草案過關前,找出最合適台灣的AI路徑,台灣玉山科技協會與理律法律事務所於2025年1月8日特別舉辦「如何建構適合台灣的AI管制與法律環境」論壇,並邀請產官學界的專家齊聚一堂探討 AI 法律議題。
台灣玉山科技協會理事長童子賢表示,AI浪潮橫掃全球,「AI治理」成為各國政府與企業迫在眉睫的重要課題。事實上,早在2024年4、5月間,他就曾不斷被相關單位徵詢意見,當時就曾提及AI基本法草案預訂在2025年7月推出,並已草擬了18條法則。
至於台灣為何要跟進擬定AI基本法呢?童子賢理事長表示,AI是一門發展非常快速的科學技術,就好像二十多年前的網路一樣,會很快瀰漫、浸潤,甚至侵犯所有的領域。只要有數位運算的地方,甚至有網絡通訊的地方都有可能被AI浸潤,由於茲事體大,到底AI該被鼓勵還是規範,引發全球熱烈深度討論。
童子賢理事長傾向AI適度放寬與鼓勵
台灣趕在2024年推出AI基本法草案在全球名列前茅,在此之前,只有歐盟明確推出與AI相關的法規。若以歐盟為鑑,可以發現歐盟的法規大部分傾向於約束跟管制,不過,童子賢理事長認為此舉並不代表歐盟不鼓勵AI,而是因為歐盟的經濟自由化已上軌道,鼓勵AI產業已無須政府出手。考量到AI影響的層面極廣,甚至可能會侵犯基本人權,據此,歐盟已將其訂入基本法中。
童子賢理事長強調,光靠一部基本法還不夠,因為基本法只能做到政策宣示方向的指引,法規要落地,還有很多細膩的規範要深度探討並制訂才行,這也是此次舉辦論壇的目的。他說,AI和醫療、金融一樣攸關民生,「做得好,福國利民,做不好就有可能變成洪水猛獸。」對於AI,他個人傾向於適度放寬和鼓勵,這在科技基本法裡就有規範,教職員或準公務人員參與技術創新有成,得技術入股,並壑免不得兼職的限制為例。他建議在AI基本法之外,也可透過不斷的研討,制訂出更有用的法規,如此一來,不但可以兼顧有效管制,還可以從而引導AI產業蓬勃發展。
李家慶所長:AI草案能否2025年過關,尚待觀察
理律法律事務所所長李家慶在致詞時表示,此次論壇的主題是「如何建構適合台灣的 AI 管制與法律環境」,開宗明義已說明AI需要管制,現只是如何管制的問題,如何管制AI,已成了未來法案規範的重點。據此,全球在發展AI的同時,也競相擬具屬於自己的AI法規,以法規已正式上路的歐盟為例,做法比較傾向從風險的取向將風險分級,並給予不同程度的管制,除歐盟外,韓國日前也在沒有總統狀況下,快速地通過了AI相關管制法令。台灣也在2024年擬具了草案,至於此草案會不會在2025年通過立法院審議,尚待觀察。
國家科學及技術委員會政務副主任委員陳炳宇則表示,AI成了去年最紅的關鍵字,國科會2024年7月公布了AI基本法草案,關心此事的人可能都已經看過此草案的內容,國科會也在過程中收到了很多回饋和修正,其中希望促進發展或是管制的聲音都有,目前已匯總相關資料送交行政院進行審議。嚴格來說,草案只是框架,實質內容尚有待各部會進一步協調,考量到各部會需要管制和開放的力道都不同,再者,AI變化比大家想像得快很多,現訂下的法規會不會成為未來的限制,也要集眾人之智,才能做出通盤的考量。
世新大學法律系副教授戴豪君以「歐盟AI管制法規趨勢與借鏡」為題給予專題演講。戴豪君副教授表示,歐盟的AI法本身的條文就多達兩百頁,大概有十萬字,後續要訂的子法據一歐洲研究機構統計,尚有130項子法要訂定,嚴格來說,是一個很龐雜的體系。
風險不同,管理力度各異
戴豪君副教授指出,全球有這麼多國家在研擬AI法案,可初步將其歸納成三個模式,第一為美國的「市場驅動模式」,此模式傾向通過經濟誘因跟市場發展來推動AI的發展。第二是中國大陸的國家驅動模式,此模式著重在社會秩序的危機管理,政府會透過對國有企業或是大型科技公司的掌控,來推動人工智慧的發展。第三個模式即是歐盟的「權利驅動模式」,由於歐盟對自己的認知是歐盟為AI使用國而非提供國,所以在法規擬訂上,會就基本人權跟消費者權益嚴加規範。
AI到底要管的是什麼?戴豪君副教授表示,包括演算法、資料、算力都要做管理。在演算法部分,必須要注意不要對民眾造成偏見或是歧視;資料的部分,除要有足夠的資料外,資料的正確性和取得資料的合法性都要兼顧。
歐盟的人工智慧法案其實內含的不只是人工智慧法而已,嚴格來說,還包含資料法、治安法、數位服務法、個人資料保護法,而人工智慧法只是其中的最後一塊拼圖。儘管人工智慧法已於2024年8月1日正式生效,但考量到風險等級不同,含須全面禁止的不可接受風險、被允許使用、但需遵守最嚴格規範的高風險及有限風險、低風險四種,須依輕重緩急循序進行,估整體法案落實時間恐拉長到2027年8月2日。其中與台灣最為相關的是高風險的人工智慧系統,就如同產品出口到歐盟必須拿到歐盟的CE認證,高風險人工智慧系統也一樣,要進入歐盟也必須取得認證。
透過PDCA循環式管理,確保法遵萬無一失
理律法律事務所合夥律師曾更瑩在以「台灣AI生態系發展&當前法規挑戰」為題的專題演講中指出,要討論台灣要不要將AI列管,首先必須找出維管的對象是誰,就台灣的AI產業生態系做一分析,可以發現台灣小到晶片、主機板,電源供應器大到伺服器,甚至組建語言模型、提供雲端通訊等垂直應用業者都有,足見AI列管對象在台灣十分龐雜,包括軟硬體業者都有。
除了AI族群龐大外,另一個促成立法的原因則來自於已看到風險要歸管,人工智慧在使用時,會不會出現利益衝突、偏差或歧視的問題、會不會助長不實廣告和資訊,甚或與公平教育、消費者保護和個資保護出現扞格時,如何取得平衡,也值得探討。
其中被列為第一個風險點的就是個資,要發展AI最重要的就是資料,沒有資料就沒有AI,在蒐集個人資料的時候,最常碰到的就是個資法第十九條裡面列的「合法事由」的問題,除列名原始蒐集資料的目的,在蒐集資料時還必須經由當事人同意,一旦應用資料時發現超出原始收集的目的,則必須重新取得同意。此外,傳輸時也有要克服的問題,比如資料在傳輸時保全難度甚高,一旦個資外洩,不單要通報主管機關,還要通知當事人,若碰到要跨境傳輸資料的問題更多,自然歐盟將邊界鎖起來之後,個資的跨境難度愈來愈高,會不會發生資料跨境傳出國後卻拿不回來的狀況。此外,跨境傳輸資料還會碰到跨國法遵的問題。舉例來說,如果在泰國收集日本人的資料,除了要遵守泰國當地的規定外,也必須留意日本個資法的規定。
著眼於台灣的出口經濟,AI大廠服務的都是遠在海外的消費電子大廠,曾更瑩律師建議,對台廠來說,最重要的是要遵守歐盟人工智慧法,畢竟台灣生產的產品有很多都是外銷到歐盟去,對政府而言,如何輔導廠商符合國外規定較為重要。
此外,隱私權的保護也不容輕忽。隱私權的保護很複雜,比較保險的做法就是遵照各自的法規採PDCA的四個程序,在計劃好後不斷的循環檢討。在資安部分,曾更瑩律師引述理律從事資安工作的律師的建議,公司最好要有資安長或資安人員的配置,且內部要有資安執行機制。至於現正流行的生成式AI,最重要的是,取得資料必須獲得對方的同意,另外合約、分工在擬定時必須說清楚,從模式的訓練到生成產品,每一步的責任都要細分清楚,才能夠在日趨繁雜的法令環境中,永保安康。
論壇後半場進入綜合座談,由曾更瑩律師主持,與多位與談人共同討論如何建構適合台灣的AI管制與法律環境。聯發科技資深處長梁伯嵩表示,各界高估科技在短期發展、低估長期的影響,AI也一樣。目前仍處於發展第一階段,在於賣淘金工具(即鏟子)階段,如GPU、TPU、APU等。下一階段將從吸引注意力到技術變現,進入商業模式發展,以創造正向經濟,如何使用AI增加生產力。
國家安全會議諮詢委員李育杰則提出警告,AI改變大家的生活,自Chat GPT推出以來,他投入了大量時間進行操作,但卻偶爾有出現簡體中文的現象。他提醒:「如果所有台灣人民都使用來自中國的聊天機器人,中國就會掌握我們的想法,還會教我們怎麼做,這可能成為國家安全風險。」
台灣人工智慧學校基金會秘書長侯宜秀說,她認同AI要管制,但時間點是關鍵。她也同意風險分級,類別愈多,管制愈細緻。以歐盟分四級為例,她認為,重點是對應的管制工具是什麼,要去盤點出來。
理律法律事務所合夥律師吳志光認為,主管機關介入,就是一雙看不見的手。企業運用AI的經營模式,就是一個市場,既是如此,「這雙手就不必進來。」針對AI聯合行為,重要的是政府的執法態度,而不要過早介入市場。
|