Artificial Intelligence Q&A
(Google Translate翻譯)為什麼我們需要規範人工智慧的使用?
歐盟人工智慧法是世界上第一部全面的人工智慧法律。它旨在解決健康、安全和基本權利面臨的風險。該法規也保護民主、法治和環境。
人工智慧系統的採用具有巨大的潛力,可以帶來社會效益、經濟成長並增強歐盟的創新和全球競爭力。然而,在某些情況下,某些人工智慧系統的具體特徵可能會帶來與使用者安全相關的新風險,包括人身安全和基本權利。一些正在廣泛使用的強大人工智慧模型甚至可能帶來系統性風險。
由於缺乏信任,這導致了法律上的不確定性,並且公共當局、企業和公民對人工智慧技術的採用可能會放緩。各國當局採取不同的監管措施可能會導致內部市場分裂。
為了應對這些挑戰,需要採取立法行動,以確保人工智慧系統內部市場運作良好,利益和風險都得到充分解決。
歐盟人工智慧法是世界上第一部全面的人工智慧法律。它旨在解決健康、安全和基本權利面臨的風險。該法規也保護民主、法治和環境。
人工智慧系統的採用具有巨大的潛力,可以帶來社會效益、經濟成長並增強歐盟的創新和全球競爭力。然而,在某些情況下,某些人工智慧系統的具體特徵可能會帶來與使用者安全相關的新風險,包括人身安全和基本權利。一些正在廣泛使用的強大人工智慧模型甚至可能帶來系統性風險。
由於缺乏信任,這導致了法律上的不確定性,並且公共當局、企業和公民對人工智慧技術的採用可能會放緩。各國當局採取不同的監管措施可能會導致內部市場分裂。
為了應對這些挑戰,需要採取立法行動,以確保人工智慧系統內部市場運作良好,利益和風險都得到充分解決。
《人工智慧法》適用於誰?
只要人工智慧系統 投放到歐盟市場,或其使用對歐盟境內的人們產生影響,該法律框架將適用於歐盟內外的公共和私人行為者。
這些義務可能會影響人工智慧系統的提供者(例如履歷篩選工具的開發商)和部署者(例如購買此篩選工具的銀行)。
該法規有某些豁免情況。人工智慧系統在推出市場之前進行的研究、開發和原型設計活動不受這些規定的約束。此外,專為軍事、國防或國家安全目的而設計的人工智慧系統也不受限制,無論執行這些活動的實體類型為何。
風險類別有哪些?
《人工智慧法案》基於人工智慧的前瞻性定義和基於風險的方法,在所有歐盟成員國引入了統一框架:
風險類別有哪些?
《人工智慧法案》基於人工智慧的前瞻性定義和基於風險的方法,在所有歐盟成員國引入了統一框架:
不可接受的風險:
人工智慧的一組非常有限的特別有害的用途違反了歐盟價值觀,因為它們侵犯了基本權利,因此將被禁止:
利用人的脆弱性、操縱和使用潛意識技術;
用於公共和私人目的的社會評分;
僅基於對人員進行分析的個人預測警務 ;
無針對性地抓取 網路或閉路電視的臉部影像以建立或擴展資料庫;
工作場所和教育機構的情緒識別,除非出於醫療或安全原因(即監控飛行員的疲勞程度);
對自然人進行生物辨識分類, 以推論或推論其種族、政治觀點、工會成員身分、宗教或哲學信念或性取向。在執法領域對資料集進行標記或過濾以及對資料進行分類仍然是可能的;
執法部門在公共可訪問空間中進行即時遠端生物識別,但 有極少數例外情況(見下文)。
用於公共和私人目的的社會評分;
僅基於對人員進行分析的個人預測警務 ;
無針對性地抓取 網路或閉路電視的臉部影像以建立或擴展資料庫;
工作場所和教育機構的情緒識別,除非出於醫療或安全原因(即監控飛行員的疲勞程度);
對自然人進行生物辨識分類, 以推論或推論其種族、政治觀點、工會成員身分、宗教或哲學信念或性取向。在執法領域對資料集進行標記或過濾以及對資料進行分類仍然是可能的;
執法部門在公共可訪問空間中進行即時遠端生物識別,但 有極少數例外情況(見下文)。
委員會將在禁令於 2025 年 2 月 2 日生效之前發布有關禁令的指南。
高風險:
提案中定義的數量有限的人工智慧系統,可能對人們的安全或其基本權利(受歐盟基本權利憲章保護)產生不利影響,被認為是高風險的
該法案附件是高風險人工智慧系統列表,可以對其進行審查以適應人工智慧用例的發展。
其中也包括產業聯盟立法所涵蓋的產品的安全組件。根據該部門立法接受第三方合格評定時,它們始終被視為高風險。這類高風險人工智慧系統包括評估某人是否能夠接受某種醫療、獲得某種工作或貸款購買公寓的人工智慧系統。
其他高風險人工智慧系統是警方用於分析人員或評估其犯罪風險的人工智慧系統(除非第 5 條禁止)。
高風險還可能是操作機器人、無人機或醫療設備的人工智慧系統。
具體的透明度風險:
為了培養信任,確保人工智慧使用的透明度非常重要。因此,《人工智慧法案》對某些人工智慧應用提出了具體的透明度要求,例如存在明顯的操縱風險(例如透過使用聊天機器人)或深度造假的情況。用戶應該意識到他們正在與機器互動。
風險最小:
大多數人工智慧系統都可以根據現有立法進行開發和使用,無需額外的法律義務。這些系統的提供者可以自願選擇應用可信任人工智慧的要求並遵守自願行為準則。
此外,《人工智慧法案》考慮了通用人工智慧模型( 包括 大型生成人工智慧模型)可能產生的系統性風險。它們可用於各種任務,並正在成為歐盟許多人工智慧系統的基礎。其中一些模型如果功能強大或廣泛使用,可能會帶來系統性風險。例如,強大的模型可能會導致嚴重事故或被濫用於影響深遠的網路攻擊。如果模型在許多應用程式中傳播有害偏差,許多人可能會受到影響。
此外,《人工智慧法案》考慮了通用人工智慧模型( 包括 大型生成人工智慧模型)可能產生的系統性風險。它們可用於各種任務,並正在成為歐盟許多人工智慧系統的基礎。其中一些模型如果功能強大或廣泛使用,可能會帶來系統性風險。例如,強大的模型可能會導致嚴重事故或被濫用於影響深遠的網路攻擊。如果模型在許多應用程式中傳播有害偏差,許多人可能會受到影響。
我如何知道人工智慧系統是否屬於高風險?
《人工智慧法案》制定了將人工智慧系統分類為高風險的可靠方法。此舉旨在為企業和其他經營者提供法律確定性。
風險分類是基於人工智慧系統的預期目的,符合現有的歐盟產品安全立法。這意味著分類取決於人工智慧系統執行的功能以及該系統的特定目的和使用方式。
人工智慧系統在兩種情況下可以歸類為高風險:
如果人工智慧系統作為安全組件嵌入現有產品立法(附件一)所涵蓋的產品中或本身構成此類產品。例如,這可能是基於人工智慧的醫療軟體。
如果人工智慧系統打算用於人工智慧法案附件三中列出的高風險用例。該清單包括教育、就業、執法或移民等領域的用例。
委員會正在製定高風險分類指南,該指南將在這些規則的應用日期之前發布。
委員會正在製定高風險分類指南,該指南將在這些規則的應用日期之前發布。
附件三中定義的高風險用例有哪些範例?
附件三包括人工智慧的使用可能特別敏感的八個領域,並列出了每個領域的具體用例。如果人工智慧系統打算用於這些用例之一,則該系統被歸類為高風險。
例子有:
人工智慧系統用作某些關鍵基礎設施的安全組件,例如道路交通以及水、燃氣、供熱和電力供應領域;
用於教育和職業培訓的人工智慧系統, 例如評估學習成果、指導學習過程和監控作弊;
用於就業和工人管理以及自營職業的人工智慧系統,例如投放有針對性的招聘廣告、分析和過濾工作申請以及評估候選人;
人工智慧系統用於獲得基本的私人和公共服務 和福利(例如醫療保健)、 自然人的信用評估以及與人壽和健康保險相關的風險評估和定價;
在尚未禁止的執法、移民和邊境管制領域 以及司法和民主進程中使用人工智慧系統;
在不被禁止的情況下,用於生物特徵識別、生物特徵分類和情感識別的人工智慧系統。
用於教育和職業培訓的人工智慧系統, 例如評估學習成果、指導學習過程和監控作弊;
用於就業和工人管理以及自營職業的人工智慧系統,例如投放有針對性的招聘廣告、分析和過濾工作申請以及評估候選人;
人工智慧系統用於獲得基本的私人和公共服務 和福利(例如醫療保健)、 自然人的信用評估以及與人壽和健康保險相關的風險評估和定價;
在尚未禁止的執法、移民和邊境管制領域 以及司法和民主進程中使用人工智慧系統;
在不被禁止的情況下,用於生物特徵識別、生物特徵分類和情感識別的人工智慧系統。
高風險人工智慧系統的提供者有哪些義務?
在將高風險人工智慧系統投放到歐盟市場或以其他方式投入使用之前,提供者必須對其進行合格評定。這將使他們能夠證明他們的系統符合可信任人工智慧的強制性要求(例如資料品質、文件和可追溯性、透明度、人工監督、準確性、網路安全和穩健性)。如果系統或其用途發生重大修改,則必須重複此評估。
作為行業聯盟立法所涵蓋產品安全組件的人工智慧系統,在根據該行業立法接受第三方合格評定時,將始終被視為高風險。此外,所有生物辨識系統,無論其應用為何,都需要第三方合格評定。
高風險人工智慧系統的提供者還必須實施品質和風險管理系統 ,以確保其符合新要求,並將用戶和受影響人員的風險降至最低,即使在產品推出市場後也是如此。
由公共當局或代表其行事的實體部署的高風險人工智慧系統必須在歐盟公共資料庫中註冊,除非這些系統用於執法和移民。後者必須在資料庫的非公開部分註冊,只有相關監管機構才能存取。
為了確保人工智慧系統整個生命週期的合規性,市場監管機構將進行定期審計並促進上市後監控,並允許提供者自願報告他們注意到的任何嚴重事件或違反基本權利義務的行為。 在特殊情況下,當局可能會對投放市場的特定高風險人工智慧系統給予豁免。
如果發生違規情況,這些要求將允許國家當局取得調查人工智慧系統的使用是否符合法律所需的資訊。
標準化在《人工智慧法案》中的作用是什麼?
根據《人工智慧法案》,高風險人工智慧系統將受到特定要求的約束。歐洲統一標準將在這些要求的實施中發揮關鍵作用。
2023 年 5 月,歐盟委員會授權歐洲標準化組織 CEN 和 CENELEC 為這些高風險需求制定標準。該任務現在將進行修改,以與《人工智慧法案》的最終文本保持一致。
歐洲標準化組織將在 2025 年 4 月底之前製定和發布標準。然後,委員會將評估並可能批准這些標準,這些標準將在歐盟官方公報上發布。這些標準一旦發布,將為根據這些標準開發的人工智慧系統提供「符合性推定」。
通用人工智慧模型如何受到監管?
通用人工智慧模型, 包括大型生成式人工智慧 模型,可用於各種任務。單一模型可以整合到大量人工智慧系統中。
整合通用人工智慧模型的人工智慧系統的提供者必須能夠存取所有必要的信息,以確保系統安全並符合人工智慧法案,這一點至關重要。
因此,《人工智慧法案》要求此類模型的提供者 向下游系統提供者揭露某些資訊。 這種透明度使人們能夠更好地理解這些模型。
模型提供者還需要製定適當的政策,以確保他們在訓練模型時尊重版權法 。
此外,其中一些模型可能會帶來系統性風險,因為它們非常強大或廣泛使用。
目前,使用超過 10^25 FLOP 的總運算能力訓練的通用 AI 模型被認為會帶來系統性風險。委員會可以根據技術進步更新或補充該閾值,還可以根據進一步的標準(例如使用者數量或模型的自主程度)將其他模型指定為構成系統性風險。
有系統性風險的模型提供者有義務評估和降低風險, 報告嚴重事件, 進行最先進的測試和模型評估,並確保其模型的網路安全。
邀請提供者與人工智慧辦公室和其他利害關係人合作制定實踐準則,詳細說明規則,從而確保其模型的安全和負責任的開發。本準則應成為通用人工智慧模型提供者證明合規性的核心工具。
為什麼 10^25 FLOPs 是具有系統性風險的 GPAI 的適當閾值?
FLOP 是模型能力的代表,委員會可以根據客觀測量模型能力的進展以及給定性能水平所需的計算能力的發展來向上或向下更新確切的 FLOP 閾值。
高於此閾值的模型的功能尚未充分了解。它們可能會帶來系統性風險,這就是為什麼讓其提供者承擔額外義務是合理的。
《人工智慧法》中規定的關於人工智慧輸出的浮水印和標籤的義務有哪些?
《人工智慧法案》為產生人工智慧生成的內容制定了透明度規則,以解決操縱、欺騙和錯誤訊息的風險。
它要求生成人工智慧系統的提供者以機器可讀的格式標記人工智慧輸出,並確保它們可被檢測為人工生成或操縱的。技術解決方案必須是有效的、可互通的、穩健的和可靠的,只要技術上可行,並考慮到各種類型內容的特殊性和限制、實施成本和公認的現有技術水平,如可能反映的那樣在相關技術標準中。
此外,生成或操縱構成深度偽造的影像、音訊或視訊內容的生成式人工智慧系統的部署者必須明顯地揭露該內容是人為生成或操縱的。
為了向公眾通報公共利益問題而產生或操縱發布的文本的人工智慧系統的部署者還必須披露該文本是人為生成或操縱的。
如果人工智慧產生的內容經過人工審查或編輯控制過程,且自然人或法人對內容的發布負有編輯責任,則此項義務不適用。
人工智慧辦公室將發布指南,為提供者和部署者提供有關第 50 條義務的進一步指導,該條款將在《人工智慧法案》生效兩年後(2026 年 8 月 2 日)適用。
人工智慧辦公室也將鼓勵和促進聯盟層面的行為準則的製定,以簡化與檢測和標記人工生成或操縱內容相關的義務的有效履行。
人工智慧辦公室將發布指南,為提供者和部署者提供有關第 50 條義務的進一步指導,該條款將在《人工智慧法案》生效兩年後(2026 年 8 月 2 日)適用。
人工智慧辦公室也將鼓勵和促進聯盟層面的行為準則的製定,以簡化與檢測和標記人工生成或操縱內容相關的義務的有效履行。
《人工智慧法案》是否面向未來?
《人工智慧法案》制定了一個能夠回應新發展、易於快速調整並允許頻繁評估的法律框架。
《人工智慧法案》設定了以結果為導向的要求和義務,但將具體的技術解決方案和可操作性留給了行業驅動的標準和實踐規範,這些標準和實踐規範可以靈活地適應不同的用例並實現新技術解決方案。
此外,立法本身可以透過授權和實施法案進行修改,例如審查附件三中的高風險用例清單。
最後,將對《人工智慧法案》的某些部分以及最終整個法規進行頻繁評估,以確保確定任何修訂和修正的需要。
《人工智慧法案》如何規範生物特徵辨識?
禁止出於執法目的 在公共場所使用即時遠端生物特徵識別(即使用閉路電視進行臉部辨識) 。成員國可以透過法律引入例外情況,允許在以下情況下使用即時遠端生物特徵識別: 與 16 種特定的非常嚴重犯罪有關的執法活動;
有針對性地搜尋特定受害者、綁架、販運和性剝削人口以及失蹤者;或者防止對人員生命或人身安全的威脅或應對當前或可預見的恐怖攻擊威脅。
任何特殊使用均需獲得司法或獨立行政機構的事先授權, 其決定具有約束力。情況緊急的,24小時內審核;如果授權被拒絕,則必須刪除所有資料和輸出。
在此之前需要 事先基本權利影響評估 ,並應通知相關市場監管機構和資料保護機構。緊急情況下,無需註冊即可開始使用系統。
使用人工智慧系統對 受調查人員進行遠端生物特徵識別(在先前收集的材料中識別人員身分)需要事先獲得司法機關或獨立行政機關的授權,並通知相關資料保護和市場監督機構。
為什麼遠端生物特徵識別需要特定規則?
生物特徵辨識可以採取不同的形式。生物特徵認證和驗證,即解鎖智慧型手機或在邊境口岸進行驗證/認證,以根據其旅行證件檢查個人身份(一對一匹配),仍然不受監管,因為它們不會對基本權利構成重大風險。
相較之下,生物辨識還可以遠端使用,例如識別人群中的人員,這可能會嚴重影響公共空間的隱私。
臉部辨識系統的準確性可能受到多種因素的顯著影響,例如相機品質、光線、距離、資料庫、演算法以及主體的種族、年齡或性別。這同樣適用於步態和語音辨識以及其他生物辨識系統。高度先進的系統不斷降低錯誤接受率。
雖然 99% 的準確率總體上看起來不錯,但如果結果可能導致無辜者受到懷疑,則風險相當大。當應用於大量人群時,例如在火車站,即使是 0.1% 的錯誤率也會產生重大影響。
規則如何保障基本權利?
歐盟和成員國層級已經對基本權利和非歧視採取了強有力的保護,但某些人工智慧應用(「黑盒子」)的複雜性和不透明性可能會帶來問題。
以人為本的人工智慧方法意味著確保人工智慧應用符合基本權利立法。透過將問責制和透明度要求納入高風險人工智慧系統的開發中,並提高執行能力,我們可以確保這些系統的設計從一開始就考慮到法律合規性。如果發生違規行為,此類要求將允許國家當局取得調查人工智慧的使用是否符合歐盟法律所需的資訊。
此外,《人工智慧法案》要求某些高風險人工智慧系統的部署者進行基本權利影響評估。
什麼是基本權利影響評估?誰必須進行此類評估以及何時進行?
高風險人工智慧系統的提供者需要進行風險評估,並以將對健康、安全和基本權利的風險降至最低的方式設計系統。
然而,只有了解高風險人工智慧系統的使用背景才能充分識別對基本權利的某些風險。當高風險人工智慧系統用於可能存在權力不對稱的特別敏感領域時,有必要額外考慮此類風險。
因此,受公法管轄的機構或提供公共服務的私人運營商,以及提供在人壽和健康保險中進行信用評估或價格和風險評估的高風險人工智能係統的運營商,應對對基本權利的影響,並將結果通知國家當局。
在實踐中,許多部署者還必須進行資料保護影響評估。為避免此類情況出現實質重疊,基本權利影響評估應與資料保護影響評估同時進行。
該法規如何解決人工智慧中的種族和性別偏見?
需要強調的是,人工智慧系統不會產生或再現偏見。相反,如果設計和使用得當, 人工智慧系統可以有助於減少偏見和現有的結構性歧視,從而導致更公平和非歧視性的決策(例如在招聘中)。
針對所有高風險人工智慧系統的新強制性要求將服務於此目的。人工智慧系統在技術上必須強大,以確保它們適合目的,並且不會產生有偏見的結果,例如誤報或漏報,從而對邊緣群體產生不成比例的影響,包括基於種族或民族、性別、年齡和其他受保護特徵的群體。
高風險系統還需要使用具有足夠代表性的資料集進行訓練和測試, 以最大程度地減少模型中嵌入的不公平偏見的風險 ,並確保可以透過適當的偏見檢測、糾正和其他緩解措施來解決這些問題。
它們還必須是可追蹤和可審計的,確保 保留適當的文檔,包括用於訓練演算法的數據,這對於事後調查至關重要。
推出市場前後的合規體系 必須確保這些系統受到 定期監控 並及時解決潛在風險。
《人工智慧法》何時全面適用?
《人工智慧法》將於 2026 年 8 月 2 日生效兩年後適用,但以下具體規定除外:與人工智慧素養相關的禁令、定義和規定將於 2025 年 2 月 2 日生效 6 個月後適用;通用人工智慧的治理規則和義務於 2025 年 8 月 2 日生效 12 個月後適用;附錄 II(歐盟協調立法清單)中列出的因嵌入受監管產品而被歸類為高風險的高風險人工智慧系統的義務,在 2027 年 8 月 2 日生效後 36 個月內適用。
《人工智慧法案》將如何執行?
《人工智慧法案》建立了一個兩級治理體系,國家當局負責監督和執行人工智慧系統的規則,而歐盟層級則負責管理通用人工智慧模型。
為了確保歐盟範圍內的一致性和合作,將成立歐洲人工智慧委員會(AI Board),由成員國代表組成,並設有國家監管機構和其他主管機關的專門小組。
人工智慧辦公室是委員會人工智慧法案的執行機構,將為人工智慧委員會提供策略指導。
此外,《人工智慧法案》設立了兩個諮詢機構來提供專家意見:科學小組和諮詢論壇。這些機構將提供利益相關者和跨學科科學界的寶貴見解,為決策提供資訊並確保人工智慧發展的平衡方法。
為什麼需要歐洲人工智慧委員會以及它的作用是什麼?
歐洲人工智慧委員會由 成員國高級代表和歐洲資料保護監管機構組成。作為重要顧問,人工智慧委員會就與人工智慧政策相關的所有事項提供指導,特別是人工智慧監管、創新和卓越政策以及人工智慧國際合作。
人工智慧委員會在確保《人工智慧法案》順利、有效和協調實施方面發揮著至關重要的作用。該委員會將充當人工智慧監管機構(即人工智慧辦公室、國家當局和 EPDS)協調《人工智慧法案》一致應用的論壇。
侵權的處罰有哪些?
成員國必須對違反人工智慧系統規則的行為制定有效、相稱和勸阻性的處罰。
該法規規定了需要考慮的門檻:對於違反禁止做法或不遵守 與資料要求相關的行為,最高可達 3,500 萬歐元或 上一財政年度全球年營業額的 7%(以較高者為準) ;
對於不遵守該法規的任何其他要求或義務的,最高可達 1500 萬歐元或 上一財政年度全球年營業額的 3%;
因應要求向公告機構和國家主管機關提供不正確、不完整或誤導性訊息,最高可達 750 萬歐元或 上一財政年度全球年營業額的 1.5%;
對於每種侵權類別,中小企業的門檻將是兩個金額中較低的一個,而其他公司的門檻則較高。
委員會也可以透過罰款的方式對通用人工智慧模型的提供者執行規則,同時考慮以下門檻: 如果不遵守委員會根據該法規要求的任何義務或措施,最高可達 1500 萬歐元或 上一財政年度全球年營業額的 3%。
歐盟機構、機關或團體應以身作則,這就是為什麼他們也將受到規則的約束和可能的處罰。如果不遵守規定,歐洲資料保護監管機構將有權對其處以罰款。
通用人工智慧實踐守則將如何寫?
第一份《準則》的製定遵循包容性和透明的過程。將建立一個實踐準則全體會議,以促進迭代起草過程,由所有感興趣且符合條件的通用人工智慧模型提供者、將通用人工智慧模型整合到其人工智慧系統中的下游提供者、其他行業組織、其他利害關係人組織(例如作為民間社會或權利持有者組織,以及學術界和其他獨立專家。
人工智慧辦公室已發起徵集意向書,以參與起草第一個《實踐守則》。在呼籲表達興趣的同時,啟動了多利益相關者磋商,以收集所有感興趣的利害關係人對第一個《實踐守則》的意見和意見。答案和提交的意見將構成實踐準則第一次起草迭代的基礎。因此,從一開始,該準則就吸收了廣泛的觀點和專業知識。
全體會議將分為四個工作小組,以便就與詳細說明通用人工智慧模型和具有系統性風險的通用人工智慧模型提供者的義務相關的特定主題進行集中討論。全體會議參與者可以自由選擇他們希望參加的一個或多個工作小組。
人工智慧辦公室將從有興趣的獨立專家中為全體會議的四個工作小組任命主席並酌情任命副主席。主席們將綜合全體會議參與者提交的意見和評論,以反覆起草第一個《行為準則》。
作為《準則》的主要受眾,通用人工智慧模型的提供者除了參加全體會議外,還將被邀請參加專門的研討會,為每一輪迭代起草提供資訊。
9 個月後,第一個《行為準則》的最終版本將在預計 4 月舉行的閉幕全體會議上提出並發布。閉幕全體會議讓通用人工智慧模型提供者有機會表達自己是否打算使用該準則。
如果獲得批准,通用人工智慧模型提供者的實踐準則如何作為合規的核心工具?
在《實踐準則》起草過程結束時,人工智慧辦公室和人工智慧委員會將評估《準則》的充分性並公佈其評估結果。經過評估後,委員會可能會決定批准《行為準則》,並透過實施法案賦予其在歐盟範圍內的普遍有效性。如果在該條例適用時,人工智慧辦公室認為《行為準則》不夠充分,委員會可以為履行相關義務提供通用規則。
因此,通用人工智慧模型的提供者可以依靠《實踐準則》來證明遵守《人工智慧法案》中規定的義務。
根據《人工智慧法案》,實踐準則應包括目標、措施以及適當的關鍵績效指標 (KPI)。
遵守本準則的提供者應定期向人工智慧辦公室報告所採取措施的實施情況及其結果,包括視情況根據關鍵績效指標進行衡量。
這有利於人工智慧辦公室的執法,該辦公室以《人工智慧法》賦予委員會的權力為基礎。這包括對通用人工智慧模型進行評估、向模型提供者請求資訊和措施以及實施制裁的能力。
人工智慧辦公室將酌情鼓勵和促進對《準則》的審查和調整,以反映技術和最先進水平的進步。
一旦統一標準發布並被人工智慧辦公室評估為適合涵蓋相關義務,遵守歐洲統一標準應賦予提供者合規性推定。
如果沒有實踐守則或統一標準,或者他們選擇不依賴這些標準,通用人工智慧模型的提供者也應該能夠使用替代的適當手段來證明合規性。
《人工智慧法》是否包含有關環境保護和永續發展的條款?
AI提案的目標是解決安全和基本權利的風險,包括高水準環境保護的基本權利。環境也是明確提及和保護的合法權益之一。
委員會被要求要求歐洲標準化組織就報告和文件流程製定標準化交付成果,以提高人工智慧系統的資源性能,例如減少高風險人工智慧系統在其生命週期內的能源和其他資源消耗,以及能源通用人工智慧模型的高效開發。
此外,委員會應在該法規實施之日起兩年內以及此後每四年提交一份關於通用模型和評估能源效率開發標準化交付成果進展情況的審查報告。或行動。
此外,通用人工智慧模型的提供者需要大量資料進行訓練,因此容易產生高能耗,因此需要揭露能耗。如果通用人工智慧模型存在系統性風險,還需要評估能源效率。
委員會有權為這些揭露義務制定適當且可比較的衡量方法。
新規則如何支持創新?
監管框架可以透過兩種方式增強人工智慧的採用。一方面,用戶信任度的提高將增加企業和公共機構對人工智慧的需求。另一方面,透過提高法律確定性和協調規則,人工智慧提供者將進入更大的市場,提供用戶和消費者欣賞和購買的產品。規則將僅在嚴格需要的情況下適用,並以最小化經濟運營商的負擔和輕型治理結構的方式適用。
《人工智慧法案》進一步促進了監管沙箱和真實世界測試 的創建 ,為在有限時間內測試創新技術提供了受控環境,從而促進公司、中小企業和新創公司遵守《人工智慧法案》的創新。這些措施,連同其他措施,例如額外的 人工智慧卓越中心網路和人工智慧、數據和機器人技術的公私合作夥伴關係, 以及使用數位創新中心 和 測試和實驗設施, 將有助於為公司建立正確的框架條件開發和部署人工智慧。
高風險人工智慧系統的真實世界測試最多可進行 6 個月(可再延長 6 個月)。測試前,需要製定計劃並提交給市場監管機構,市場監管機構必須批准該計劃和具體測試條件,如果30天內沒有答复,則默認默認批准。測試可能會受到當局的突擊檢查。
現實世界測試只能在特定的保障措施下進行,例如,現實世界測試中的系統使用者必須提供知情同意,測試不得對他們產生任何負面影響,結果需要是可逆的或可忽略的,並且他們的數據需要測試結束後刪除。應向弱勢群體提供特殊保護,即由於他們的年齡、身體或精神殘疾而受到的保護。
《AI Pact》在《AI Act》的實施上扮演什麼角色?
《人工智慧公約》由Breton 專員於2023 年5 月發起,旨在加強人工智慧辦公室與組織(第一支柱)之間的互動,並鼓勵業界自願承諾在法定截止日期之前開始實施《人工智慧法案》的要求(第二支柱)。
特別是,在第一支柱下,參與者將為創建協作社群做出貢獻,分享他們的經驗和知識。其中包括由人工智慧辦公室組織的研討會,讓參與者更了解《人工智慧法案》、他們的責任以及如何為其實施做好準備。反過來,人工智慧辦公室可以收集有關參與者所面臨的最佳實踐和挑戰的見解。
根據第二個支柱,鼓勵組織透過自願承諾主動揭露其正在實施的流程和實踐,以預測合規性。承諾旨在作為“參與聲明”,並將包含滿足《人工智慧法案》部分要求的行動(計劃中或正在進行中)。
《人工智慧法案》的大部分規則(例如,對高風險人工智慧系統的一些要求)將在過渡期(即生效與適用日期之間的時間)結束時適用。
在此背景下,在《人工智慧公約》的框架內,人工智慧辦公室呼籲所有組織積極預見並實施《人工智慧法案》的一些關鍵條款,以期盡快減輕對健康、安全和基本權利的風險。 。
繼 2023 年 11 月發起號召之後,已有 700 多個組織表示有興趣加入 AI Pact 倡議。自願承諾的正式簽署計劃於 2024 年秋季進行。
歐盟方法的國際層面是什麼?
人工智慧具有超越國界的後果與挑戰;因此,國際合作很重要。人工智慧辦公室根據《人工智慧法》和《人工智慧協調計畫》負責歐盟在人工智慧領域的國際參與。歐盟尋求與國際夥伴合作,並符合基於規則的多邊體系及其所秉持的價值觀,促進人工智慧的負責任管理和良好治理。
歐盟透過雙邊和多邊方式致力於促進值得信賴、以人為本和符合道德的人工智慧。因此,歐盟參與了討論人工智慧的多邊論壇——特別是七國集團、二十國集團、經合組織、歐洲委員會、人工智慧全球夥伴關係和聯合國——並且歐盟與加拿大、美國等有著密切的雙邊關係、印度、日本、韓國、新加坡以及拉丁美洲和加勒比海地區。
*更新於 01/08/2024
沒有留言:
張貼留言