2025年2月2日以来、ドキュメントがあります- IAを規制するグローバルな立法枠組みは、ヨーロッパで徐々に適用され始めます。この最初のステップは、職場での感情の認識など、高いリスクとみなされる特定の使用を禁止しています。企業は、AIシステムのリスクのレベルに応じてより厳しい債券を課す次の締め切りに備える必要があります。

先駆的なテキストや水の中の剣?
加盟国間の激しい交渉の後、2024年5月に採択されたAI Actはリスクのレベルに応じて、人工知能システムの開発、マーケティング、および使用を規制する。これを行うために、テキストはセキュリティレベルに対応する4つのカテゴリを確立しました。
4つのAI分類:
•禁止:AIによる大規模な認知操作や社会的評価など、危険とみなされる慣行。
•高リスクAI:セキュリティまたは基本的権利に直接影響を与えるシステム(例:顔認識、採用、健康、教育)。
•限られたリスクのあるAI:特定のアプリケーションに対する透明性の義務(例:ディープフェイク、チャットボット)。
•最小限のリスクでのAI:自由使用、制限なし(例:写真フィルター、コンテンツの推奨事項)。

これまでのところ、AI法は有効ですが、適用されません。 2025年2月2日以来、特定の禁止が有効になります、職場や学校での感情の認識の終了として、一般化された生体認証監視システムの禁止または他の要件の中国の社会的評価システムの抑制は、特に開発または運営の企業に徐々に適用されます高リスク。
したがって、ヨーロッパで活動している企業は、AI法の次の締め切りを予測する必要があります。 2026年までに、彼らは特にに関連する厳格な基準に従わなければなりません高リスクAIの認証義務、アルゴリズムの定期的な監査と強化された制御、およびデータと自動化された意思決定の透明性の向上
欧州AI法とは何ですか?
AI法は、人工知能に関する欧州規制(AI)です。これは、重要な規制機関によって確立された最初の完全なAI規制です。法律は、AIアプリケーションを3つのリスクカテゴリに分類します。第一に、中国で使用されているような政府が管理する社会的評価システムなど、容認できないリスクを生み出すアプリケーションとシステムは禁止されています。第二に、求職者を分類するCVスキャンツールなど、高リスクアプリケーションは特定の法的要件の対象となります。最後に、高リスクとして明示的に禁止されていない、または主に逃亡するリスクとしてリストされていないアプリケーション。
全会一致ではない規制
AI法がデジタル倫理の大きな進歩として歓迎されている場合、それは批判や懸念も引き起こします。したがって、一部の企業は、特に主要な技術セクター、財務、および健康であるため、新しい規制を順守するために今すぐ戦略を検討する必要があります。
それを恐れる人もいます過度に剛性のある設定米国と中国に対するイノベーションとヨーロッパの競争力をブレーキをかける、特にヨーロッパはすでに彼らと比較して遅れているので。他の人々は、漂流を避け、AIの倫理的発展を保証するためにこの監督が必要であると反対に信じています。
このアプリケーションの第1段階により、ヨーロッパは人工知能の監督において世界のリーダーになるという野望を示しています。しかし、彼女はなんとかこの敬iousな願いを築くことができますか?今後数年間は、AI Actsの実際の影響とヨーロッパの技術革新への影響を測定するために決定的です。企業、彼らには本当に選択肢がなく、今ではこの新しい規制の枠組みに適応しなければなりません。
