
قانون الذكاء الاصطناعي الاوروبي يدخل حيز التنفيذ
- Europe and Arabs
- الجمعة , 2 أغسطس 2024 6:19 ص GMT
بروكسل : اوروبا والعرب
وفقا لبيان صدر عن مقر المفوضية الاوروبية في بروكسل،دخل قانون الذكاء الاصطناعي الأوروبي (AI Act)، وهو أول لائحة شاملة في العالم بشأن الذكاء الاصطناعي، حيز التنفيذ. تم تصميم قانون الذكاء الاصطناعي لضمان أن الذكاء الاصطناعي المطوَّر والمستخدم في الاتحاد الأوروبي جدير بالثقة، مع ضمانات لحماية الحقوق الأساسية للناس. يهدف القانون إلى إنشاء سوق داخلية متناغمة للذكاء الاصطناعي في الاتحاد الأوروبي، وتشجيع تبني هذه التكنولوجيا وخلق بيئة داعمة للابتكار والاستثمار.
يقدم قانون الذكاء الاصطناعي تعريفًا مستقبليًا للذكاء الاصطناعي، استنادًا إلى نهج قائم على سلامة المنتج والمخاطر في الاتحاد الأوروبي:
أدنى المخاطر: تندرج معظم أنظمة الذكاء الاصطناعي، مثل أنظمة التوصية المدعومة بالذكاء الاصطناعي ومرشحات البريد العشوائي، ضمن هذه الفئة. لا تواجه هذه الأنظمة أي التزامات بموجب قانون الذكاء الاصطناعي بسبب مخاطرها الضئيلة على حقوق المواطنين وسلامتهم. يمكن للشركات أن تتبنى طواعية قواعد سلوك إضافية.
مخاطر الشفافية المحددة: يجب أن تكشف أنظمة الذكاء الاصطناعي مثل برامج الدردشة للمستخدمين بوضوح أنها تتفاعل مع آلة. يجب تصنيف بعض المحتويات التي يتم إنشاؤها بواسطة الذكاء الاصطناعي، بما في ذلك التزييف العميق، على هذا النحو، ويجب إبلاغ المستخدمين عند استخدام أنظمة التصنيف البيومترية أو التعرف على المشاعر. بالإضافة إلى ذلك، سيتعين على المزودين تصميم الأنظمة بطريقة يتم بها تمييز المحتوى الصوتي والفيديو والنصي والصور الاصطناعية بتنسيق قابل للقراءة آليًا، ويمكن اكتشافه على أنه تم إنشاؤه أو التلاعب به بشكل مصطنع.
مخاطر عالية: سيتعين على أنظمة الذكاء الاصطناعي التي تم تحديدها على أنها عالية المخاطر الامتثال لمتطلبات صارمة، بما في ذلك أنظمة تخفيف المخاطر، والجودة العالية لمجموعات البيانات، وتسجيل النشاط، والتوثيق التفصيلي، ومعلومات المستخدم الواضحة، والإشراف البشري، ومستوى عالٍ من المتانة والدقة والأمن السيبراني. ستعمل صناديق الحماية التنظيمية على تسهيل الابتكار المسؤول وتطوير أنظمة الذكاء الاصطناعي المتوافقة. تشمل أنظمة الذكاء الاصطناعي عالية المخاطر على سبيل المثال أنظمة الذكاء الاصطناعي المستخدمة في التوظيف، أو لتقييم ما إذا كان شخص ما يحق له الحصول على قرض، أو تشغيل الروبوتات المستقلة.
مخاطر غير مقبولة: سيتم حظر أنظمة الذكاء الاصطناعي التي تعتبر تهديدًا واضحًا للحقوق الأساسية للناس. ويشمل ذلك أنظمة الذكاء الاصطناعي أو التطبيقات التي تتلاعب بالسلوك البشري للالتفاف على الإرادة الحرة للمستخدمين، مثل الألعاب التي تستخدم المساعدة الصوتية التي تشجع السلوك الخطير للقصر، والأنظمة التي تسمح "بالتسجيل الاجتماعي" من قبل الحكومات أو الشركات، وتطبيقات معينة للشرطة التنبؤية. بالإضافة إلى ذلك، سيتم حظر بعض استخدامات الأنظمة الحيوية، على سبيل المثال أنظمة التعرف على المشاعر المستخدمة في مكان العمل وبعض الأنظمة لتصنيف الأشخاص أو التعرف البيومتري عن بعد في الوقت الفعلي لأغراض إنفاذ القانون في الأماكن التي يمكن الوصول إليها بشكل عام (مع استثناءات ضيقة).
لاستكمال هذا النظام، يقدم قانون الذكاء الاصطناعي أيضًا قواعد لما يسمى بنماذج الذكاء الاصطناعي للأغراض العامة، وهي نماذج ذكاء اصطناعي عالية القدرة ومصممة لأداء مجموعة واسعة من المهام مثل إنشاء نص يشبه الإنسان. تُستخدم نماذج الذكاء الاصطناعي للأغراض العامة بشكل متزايد كمكونات لتطبيقات الذكاء الاصطناعي. سيضمن قانون الذكاء الاصطناعي الشفافية على طول سلسلة القيمة ويعالج المخاطر النظامية المحتملة للنماذج الأكثر قدرة.
تطبيق وإنفاذ قواعد الذكاء الاصطناعي
لدى الدول الأعضاء حتى 2 أغسطس 2025 لتعيين السلطات الوطنية المختصة، التي ستشرف على تطبيق قواعد أنظمة الذكاء الاصطناعي وتنفيذ أنشطة مراقبة السوق. سيكون مكتب الذكاء الاصطناعي التابع للمفوضية هو الهيئة الرئيسية لتنفيذ قانون الذكاء الاصطناعي على مستوى الاتحاد الأوروبي، فضلاً عن كونه الجهة المنفذة لقواعد نماذج الذكاء الاصطناعي للأغراض العامة.
ستدعم ثلاث هيئات استشارية تنفيذ القواعد. سيضمن مجلس الذكاء الاصطناعي الأوروبي تطبيقًا موحدًا لقانون الذكاء الاصطناعي عبر الدول الأعضاء في الاتحاد الأوروبي وسيعمل كهيئة رئيسية للتعاون بين المفوضية والدول الأعضاء. ستقدم لجنة علمية من الخبراء المستقلين المشورة الفنية والمدخلات بشأن التنفيذ. على وجه الخصوص، يمكن لهذه اللجنة إصدار تنبيهات لمكتب الذكاء الاصطناعي حول المخاطر المرتبطة بنماذج الذكاء الاصطناعي للأغراض العامة. يمكن لمكتب الذكاء الاصطناعي أيضًا تلقي التوجيه من منتدى استشاري يتألف من مجموعة متنوعة من أصحاب المصلحة.
ستُغرم الشركات التي لا تمتثل للقواعد. يمكن أن تصل الغرامات إلى 7٪ من إجمالي المبيعات السنوية العالمية لانتهاكات تطبيقات الذكاء الاصطناعي المحظورة، وما يصل إلى 3٪ لانتهاكات الالتزامات الأخرى وما يصل إلى 1.5٪ لتقديم معلومات غير صحيحة.
ستبدأ أغلب قواعد قانون الذكاء الاصطناعي في التطبيق في 2 أغسطس 2026. ومع ذلك، فإن حظر أنظمة الذكاء الاصطناعي التي تعتبر أنها تشكل خطرًا غير مقبول سيطبق بالفعل بعد ستة أشهر، في حين ستطبق قواعد ما يسمى بنماذج الذكاء الاصطناعي للأغراض العامة بعد 12 شهرًا.
ولسد الفجوة بين الفترة الانتقالية قبل التنفيذ الكامل، أطلقت المفوضية ميثاق الذكاء الاصطناعي. وتدعو هذه المبادرة مطوري الذكاء الاصطناعي إلى تبني الالتزامات الرئيسية لقانون الذكاء الاصطناعي طواعية قبل المواعيد القانونية.
كما تعمل المفوضية على تطوير إرشادات لتحديد وتفصيل كيفية تنفيذ قانون الذكاء الاصطناعي وتسهيل الأدوات التنظيمية المشتركة
في 9 ديسمبر 2023، رحبت المفوضية بالاتفاق السياسي بشأن قانون الذكاء الاصطناعي. في 24 يناير 2024، أطلقت المفوضية حزمة من التدابير لدعم الشركات الناشئة والشركات الصغيرة والمتوسطة الحجم الأوروبية في تطوير الذكاء الاصطناعي الجدير بالثقة. في 29 مايو 2024، كشفت المفوضية عن مكتب الذكاء الاصطناعي. في 9 يوليو 2024، دخلت لائحة EuroHPC JU المعدلة حيز التنفيذ، مما يسمح بإنشاء مصانع الذكاء الاصطناعي. يسمح هذا باستخدام أجهزة الكمبيوتر العملاقة المخصصة للذكاء الاصطناعي لتدريب نماذج الذكاء الاصطناعي للأغراض العامة (GPAI).
يقدم قانون الذكاء الاصطناعي تعريفًا مستقبليًا للذكاء الاصطناعي، استنادًا إلى نهج قائم على سلامة المنتج والمخاطر في الاتحاد الأوروبي:
أدنى المخاطر: تندرج معظم أنظمة الذكاء الاصطناعي، مثل أنظمة التوصية المدعومة بالذكاء الاصطناعي ومرشحات البريد العشوائي، ضمن هذه الفئة. لا تواجه هذه الأنظمة أي التزامات بموجب قانون الذكاء الاصطناعي بسبب مخاطرها الضئيلة على حقوق المواطنين وسلامتهم. يمكن للشركات أن تتبنى طواعية قواعد سلوك إضافية.
مخاطر الشفافية المحددة: يجب أن تكشف أنظمة الذكاء الاصطناعي مثل برامج الدردشة للمستخدمين بوضوح أنها تتفاعل مع آلة. يجب تصنيف بعض المحتويات التي يتم إنشاؤها بواسطة الذكاء الاصطناعي، بما في ذلك التزييف العميق، على هذا النحو، ويجب إبلاغ المستخدمين عند استخدام أنظمة التصنيف البيومترية أو التعرف على المشاعر. بالإضافة إلى ذلك، سيتعين على المزودين تصميم الأنظمة بطريقة يتم بها تمييز المحتوى الصوتي والفيديو والنصي والصور الاصطناعية بتنسيق قابل للقراءة آليًا، ويمكن اكتشافه على أنه تم إنشاؤه أو التلاعب به بشكل مصطنع.
مخاطر عالية: سيتعين على أنظمة الذكاء الاصطناعي التي تم تحديدها على أنها عالية المخاطر الامتثال لمتطلبات صارمة، بما في ذلك أنظمة تخفيف المخاطر، والجودة العالية لمجموعات البيانات، وتسجيل النشاط، والتوثيق التفصيلي، ومعلومات المستخدم الواضحة، والإشراف البشري، ومستوى عالٍ من المتانة والدقة والأمن السيبراني. ستعمل صناديق الحماية التنظيمية على تسهيل الابتكار المسؤول وتطوير أنظمة الذكاء الاصطناعي المتوافقة. تشمل أنظمة الذكاء الاصطناعي عالية المخاطر على سبيل المثال أنظمة الذكاء الاصطناعي المستخدمة في التوظيف، أو لتقييم ما إذا كان شخص ما يحق له الحصول على قرض، أو تشغيل الروبوتات المستقلة.
مخاطر غير مقبولة: سيتم حظر أنظمة الذكاء الاصطناعي التي تعتبر تهديدًا واضحًا للحقوق الأساسية للناس. ويشمل ذلك أنظمة الذكاء الاصطناعي أو التطبيقات التي تتلاعب بالسلوك البشري للالتفاف على الإرادة الحرة للمستخدمين، مثل الألعاب التي تستخدم المساعدة الصوتية التي تشجع السلوك الخطير للقصر، والأنظمة التي تسمح "بالتسجيل الاجتماعي" من قبل الحكومات أو الشركات، وتطبيقات معينة للشرطة التنبؤية. بالإضافة إلى ذلك، سيتم حظر بعض استخدامات الأنظمة الحيوية، على سبيل المثال أنظمة التعرف على المشاعر المستخدمة في مكان العمل وبعض الأنظمة لتصنيف الأشخاص أو التعرف البيومتري عن بعد في الوقت الفعلي لأغراض إنفاذ القانون في الأماكن التي يمكن الوصول إليها بشكل عام (مع استثناءات ضيقة).
لاستكمال هذا النظام، يقدم قانون الذكاء الاصطناعي أيضًا قواعد لما يسمى بنماذج الذكاء الاصطناعي للأغراض العامة، وهي نماذج ذكاء اصطناعي عالية القدرة ومصممة لأداء مجموعة واسعة من المهام مثل إنشاء نص يشبه الإنسان. تُستخدم نماذج الذكاء الاصطناعي للأغراض العامة بشكل متزايد كمكونات لتطبيقات الذكاء الاصطناعي. سيضمن قانون الذكاء الاصطناعي الشفافية على طول سلسلة القيمة ويعالج المخاطر النظامية المحتملة للنماذج الأكثر قدرة.
تطبيق وإنفاذ قواعد الذكاء الاصطناعي
لدى الدول الأعضاء حتى 2 أغسطس 2025 لتعيين السلطات الوطنية المختصة، التي ستشرف على تطبيق قواعد أنظمة الذكاء الاصطناعي وتنفيذ أنشطة مراقبة السوق. سيكون مكتب الذكاء الاصطناعي التابع للمفوضية هو الهيئة الرئيسية لتنفيذ قانون الذكاء الاصطناعي على مستوى الاتحاد الأوروبي، فضلاً عن كونه الجهة المنفذة لقواعد نماذج الذكاء الاصطناعي للأغراض العامة.
ستدعم ثلاث هيئات استشارية تنفيذ القواعد. سيضمن مجلس الذكاء الاصطناعي الأوروبي تطبيقًا موحدًا لقانون الذكاء الاصطناعي عبر الدول الأعضاء في الاتحاد الأوروبي وسيعمل كهيئة رئيسية للتعاون بين المفوضية والدول الأعضاء. ستقدم لجنة علمية من الخبراء المستقلين المشورة الفنية والمدخلات بشأن التنفيذ. على وجه الخصوص، يمكن لهذه اللجنة إصدار تنبيهات لمكتب الذكاء الاصطناعي حول المخاطر المرتبطة بنماذج الذكاء الاصطناعي للأغراض العامة. يمكن لمكتب الذكاء الاصطناعي أيضًا تلقي التوجيه من منتدى استشاري يتألف من مجموعة متنوعة من أصحاب المصلحة.
ستُغرم الشركات التي لا تمتثل للقواعد. يمكن أن تصل الغرامات إلى 7٪ من إجمالي المبيعات السنوية العالمية لانتهاكات تطبيقات الذكاء الاصطناعي المحظورة، وما يصل إلى 3٪ لانتهاكات الالتزامات الأخرى وما يصل إلى 1.5٪ لتقديم معلومات غير صحيحة.
ستبدأ أغلب قواعد قانون الذكاء الاصطناعي في التطبيق في 2 أغسطس 2026. ومع ذلك، فإن حظر أنظمة الذكاء الاصطناعي التي تعتبر أنها تشكل خطرًا غير مقبول سيطبق بالفعل بعد ستة أشهر، في حين ستطبق قواعد ما يسمى بنماذج الذكاء الاصطناعي للأغراض العامة بعد 12 شهرًا.
ولسد الفجوة بين الفترة الانتقالية قبل التنفيذ الكامل، أطلقت المفوضية ميثاق الذكاء الاصطناعي. وتدعو هذه المبادرة مطوري الذكاء الاصطناعي إلى تبني الالتزامات الرئيسية لقانون الذكاء الاصطناعي طواعية قبل المواعيد القانونية.
كما تعمل المفوضية على تطوير إرشادات لتحديد وتفصيل كيفية تنفيذ قانون الذكاء الاصطناعي وتسهيل الأدوات التنظيمية المشتركة
في 9 ديسمبر 2023، رحبت المفوضية بالاتفاق السياسي بشأن قانون الذكاء الاصطناعي. في 24 يناير 2024، أطلقت المفوضية حزمة من التدابير لدعم الشركات الناشئة والشركات الصغيرة والمتوسطة الحجم الأوروبية في تطوير الذكاء الاصطناعي الجدير بالثقة. في 29 مايو 2024، كشفت المفوضية عن مكتب الذكاء الاصطناعي. في 9 يوليو 2024، دخلت لائحة EuroHPC JU المعدلة حيز التنفيذ، مما يسمح بإنشاء مصانع الذكاء الاصطناعي. يسمح هذا باستخدام أجهزة الكمبيوتر العملاقة المخصصة للذكاء الاصطناعي لتدريب نماذج الذكاء الاصطناعي للأغراض العامة (GPAI).
لا يوجد تعليقات