Daily Beirut

الذكاء الإصطناعي

ميتا تضع حدودًا صارمة لاستخدام الذكاء الاصطناعي

··قراءة 2 دقيقتان
ميتا تضع حدودًا صارمة لاستخدام الذكاء الاصطناعي
مشاركة

مارك زوكربيرج، الرئيس التنفيذي لشركة ميتا، تعهد بجعل الذكاء الاصطناعي العام (AGI) متاحًا بشكل مفتوح يومًا ما، أي الذكاء الاصطناعي الذي يمتلك القدرة على أداء أي مهمة يستطيع الإنسان إنجازها. ومع ذلك، تتبنى ميتا سياسة جديدة تحدد الحالات التي قد لا تطلق فيها أنظمة الذكاء الاصطناعي المتقدمة التي تطورها داخليًا، وذلك لحماية الأمان العالمي والخصوصية.

إطار عمل Frontier AI

في الوثيقة التي أصدرتها ميتا، المعروفة باسم "Frontier AI Framework"، تم تصنيف أنظمة الذكاء الاصطناعي إلى نوعين يُعتبران شديدا المخاطر، وهما "المخاطر العالية" و "المخاطر الحرجة".

  1. الأنظمة عالية المخاطر:
    • يمكن أن تُسهل تنفيذ الهجمات، مثل الهجمات السيبرانية أو الهجمات الكيميائية أو البيولوجية.
    • على الرغم من أنها قد تكون فعّالة في بعض الحالات، فإن قدرتها على إحداث أضرار حاسمة أقل من الأنظمة "المخاطر الحرجة".
  2. الأنظمة ذات المخاطر الحرجة:
    • هذه الأنظمة قد تفضي إلى نتائج كارثية، مثل "التسوية الآلية الشاملة لبيئة مؤسسية محمية بأفضل الممارسات" أو "انتشار الأسلحة البيولوجية شديدة التأثير".
    • تعتبر ميتا هذه الأنظمة أكثر تهديدًا للأمن الدولي، ويجب التعامل معها بحذر شديد.

إجراءات ميتا لتخفيف المخاطر

في حال قررت ميتا أن نظامًا من أنظمتها ينطوي على مخاطر عالية، ستقوم الشركة بحدّ الوصول إلى هذا النظام داخليًا فقط، ولن تطلقه بشكل علني إلا بعد تنفيذ إجراءات لتقليل المخاطر إلى مستويات معتدلة. أما إذا تم تصنيفه ضمن المخاطر الحرجة، فإن ميتا ستنفذ إجراءات أمنية أكثر صرامة، تمنع اختراق النظام وتخزينه.

التقييم والمراجعة

الميزة الرئيسية في نهج ميتا هي أن التقييم لا يعتمد على اختبار تجريبي واحد فقط، بل يعتمد على مدخلات من الباحثين الداخليين والخارجيين الذين يخضعون لمراجعة من قبل صناع القرار على مستوى رفيع. وبذلك، تتأكد ميتا من أن قراراتها بشأن الإطلاق أو الحظر تتخذ بشكل دقيق ومدروس.

الميزة المفتوحة ولكن غير مفتوحة المصدر

تعتبر ميتا من الشركات التي تبنت استراتيجية لفتح تقنيات الذكاء الاصطناعي الخاصة بها، لكن مع تحديد قيود معينة. فبينما يمكن للمستخدمين الوصول إلى بعض الأنظمة عبر منصات ميتا، تظل "غير مفتوحة المصدر" بالمعنى التقليدي، على عكس OpenAI التي اختارت إخفاء تقنياتها خلف واجهة برمجة التطبيقات API.

من خلال هذه الوثيقة، تسعى ميتا إلى تحقيق توازن بين الابتكار المفتوح والتحكم في المخاطر التي قد تهدد الأمن العالمي أو تضر بالمجتمعات.

مشاركة

مقالات ذات صلة