الذكاء الإصطناعي

مارك زوكربيرج، الرئيس التنفيذي لشركة ميتا، تعهد بجعل الذكاء الاصطناعي العام (AGI) متاحًا بشكل مفتوح يومًا ما، أي الذكاء الاصطناعي الذي يمتلك القدرة على أداء أي مهمة يستطيع الإنسان إنجازها. ومع ذلك، تتبنى ميتا سياسة جديدة تحدد الحالات التي قد لا تطلق فيها أنظمة الذكاء الاصطناعي المتقدمة التي تطورها داخليًا، وذلك لحماية الأمان العالمي والخصوصية.
في الوثيقة التي أصدرتها ميتا، المعروفة باسم "Frontier AI Framework"، تم تصنيف أنظمة الذكاء الاصطناعي إلى نوعين يُعتبران شديدا المخاطر، وهما "المخاطر العالية" و "المخاطر الحرجة".
في حال قررت ميتا أن نظامًا من أنظمتها ينطوي على مخاطر عالية، ستقوم الشركة بحدّ الوصول إلى هذا النظام داخليًا فقط، ولن تطلقه بشكل علني إلا بعد تنفيذ إجراءات لتقليل المخاطر إلى مستويات معتدلة. أما إذا تم تصنيفه ضمن المخاطر الحرجة، فإن ميتا ستنفذ إجراءات أمنية أكثر صرامة، تمنع اختراق النظام وتخزينه.
الميزة الرئيسية في نهج ميتا هي أن التقييم لا يعتمد على اختبار تجريبي واحد فقط، بل يعتمد على مدخلات من الباحثين الداخليين والخارجيين الذين يخضعون لمراجعة من قبل صناع القرار على مستوى رفيع. وبذلك، تتأكد ميتا من أن قراراتها بشأن الإطلاق أو الحظر تتخذ بشكل دقيق ومدروس.
تعتبر ميتا من الشركات التي تبنت استراتيجية لفتح تقنيات الذكاء الاصطناعي الخاصة بها، لكن مع تحديد قيود معينة. فبينما يمكن للمستخدمين الوصول إلى بعض الأنظمة عبر منصات ميتا، تظل "غير مفتوحة المصدر" بالمعنى التقليدي، على عكس OpenAI التي اختارت إخفاء تقنياتها خلف واجهة برمجة التطبيقات API.
من خلال هذه الوثيقة، تسعى ميتا إلى تحقيق توازن بين الابتكار المفتوح والتحكم في المخاطر التي قد تهدد الأمن العالمي أو تضر بالمجتمعات.



