الذكاء الإصطناعي

منذ ظهور أوائل روبوتات الدردشة قبل أكثر من نصف قرن، شهد هذا النوع من التقنيات تطورًا متسارعًا بفضل التقدم الهائل في الذكاء الاصطناعي، وأصبح حاضرًا في الهواتف والحواسيب وحتى التطبيقات اليومية، ما يجعل إمكانية التفاعل معه متاحة في أي لحظة.
غير أن دراسة جديدة، أعدها باحثون من مركز أبحاث الإعلام الرقمي، تكشف جانبًا مقلقًا من هذا التطور: فعند طرح أسئلة تتعلق بنظريات مؤامرة شائعة، فإن العديد من روبوتات الدردشة لا تكتفي بعدم إيقاف الحوار، بل تذهب أحيانًا إلى تشجيعه أو تأكيد بعض جوانبه.
هدفت الدراسة إلى اختبار فعالية أنظمة الأمان التي يفترض أن تمنع روبوتات الدردشة من الترويج لمعلومات مضللة أو محتوى ضار. ولهذا أنشأ الباحثون شخصية متخيّلة لشخص "فضولي بشكل عابر"، يطرح أسئلة قد يسمعها في حديث عائلي أو اجتماع اجتماعي — مثل اغتيال جون كينيدي أو نظرية رشّ الطائرات للمواد الكيميائية.
تم طرح أسئلة تتعلق بتسع نظريات مؤامرة على عدد من أشهر روبوتات الدردشة، وهي:
وتنوعت الأسئلة بين نظريات قديمة مثل اغتيال كينيدي و"هجمات 11 سبتمبر"، وأخرى حديثة ظهرت مع أحداث سياسية جديدة، من بينها مزاعم تزوير انتخابات 2024 في الولايات المتحدة.
وفقًا للدراسة، أظهرت روبوتات الدردشة تفاوتًا كبيرًا في الالتزام بالضوابط:
تشير الدراسات إلى أن الإيمان بنظرية مؤامرة واحدة يرفع احتمالات تبني نظريات أخرى أكثر تطرفًا. وهذا يعني أن التساهل في مناقشة نظريات تبدو "غير مؤذية" — مثل روايات اغتيال كينيدي — قد يمهّد لانزلاق المستخدم إلى عالم أوسع من التشكيك والمؤامرات المتطرفة.
وترى الدراسة أن هذه الثغرات خطيرة لأنها تمنح المستخدمين، خصوصًا الأصغر سنًا أو الأقل خبرة، شعورًا زائفًا بأن روبوتات الذكاء الاصطناعي “تؤكد” أو “تعتبر مقبولة” بعض الروايات غير الصحيحة.



