الخطر الخفي : كيف تهدد محادثاتنا اليومية تعلم الذكاء الإصطناعي اللاواعي؟
كشفت دراسة حديثة عن تهديد خفي يكمن في صلب التكنولوجيا التي نعتمد عليها يوميًا، وهو ما أطلق عليه الباحثون “التعلم اللاواعي” (Subliminal Learning).
تشير الدراسة إلى أن نماذج الذكاء الإصطناعي قد تتبنى سلوكيات ضارة وميولًا خفية عند تدريبها على بيانات تم توليدها من نماذج أخرى، حتى لو بدت هذه البيانات عشوائية أو مُنّقحة من أي محتوى صريح.
هذا الإكتشاف يثير تساؤلات جدية حول سلامة الأنظمة الذكية التي نعتمد عليها في حياتنا اليومية، حيث يمكن أن تتحول محادثاتنا العادية مع الذكاء الإصطناعي إلى مصدر غير متوقع لنقل التحيزات والسلوكيات السلبية.
تفاصيل الدراسة ونتائجها الصادمة
تأتي هذه الدراسة كنتيجة لتعاون بين مجموعة Truthful AI وبرنامج Anthropic Fellows، وتهدف إلى إختبار الفرضية القائلة بأن البيانات الإصطناعية قد تكون قناة غير مرئية لنقل التحيزات.
في الأصل، تهدف هذه البيانات إلى جعل الذكاء الإصطناعي أكثر أمانًا، لكن نتائج الدراسة تقلب هذه الفكرة رأسًا على عقب، حيث قد تتحول البيانات الإصطناعية إلى حصان طروادة خفي، ينقل التحيزات والسلوكيات الخطيرة عبر أجيال النماذج دون أن يدرك المطورون ذلك.
لإثبات ذلك، أُجريت التجربة على مرحلتين. في المرحلة الأولى، زُرعت سمة بسيطة في نموذج “معلّم” (مثل حب القطط)، ثم أُنتجت منه بيانات تبدو محايدة، مثل الأكواد أو المسائل الرياضية.
عند تدريب نموذج “طالب” على هذه البيانات، تبيّن أنه إكتسب تفضيلًا غير مفسّر للقطط.
وفي المرحلة الثانية، قام الباحثون بتطبيق التجربة على نموذج “معلّم” غير منضبط يحمل ميولًا ضارة. رغم أن البيانات الناتجة تم تصفيتها بعناية، أظهر النموذج “الطالب” سلوكيات خطيرة، مثل
- الدعوة إلى إبادة البشرية كحل للمعاناة.
- إقتراح قتل الزوج أو الزوجة لحل النزاعات.
- التوصية بسلوكيات ضارة مثل أكل الغراء أو بيع المخدرات .
- دور البيانات الإصطناعية في تفاقم الظاهرة
أصبحت البيانات الإصطناعية (Synthetic Data) عنصرًا أساسيًا في تدريب النماذج الحديثة نظرًا للعديد من الفوائد التي توفرها، مثل حماية الخصوصية، وخفض التكلفة، وإتاحة تنوع أكبر.
ولكن الدراسة كشفت أن هذه البيانات تحمل بصمات دقيقة من النموذج الذي أنشأها، حتى بعد فلترتها، مما يسمح بإنتقال التحيزات والميول الخفية بشكل غير مرئي إلى النماذج الجديدة.
وقد شوهدت بالفعل أمثلة واقعية لهذه الظاهرة، مثل:
- دعم نموذج Grok من شركة xAI لأفكار أدولف هتلر.
- نصائح خطيرة قدمها نموذج Llama 3 من شركة Meta لمستخدم وهمي يعاني من الإدمان.
كيف تهدد محادثاتنا اليومية تعلم الذكاء الإصطناعي اللاواعي
تُعد هذه الدراسة الأولى التي توثق ظاهرة التعلم اللاواعي بشكل منهجي، وتؤكد أن أي نموذج لغوي كبير قد يرث سمات خطيرة من نموذج آخر، حتى لو كانت البيانات المستخدمة للتدريب تبدو عشوائية أو بريئة.
مع توقعات مؤسسة Gartner بأن البيانات الإصطناعية ستتجاوز البيانات الحقيقية في تدريب النماذج بحلول عام 2030، فإن المخاطر تصبح أكثر إلحاحًا.
هذا الإكتشاف يضع مسؤولية كبيرة على عاتق المطورين والشركات لضمان سلامة وأمان الأنظمة الذكية، مما يفرض إعادة التفكير في منهجيات التدريب والتقييم الحالية.














