في حوار خاص أجراه خبير الذكاء الاصطناعي وإنترنت الأشياء هاشم أبوبكر مع إذاعة "العربية اف ام"، أطلق تحذيراً من تنامي ظاهرة استخدام تقنيات خفية لخداع أنظمة الذكاء الاصطناعي، مشيرًا إلى أن هذا التوجه بات يشكل تهديدًا فعليًا لسلامة المعايير العلمية والمهنية في عدد من القطاعات، وفي مقدمتها الأوساط الأكاديمية التي يُفترض أن تكون مرجعًا للنزاهة والابتكار.
وأوضح أبوبكر أن التقدم الهائل في تقنيات الذكاء الاصطناعي فتح أبوابًا واسعة لاستخدامات متعددة، بعضها نبيل يخدم التقدم العلمي، وبعضها الآخر مُضلل يُوظّف للتحايل والغش، مؤكدًا أن الخط الفاصل بين الاستخدام الإيجابي والاستخدام الضار أصبح أكثر هشاشة، مما يستدعي تدخلاً واعيًا من الجهات المعنية لوضع ضوابط صارمة تحمي المنظومات من الانحراف.
وكشف الخبير أن أربع عشرة جامعة حول العالم عمدت إلى إدراج نصوص غير مرئية داخل أوراقها البحثية بهدف خداع أنظمة الذكاء الاصطناعي المعتمدة في تقييم جودة الأبحاث، ما أدى إلى رفع تصنيفات هذه الأوراق بصورة غير عادلة، وهو ما اعتبره "أمرًا مؤسفًا"، خاصة وأنه يصدر عن جهات يفترض بها أن تكون حارسة للمعايير العلمية والشفافية الأكاديمية.
وأشار إلى أن معظم الجامعات أصبحت تعتمد على الذكاء الاصطناعي في عمليات التصحيح والتقييم والمتابعة، الأمر الذي جعل هذه الأنظمة عرضة للتلاعب من خلال أساليب متقدمة يصعب اكتشافها في الظاهر، خصوصًا إذا تم استخدامها بعناية فائقة وبشكل مموه، وهو ما يُظهر خطورة هذه الظاهرة وتأثيرها العميق على مصداقية نتائج البحث العلمي.
وأضاف أبوبكر أن بعض الجهات الأكاديمية، وبعد أن تبيّن لها وجود عمليات خداع داخل أنظمتها، قامت بسحب عدد من الأوراق البحثية من قواعد البيانات الأكاديمية، وشرعت في تحقيقات داخلية للوقوف على حجم التلاعب والمسؤولين عنه، مشددًا على أن الأمر لا يقتصر على الأوساط الأكاديمية فحسب، بل يمتد إلى مجالات مهنية عدة يتم فيها الاعتماد على الذكاء الاصطناعي في صنع القرار أو التقييم.
وأكد أن التقنيات الخفية المستخدمة في الخداع تعتمد على تضمين رموز أو بيانات لا تظهر للمستخدم العادي، لكنها تُفهم من قبل أنظمة الذكاء الاصطناعي على أنها إشارات توجيهية، ما يجعل النظام يمنح المحتوى تقييمًا أعلى أو يستنتج نتيجة معينة بناءً على ما تم حقنه في البيانات بطريقة غير مرئية، موضحًا أن هذه الطرق تندرج تحت ما يُعرف بـ "الهجمات الخادعة" أو "Adversarial Attacks".
وشدد على أن هذه الهجمات لم تعد تقتصر على اختراقات خارجية أو هجمات رقمية تستهدف الأنظمة، بل باتت تُصمم بأساليب ذكية تُمكن من التأثير على المخرجات دون الحاجة إلى تعطيل النظام نفسه، وهو ما يُعقّد عملية اكتشافها ويجعل من الصعب تتبع الجهة المسؤولة عنها في كثير من الأحيان.
وبيّن أبوبكر أن بعض المؤسسات بدأت بالفعل في تطوير أدوات تعتمد على الذكاء الاصطناعي نفسه لرصد محاولات الخداع والتلاعب، مما يعكس بداية مواجهة تقنية متقدمة تستخدم الذكاء الاصطناعي لكشف الممارسات غير الأخلاقية التي تستهدفه، في إطار معركة جديدة تدور بين مطوري التقنية ومسيئي استخدامها.
وأعرب عن قلقه من أن يتسع نطاق هذه الظاهرة لتشمل قطاعات أخرى مثل الإعلام، والتعليم عن بُعد، والتوظيف، وحتى أنظمة العدالة التي بدأت تتبنى الذكاء الاصطناعي في تحليل البيانات واتخاذ قرارات أولية، مؤكدًا أن الاستهانة بخطر الخداع قد يؤدي إلى تشويه نتائج حيوية تؤثر على حياة الأفراد والمؤسسات.
وأشار إلى أن الشفافية في التعامل مع التقنية أصبحت ضرورة لا خيارًا، خصوصًا في ظل بيئة رقمية متسارعة تنمو فيها الأدوات الذكية بسرعة غير مسبوقة، موضحًا أن الدور الرقابي يجب أن يتعزز من خلال تشريعات صارمة ومراجعات دورية للأنظمة المستخدمة في التقييم والاختيار.
ودعا إلى ضرورة تكاتف الجهود بين الجامعات، وشركات التقنية، والمؤسسات الرقابية لوضع معايير موحدة تحمي الذكاء الاصطناعي من الاستخدامات غير النزيهة، ولفت إلى أن النزاهة في تطوير التقنية واستخدامها يجب أن تكون قيمة أساسية تُغرس في كل مراحل التصميم والاختبار.
وأوضح أن تجاهل هذه الظواهر قد يُفضي إلى تآكل ثقة الجمهور في الذكاء الاصطناعي، ويقلل من جدواه في المستقبل، خاصة إذا ما أصبح يُنظر إليه كأداة قابلة للتلاعب وليست كمرجع موثوق للنتائج، داعيًا إلى الشفافية في الإفصاح عن الأخطاء وتعزيز أدوات كشف التزييف.
وأكد أبوبكر أن ما جرى في الجامعات التي تورطت في استخدام أساليب الخداع يُمثل جرس إنذار لبقية المؤسسات التي تعتمد على الذكاء الاصطناعي، سواء في التعليم أو الإدارة أو الصناعة، مضيفًا أن العبرة تكمن في استباق التهديد لا الاستجابة له بعد وقوع الضرر.
واختتم الخبير حديثه بالقول إن الذكاء الاصطناعي سيظل أداة مهمة للبشرية، لكنه كما كل الأدوات يحتاج إلى أخلاقيات في الاستخدام، مشيرًا إلى أن وعي الإنسان وتدخله في الرقابة والتوجيه لا يزال العنصر الأهم في ضمان أن تسير التكنولوجيا في الطريق الصحيح.
وتأتي هذه التصريحات في وقت تتزايد فيه الاعتمادية على الذكاء الاصطناعي في شتى مجالات الحياة، مما يسلط الضوء على التحديات المستقبلية المرتبطة بأمان هذه الأنظمة، ويطرح تساؤلات جدية حول قدرة المؤسسات على مواجهة هذه التهديدات التقنية المستترة.
وتعيد هذه القضية إلى الأذهان العديد من حالات التلاعب التي تم كشفها في مجالات متنوعة، ما يعزز الحاجة إلى تعزيز الحوكمة الرقمية ومراجعة الأدوات التقنية المستخدمة لضمان أنها تُستخدم في إطار من النزاهة والمصداقية.
ويبدو أن المعركة المقبلة في عالم التقنية لن تكون فقط على تطوير أسرع الخوارزميات أو أعقد الشبكات العصبية، بل على من يضع القواعد الأخلاقية الأمتن، ويحمي هذه التقنية من الانجراف إلى الاستخدامات المُضللة التي قد تُقوّض منافعها.