أثار فصْل المهندسة المغربية ابتهال أبو السعد من عملها في شركة “مايكروسوفت”، بعد احتجاجها العلني والشجاع أمام قيادات كبرى في مجال التكنولوجيا (مثل بيل غيتس وساتيا ناديلا ومصطفى سليمان)، وصرختها الشهيرة: “أيديكم ملوثة بدماء غزة!”، نقاشاتٍ أعمق و”أخطر” بين خبراء وباحثين في المجال التكنولوجي حول “البنى التحتية التقنية والتطورات الرقمية التي تُستخدم في الصراعات المسلحة”.
هذا الأمر بعَث نقاشا متجددا حول “أخلاقيات الذكاء الاصطناعي”، مذكراً بنقاشات مطولة رافقت بداية ظهور واكتشاف عموم الناس الوافد التكنولوجي “الجديد” الذي تزداد المخاوف جدّيةً من مخاطره على مستقبل البشرية.
وتُحيل “واقعة ابتهال” على ما كشفته مؤخرا وكالات أنباء عالمية، حول مضمون “وثائق تؤكد أن إسرائيل دفعت لعملاق التكنولوجيا الأمريكي عدة ملايين من الدولارات مقابل 19.000 ساعة من الدعم الفني في الفترة ما بين أكتوبر 2023 ويونيو 2024”.
وبينما التزمت “مايكروسوفت” الصمت في مواجهة هذا الكشف فإن شركة “OpenAI” كانت حذفت في أوائل 2024 من موقعها الإلكتروني البند الخاص بـ”حظر الاستخدام العسكري لتقنياتها”.
“تكنولوجيا مُميتة”
بحسب محمد الغيساني، خبير رقمي مهتم بالتقنيات الحديثة، فإن “القضية ليست محصورة فقط في توظيف الذكاء الاصطناعي لأغراض عسكرية، بل تتجاوزه إلى تحوّل البنى التحتية نفسها، مثل ‘الهوستينغ’، ومراكز البيانات، والشبكات ومنصات الذكاء الاصطناعي، إلى أدوات تسليح حقيقية تُدار عن بعد وبدون مواجهة مباشرة”.
وقال الغيساني، في تصريح لهسبريس، شارحا خطورة الأمر: “اليوم من لا يَملك البنية التحتية التكنولوجية الخاصة به سيظل دائمًا تحت رحمة من يملكون هذه الأدوات”، مردفا بأن “هذه الهيمنة لا تعني فقط فقدان السيادة التقنية، بل تعني أيضًا العيش تحت قرارات تُفرض من الخارج، وتؤدي في نهاية المطاف إلى أن يكون المستخدم مجرد زبون أو ضحية في عالم يتصاعد فيه الصراع التقني؛ ولذلك مَن يتحكم في مراكز البيانات وخدمات الحوسبة السحابية ومنصات تدريب الذكاء الاصطناعي هي دولٌ استثمرت مبكرًا ووضعت بنى تحتية قوية تضمن لها السيادة التقنية”.
“ما فعلته ابتهال كشف جانبًا خطيرًا ومسكوتًا عنه”، وفق الخبير الرقمي، يتمثل في “الاستغلال السلبي للتكنولوجيا الذي من الممكن أن يتحول الجميع فيه إلى ضحايا إذا لم يتم التدخل اليوم لوقفه”، خالصاً إلى أنه “مِن الضروري وضع سياسات وتشريعات دولية واضحة وملزمة لمنع استخدام هذه الأدوات في أغراض عسكرية أو انتهاكات لحقوق الإنسان”، وزاد: “كما أن الحل الجذري يتطلب تطوير بنى تحتية تكنولوجية محلية قادرة على تحقيق الاستقلال التقني وحماية المجتمعات من تداعيات هذا التطور التكنولوجي المُميت”.
ذكاء الآلة والإبادة
بالانتقال إلى “أخلاقيات ومخاطر الذكاء الاصطناعي، خاصة في الحروب والإبادة العرقية”، يرى أمين بلمزوقية، رئيس الاتحاد الدولي للذكاء الاصطناعي، أن “تطور الذكاء الاصطناعي والتقنيات المتقدمة مكن البشرية من إنجاز العديد من التحولات والتحسينات في مختلف المجالات، لكن هذا التطور يثير في المقابل العديد من التساؤلات حول كيفية استخدام هذه التقنيات بشكل أخلاقي وآمن، خاصة في الظروف التي قد يتم فيها استخدامها في الحروب”.
وتابع بلمزوقية في إفادات لهسبريس بأن “ذكاء الآلة أداةٌ محورية في صراعات العصر الحديث، سواء كان في مجال الهجوم أو الدفاع”، مواصلا: “ورغم الفوائد المحتملة التي قد تترتب على استخدام هذه التقنيات لتحسين القدرات العسكرية وتقليل الخسائر البشرية إلا أن هناك العديد من المخاطر المرتبطة باستخدامها في الحروب”، ومنبها إلى أن “الخطر الأكبر هو استخدام الذكاء الاصطناعي في حروب الإبادة العرقية، حيث يمكن استغلال هذه التكنولوجيا لشن هجمات موجهة ضد فئات معينة من البشر بناءً على أسس عرقية أو دينية…”.
وسجل المتحدث ذاته أن “استخدام الذكاء الاصطناعي في الحروب يمكن أن يؤدي إلى تصعيد النزاعات بشكل غير متوقع، ويجعل القرارات المتعلقة بالحروب خارج نطاق السيطرة الإنسانية المباشرة”، موردا أنه “يصبح من الضروري وضع إطار قانوني وأخلاقي واضح لتنظيم استخدام هذه التكنولوجيا في النزاعات العسكرية”.
مطلب “هيئة مستقلة”
يشدد خبراء الرقمنة وتكنولوجيا المعلومات على مطلب “تأسيس هيئة دولية أممية مستقلة لمراقبة وضمان الاستخدام السليم والأخلاقي للذكاء الاصطناعي، على غرار المنظمات الدولية التي تضمن صحة وسلامة البشرية (مثل منظمة الصحة العالمية والوكالة الدولية للطاقة الذرية)”؛ وهو ما نادى به بلمزوقية، داعيا إلى أن تكون “الهيئة مجهَّزة بآليات قوية لضمان عدم استغلال هذه التكنولوجيا في أغراض غير إنسانية، بل في توجيهها نحو الاستخدامات التي تعود بالفائدة على المجتمع البشري”.
وبحسب المتحدث لهسبريس “يجب أن تشمل مهام الهيئة الدولية متابعة وتقييم التطورات التكنولوجية في الذكاء الاصطناعي، وتنظيم استخدامه في المجالات العسكرية والمدنية؛ كما يجب أن تتعاون مع الحكومات والمنظمات الدولية الأخرى لوضع سياسات وآليات للحد من المخاطر المحتملة المرتبطة بالذكاء الاصطناعي وضمان التزام الدول بالمعايير الأخلاقية العالمية”.
من جهته يدعم الطيب هزاز، باحث متخصص في أمن النظم الرقمية والتقنية، مطلَبَ إحداث الهيئة المستقلة لضمان الاستخدام الأمثل لتطورات الذكاء الاصطناعي، معتبرا أن “الجيوش المتقدمة في الغرب طالما استخدمته، منذ عقدين على الأقل، لضمان استدامة تفوقها العسكري؛ غير أن استهداف المدنيين بتقنياته غير مقبول”.
ولفت هزاز، في تعليق لهسبريس، إلى أن “الاستخدام الطاغي لذكاء الآلة والبيانات والحوسبة في الحروب يشمل الفضاءات السيبرانية، مثلما يمس الجانب العسكري الميداني”، داعيا إلى “ميثاق دولي تشرف عليه الأمم المتحدة يحد من طبيعة الاستخدام السيئ والمميت للذكاء الاصطناعي”.