
📍جنيف سويسرا
رؤية معهد جنيف الوطني
شهد معهد جنيف الوطني أمس الأربعاء 9 أبريل 2025 ندوة محورية ناقشت أحد أبرز المواضيع التي تشغل العالم اليوم: دقة المعلومات في عصر الذكاء الاصطناعي. مع التطور السريع لهذه التكنولوجيا، أصبح تأثيرها على الأنظمة المجتمعية والعقلية البشرية أكثر وضوحًا من أي وقت مضى. منذ ظهور ChatGPT في نوفمبر 2022، تحول الذكاء الاصطناعي إلى قوة هائلة تُعيد تشكيل العالم من حولنا، ليصبح جزءًا لا يمكن تجاهله من حياتنا اليومية. ومع هذه القوة، تبرز تساؤلات جوهرية حول تحديات جديدة تتطلب استعدادًا استراتيجيًا لمواجهتها. ما هو الدور الذي يجب أن تلعبه التكنولوجيا في تشكيل المستقبل؟ كيف يمكن ضمان التمويل السليم لدعم هذه الطفرات التكنولوجية؟ والأهم من ذلك، كيف يمكننا ضمان أن تبقى الأخلاقيات حاضرة في قلب هذه التحولات؟ هذه النقاشات ليست مجرد تساؤلات، بل هي مفتاح لبناء عالم يتوازن فيه الابتكار مع المسؤولية المجتمعية.
أصبح الذكاء الاصطناعي ظاهرة بارزة في العصر الحالي، حيث أحدث تحولًا كبيرًا في العديد من المجالات. ومع هذه الثورة التكنولوجية، ظهرت بعض المخاوف المتعلقة بدقة المعلومات التي يقدمها الذكاء الاصطناعي، خاصةً تلك التي قد تكون غير صحيحة أو مضللة. قد تؤدي الأخطاء التي يصدرها الذكاء الاصطناعي إلى تبعات سلبية خطيرة، سواء على مستوى الأفراد أو المجتمعات، مما يبرز أهمية تطوير أنظمة ذكاء اصطناعي أكثر دقة وموثوقية.
لذلك، من الضروري أن نتحلى بوعي عميق وواقعي حيال التحديات التي ترافق تطور الذكاء الاصطناعي. فقد أصبح هذا المجال جزءًا لا غنى عنه في حياتنا اليومية، مما يبرز تأثيره الكبير على مختلف جوانب المجتمع. ومع ذلك، تظل الأخطاء التي قد يصدرها الذكاء الاصطناعي مصدرًا للجدل، خصوصًا عندما تتعلق بتقديم معلومات مغلوطة أو اتخاذ قرارات غير دقيقة، وهو ما قد ينجم عنه عواقب خطيرة تتطلب معالجة دقيقة واهتمامًا خاصًا.
من أهم الأسباب التي تؤدي إلى هذه الأخطاء
1. الاعتماد على بيانات غير دقيقة أو منحازة: إذا تم تدريب النموذج على بيانات تحتوي على معلومات خاطئة أو فيها تحيّز، فإن الذكاء الاصطناعي سيكرر هذه الأخطاء.
2. عدم فهم السياق بشكل كامل: الذكاء الاصطناعي لا يمتلك وعيًا أو إدراكًا حقيقيًا، بل يعتمد على الأنماط والإحصائيات، لذلك قد يسيء تفسير سياقات معينة.
3. الثقة الزائدة من المستخدمين: أحيانًا يُؤخذ كلام الذكاء الاصطناعي على أنه “حقيقة مؤكدة”، مما يزيد من احتمال انتشار الخطأ.
في المقابل، يمكن التخفيف من حدة هذه الأخطاء من خلال اتخاذ مجموعة من التدابير الوقائية، من أبرزها:
• تطوير آليات تحقق وتدقيق دقيقة لضمان صحة وموثوقية مخرجات أنظمة الذكاء الاصطناعي.
• تعزيز الرقابة البشرية المستمرة، لاسيما عند توظيف الذكاء الاصطناعي في القطاعات الحساسة التي تتطلب دقة عالية وحسًّا إنسانيًا.
• رفع مستوى الوعي لدى المستخدمين بعدم الاعتماد المطلق على هذه الأنظمة، وتشجيعهم على التحقق المستقل من المعلومات والنتائج.
قانون الذكاء الاصطناعي:
يشير مصطلح “قانون الذكاء الاصطناعي” إلى مجموعة من الجهود القانونية والسياسية والتنظيمية التي تهدف إلى وضع إطار تنظيمي شامل يُشرف على استخدام وتطوير تقنيات الذكاء الاصطناعي (AI) بشكل مسؤول ومستدام. ببساطة، تسعى هذه المبادرات إلى صياغة تشريعات وضوابط تضمن الاستخدام الآمن والأخلاقي لهذه التقنيات، مع ضمان حماية الأفراد والمجتمعات من المخاطر المحتملة التي قد تنشأ عن تطبيقاتها غير المنضبطة أو المفرطة. في ظل التقدم التكنولوجي السريع، أصبح من المهم بشكل خاص وضع هذه الأطر القانونية لتفادي التأثيرات السلبية، وضمان أن الابتكارات في هذا المجال تُستخدم بشكل يعزز الرفاهية العامة ويعكس القيم الإنسانية.
1. قانون الذكاء الاصطناعي (AI Law):
هو قانون رسمي تضعه دولة أو منظمة (مثل الاتحاد الأوروبي أو الأمم المتحدة) يحدد:
• كيف يمكن استخدام الذكاء الاصطناعي.
• ما هي الحدود التي لا يجب تجاوزها (مثل حماية الخصوصية أو منع التحيّز).
• من يتحمّل المسؤولية إذا حدث خطأ بسبب نظام ذكاء اصطناعي.
• القوانين المتعلقة بأمان الخوارزميات وتفسير نتائجها.
مثال واقعي: قانون الذكاء الاصطناعي الأوروبي (EU AI Act)، وهو أول قانون شامل في العالم لتنظيم الذكاء الاصطناعي، يهدف لحماية حقوق الإنسان ومنع استخدامات الذكاء الاصطناعي الخطيرة .
الاتحاد الأوروبي – قانون الذكاء الاصطناعي (EU AI Act):
أول قانون شامل في العالم خاص بالذكاء الاصطناعي. تم اقتراحه في 2021 واعتمده البرلمان الأوروبي في 2024 تقريبًا.
هدفه:
• حماية حقوق الإنسان.
• منع استخدام الذكاء الاصطناعي في أمور خطيرة (مثل المراقبة الجماعية أو التلاعب بالرأي العام).
• تصنيف تطبيقات الذكاء الاصطناعي حسب درجة الخطورة: منخفضة، متوسطة، وعالية.
مثال: أنظمة التعرف على الوجه في الأماكن العامة تُصنّف كـ “عالية الخطورة”، ويُشترط موافقة صارمة لاستخدامها.
2. مبادرة الذكاء الاصطناعي (AI Initiative):
هي خطة أو مشروع تطلقه جهة حكومية أو منظمة لتشجيع استخدام الذكاء الاصطناعي في مجالات مختلفة، مثل: التعليم، الصحة، الصناعة، النقل.
وتكون هذه المبادرة غالبًا مصحوبة بتمويل، تدريب، وأطر قانونية.
من أبرز النقاط الجوهرية التي تم التركيز عليها في الندوة هي ضرورة وضع إطار قانوني ينظم استخدام هذه التقنيات. “قانون الذكاء الاصطناعي” أصبح ضرورة ملحة لضمان الاستخدام المسؤول لهذه التكنولوجيا، وتجنب المخاطر المحتملة الناتجة عن استخدامها في سياقات غير منضبطة. وفي هذا السياق، كان قانون الذكاء الاصطناعي الأوروبي (EU AI Act) هو المثال الأبرز، كأول قانون شامل يهدف إلى حماية حقوق الإنسان ومنع الاستخدامات الخطيرة للذكاء الاصطناعي.
إن وضع قوانين صارمة وتنظيمات واضحة يعتبر خطوة أساسية لبناء ثقة المستخدمين وضمان تطوير هذه التقنيات بما يخدم رفاهية المجتمع ويعكس القيم الإنسانية، ويُمكن هذه القوانين من ضمان الاستخدام الآمن والتقني للذكاء الاصطناعي دون الإضرار بالجوانب الأخلاقية أو الاجتماعية.