ذكرت مجلة "ذا ناشيونال إنترست" الأمريكية أنه في نوفمبر الماضي، أطلقت منظمة الأبحاث "أوبن إيه آي OpenAI"، وهي منظمة بحثية غير ربحية، العنان لـ "شات جي بي تي ChatGPT"، روبوت الدردشة المدعوم بالذكاء الاصطناعي. وقبل أشهر قليلة، تم تحويل المحادثات حول الذكاء الاصطناعي إلى المؤتمرات الأكاديمية ومؤتمرات الخيال العلمي".
وأضافت في تحليل كتبه "لوك هوج": "لكن، مع انفجار شات جي بي تي ليصبح تطبيق المستهلك الأسرع نموًا في التاريخ، سرعان ما أصبح الذكاء الاصطناعي مشكلة العصر. الآن، يسلط صانعو السياسات الضوء على تلك الصناعة ويطرحون السؤال التالي: ما مقدار التنظيم الضروري للتخفيف من المخاطر المحتملة دون خنق الابتكار؟".
من التقارير الحكومية إلى جلسات الإحاطة وجلسات الاستماع إلى التشريعات، فإن الذكاء الاصطناعي هو موضوع اليوم في الكابيتول هيل؛ حيث يحاول النواب الإجابة على هذا السؤال. في حين تتباين المقترحات التشريعية المتعلقة بالذكاء الاصطناعي على نطاق واسع، ويمكن عمومًا تصنيف الروح الكامنة وراء هذه المقترحات في فئتين. تتكون الأولى من مقترحات تهدف في المقام الأول إلى التخفيف من المخاطر المحتملة للذكاء الاصطناعي، والثانية تأخد نظرة أوسع للنظام الإيكولوجي للذكاء الاصطناعي، وتحاول تعزيز الابتكار والقدرة التنافسية العالمية من خلال نظام تنظيمي أكثر مرونة.
في حين أن كلا النهجين حسن النية، إلا أن التركيز الأخير على الابتكار والقدرة التنافسية يحمل وعدًا أكبر. بعد كل شيء، الولايات المتحدة ليست الدولة الوحيدة التي تطور أنظمة الذكاء الاصطناعي.
وقد وصف النائب "تيد ليو" (ديمقراطي عن ولاية كاليفورنيا) هذا النهج. بصفته أحد أعضاء الكونجرس القلائل الحاصلين على درجات علمية في علوم الكمبيوتر، كان النائب "ليو" واحدًا من أكثر المشرعين صوتًا فيما يتعلق بمسألة تنظيم الذكاء الاصطناعي. وقبل تقديم أول تشريع فيدرالي مكتوب بواسطة الذكاء الاصطناعي، قال "ليو" في صحيفة نيويورك تايمز: "لقد أوضحت التطورات السريعة في تكنولوجيا الذكاء الاصطناعي أنه من الضروري الآن ضمان استخدام الذكاء الاصطناعي بطرق آمنة وأخلاقية ومفيدة للمجتمع. وقد يؤدي عدم القيام بذلك إلى مستقبل حيث مخاطر الذكاء الاصطناعي تفوق بكثير فوائده…. ما نحتاج إليه هو وكالة مخصصة لتنظيم الذكاء الاصطناعي".
يسعى هذا النهج إلى إنشاء نظام تنظيمي قائم على ما "يمكن" أو "لا يمكن" أن تفعله هذه التقنيات في المستقبل. ولكن هذا الإطار المرتقب يتعارض مع الابتكار السريع. للحصول على أدلة، نحتاج فقط إلى النظر إلى أوروبا.
تنظيم أوروبا
وقالت المجلة، إن بروكسل لديها تقليد طويل في تنظيم التقنيات بشكل مرهق باسم تخفيف المخاطر على المستهلكين.على سبيل المثال، إطار عمل خصوصية البيانات الشامل للاتحاد الأوروبي، القانون العام لحماية البيانات. يحتوي القانون العام لحماية البيانات على ثلاثة أهداف أساسية: حماية المستهلكين فيما يتعلق بمعالجة البيانات الشخصية، وحماية الحق في حماية البيانات الشخصية، وضمان حرية حركة البيانات الشخصية داخل الاتحاد. يمكن القول إن اللائحة العامة لحماية البيانات قد نجحت في تحقيق أول هدفين من هذه الأهداف بدرجات متفاوتة؛ حيث أنشأ التشريع حماية قوية للمستهلك حول جمع ومعالجة البيانات الشخصية.
ومع ذلك، فشل القانون العام لحماية البيانات في الغالب في تحقيق هدف ضمان حرية حركة البيانات. ولأن البيانات تتدفق بسلاسة عبر الحدود المادية، لا يمكن إعاقتها بسهولة.
وتابعت: "واجهت المنصات والتطبيقات التقنية وقتًا عصيبًا في الامتثال للقانون العام لحماية البيانات، الأمر الذي أدى بدوره إلى تقييد التدفق الطوعي والحر للمعلومات الشخصية بدلاً من ضمانها".
ووفقًا لإحدى الدراسات التي فحصت أكثر من 4 ملايين تطبيق برمجي، فإن تنفيذ القانون العام لحماية البيانات "تسبب في خروج حوالي ثلث التطبيقات المتاحة". ربما الأسوأ من ذلك، أن القانون أدى إلى ندرة الابتكار التكنولوجي في جميع أنحاء أوروبا. وجدت نفس الدراسة أن دخول التطبيقات الجديدة إلى السوق انخفض إلى النصف بعد تنفيذ اللائحة.
يعمل البرلمان الأوروبي الآن على تطوير تشريع يهدف إلى أن يكون "أول قانون شامل للذكاء الاصطناعي في العالم". وفي حين أن قانون الاتحاد الأوروبي للذكاء الاصطناعي المقترح ليس سياسة مناسبة للجميع على غرار القانون العام لحماية البيانات ولوائح التكنولوجيا الأوروبية الأخرى، فإنه سيضع قواعد صارمة لأي نظام يستخدم تقنية الذكاء الاصطناعي.
وختمت المجلة مشيرة إلى أن الولايات المتحدة لا تستطيع تحذو حذو أوروبا وتنفيذ اللوائح القاسية التي قد تعوق الابتكار من أجل التخفيف من الأضرار غير الثابتة. بالتأكيد تنتج أنظمة الذكاء الاصطناعي مخاطر جديدة وفريدة من نوعها في كل جانب من جوانب الحياة البشرية. لكن هذه التقنيات الجديدة تقدم أيضًا فرصًا جديدة وفريدة من نوعها لا ينبغي إعاقتها من خلال نهج ثقيل مدفوع بالذعر الأخلاقي.