تنظيم الذكاء الاصطناعي في “ أيامه الأولى ”
كان تنظيم الذكاء الاصطناعي موضوعًا ساخنًا في واشنطن في الأشهر الأخيرة ، حيث عقد المشرعون جلسات استماع ومؤتمرات صحفية وأعلن البيت الأبيض عن التزامات أمان طوعية بالذكاء الاصطناعي من قبل سبع شركات تكنولوجيا يوم الجمعة.
لكن إلقاء نظرة فاحصة على النشاط يثير أسئلة حول مدى أهمية الإجراءات في وضع السياسات حول التكنولوجيا سريعة التطور.
الجواب هو أنها ليست ذات مغزى بعد. قال المشرعون وخبراء السياسة إن الولايات المتحدة ما زالت في بداية الطريق الذي من المرجح أن يكون طريقًا طويلًا وصعبًا نحو إنشاء قواعد الذكاء الاصطناعي. في حين كانت هناك جلسات استماع واجتماعات مع كبار المسؤولين التنفيذيين في مجال التكنولوجيا في البيت الأبيض وخطب لتقديم مشاريع قوانين الذكاء الاصطناعي ، فمن السابق لأوانه التنبؤ حتى بأقسى مخططات اللوائح لحماية المستهلكين واحتواء المخاطر التي تشكلها التكنولوجيا على الوظائف وانتشار المعلومات المضللة والأمن.
قال كريس لويس ، رئيس مجموعة المستهلكين العامة المعرفة ، التي دعت إلى إنشاء وكالة مستقلة لتنظيم الذكاء الاصطناعي وشركات التكنولوجيا الأخرى: “ما زالت هذه الأيام مبكرة ، ولا أحد يعرف كيف سيبدو القانون بعد”.
لا تزال الولايات المتحدة متخلفة عن أوروبا ، حيث يستعد المشرعون لسن قانون ذكاء اصطناعي في وقت لاحق من هذا العام من شأنه أن يضع قيودًا جديدة على ما يُنظر إليه على أنه أكثر الاستخدامات خطورة للتكنولوجيا. في المقابل ، لا يزال هناك الكثير من الخلاف في الولايات المتحدة حول أفضل طريقة للتعامل مع التكنولوجيا التي لا يزال العديد من المشرعين الأمريكيين يحاولون فهمها.
قال خبراء السياسة إن هذا يناسب العديد من شركات التكنولوجيا. بينما قالت بعض الشركات إنها ترحب بالقواعد المتعلقة بالذكاء الاصطناعي ، فقد جادلت أيضًا ضد اللوائح الصارمة المشابهة لتلك التي يتم إنشاؤها في أوروبا.
إليك ملخص عن حالة لوائح الذكاء الاصطناعي في الولايات المتحدة.
في البيت الأبيض
كانت إدارة بايدن في جولة استماع سريعة مع شركات الذكاء الاصطناعي والأكاديميين ومجموعات المجتمع المدني. بدأت الجهود في مايو باجتماع نائبة الرئيس كامالا هاريس في البيت الأبيض مع الرؤساء التنفيذيين لشركة Microsoft و Google و OpenAI و Anthropic ، حيث دفعت صناعة التكنولوجيا إلى التعامل مع السلامة بجدية أكبر.
يوم الجمعة ، ظهر ممثلو سبع شركات تكنولوجيا في البيت الأبيض للإعلان عن مجموعة من المبادئ لجعل تقنيات الذكاء الاصطناعي الخاصة بهم أكثر أمانًا ، بما في ذلك الفحوصات الأمنية للجهات الخارجية ووضع علامة مائية على المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي للمساعدة في وقف انتشار المعلومات المضللة.
العديد من الممارسات التي تم الإعلان عنها كانت مطبقة بالفعل في أوبن إيه آي وجوجل ومايكروسوفت ، أو كانت في طريقها للتنفيذ. ليست قابلة للتنفيذ بموجب القانون. كما أن الوعود بالتنظيم الذاتي لم تحقق ما كانت تأمله مجموعات المستهلكين.
قالت كايتريونا فيتزجيرالد ، نائبة مدير مركز معلومات الخصوصية الإلكترونية ، وهي مجموعة خصوصية: “الالتزامات الطوعية ليست كافية عندما يتعلق الأمر بشركة Big Tech”. “يجب على الكونجرس والمنظمين الفيدراليين وضع حواجز ذات مغزى وقابلة للتنفيذ لضمان استخدام الذكاء الاصطناعي بشكل عادل وشفاف ويحمي خصوصية الأفراد وحقوقهم المدنية.”
في الخريف الماضي ، قدم البيت الأبيض مخططًا لقانون حقوق الذكاء الاصطناعي ، وهي مجموعة من الإرشادات حول حماية المستهلك باستخدام التكنولوجيا. الإرشادات أيضًا ليست لوائح وليست قابلة للتنفيذ. هذا الأسبوع ، قال مسؤولو البيت الأبيض إنهم يعملون على أمر تنفيذي بشأن الذكاء الاصطناعي ، لكنهم لم يكشفوا عن التفاصيل والتوقيت.
في الكونجرس
جاءت أعلى أصوات طبول تنظيم الذكاء الاصطناعي من المشرعين ، الذين قدم بعضهم مشاريع قوانين بشأن التكنولوجيا. تشمل مقترحاتهم إنشاء وكالة للإشراف على الذكاء الاصطناعي ، والمسؤولية عن تقنيات الذكاء الاصطناعي التي تنشر المعلومات المضللة ، ومتطلبات الترخيص لأدوات الذكاء الاصطناعي الجديدة.
كما عقد المشرعون جلسات استماع حول الذكاء الاصطناعي ، بما في ذلك جلسة استماع في مايو مع سام ألتمان ، الرئيس التنفيذي لشركة أوبن إيه آي ، التي تصنع روبوت الدردشة ChatGPT. ألقى بعض المشرعين أفكارًا حول لوائح أخرى أثناء جلسات الاستماع ، بما في ذلك الملصقات الغذائية لإخطار المستهلكين بمخاطر الذكاء الاصطناعي.
مشاريع القوانين في مراحلها الأولى وحتى الآن لا تحظى بالدعم اللازم للمضي قدمًا. في الشهر الماضي ، أعلن زعيم مجلس الشيوخ تشاك شومر ، الديمقراطي عن ولاية نيويورك ، عن عملية استمرت شهورًا لوضع تشريع للذكاء الاصطناعي يتضمن جلسات تعليمية للأعضاء في الخريف.
قال خلال كلمة ألقاها في ذلك الوقت في مركز الدراسات الاستراتيجية والدولية: “من نواحٍ عديدة ، نبدأ من الصفر ، لكنني أعتقد أن الكونجرس على مستوى التحدي”.
في الوكالات الفيدرالية
بدأت الوكالات التنظيمية في اتخاذ إجراءات من خلال مراقبة بعض المشكلات الناشئة عن الذكاء الاصطناعي
في الأسبوع الماضي ، فتحت لجنة التجارة الفيدرالية تحقيقًا في ChatGPT التابع لشركة OpenAI ، وطلبت معلومات حول كيفية تأمين الشركة لأنظمتها وكيف يمكن أن يضر برنامج الدردشة الآلي بالمستهلكين من خلال إنشاء معلومات خاطئة. قالت رئيسة لجنة التجارة الفيدرالية لينا خان إنها تعتقد أن الوكالة تتمتع بسلطة واسعة بموجب قوانين حماية المستهلك والمنافسة لضبط السلوك الإشكالي لشركات الذكاء الاصطناعي.
قال أندريس ساويكي ، أستاذ القانون في جامعة ميامي: “انتظار الكونجرس للتحرك ليس مثاليًا بالنظر إلى الجدول الزمني المعتاد لعمل الكونجرس”.