أطلقت أربع شركات رائدة في مجال الذكاء الاصطناعي مجموعة جديدة يوم الأربعاء لتحديد أفضل ممارسات السلامة وتعزيز استخدام التقنية في مواجهة التحديات المجتمعية الكبيرة.
وتؤكد المجموعة ضرورة احتياج الصناعة إلى الاستمرار في مراقبة نفسها، وذلك إلى أن يتوصل صانعو السياسات إلى قواعد جديدة.
وقالت جوجل، ومايكروسوفت، وأوبن أي آي، وأنثروبيك إن (منتدى نموذج الحدود) Frontier Model Forum الجديد يسعى إلى تحقيق أربعة أهداف رئيسية، حددتها جوجل في منشور على مدونتها.
ويسعى الهدف الأول إلى النهوض بأبحاث السلامة الخاصة بالذكاء الاصطناعي لتعزيز التطوير المسؤول لنماذج الحدود، وتقليل المخاطر، وتمكين التقييمات المستقلة والموحدة للقدرات والسلامة.
ويعمل الهدف الثاني على تحديد أفضل الممارسات للتطوير المسؤول ونشر نماذج الحدود، ومساعدة الجمهور على فهم طبيعة التقنية وقدراتها وحدودها وتأثيرها.
ويتمثل الهدف الثالث في التعاون مع صانعي السياسات والأكاديميين والمجتمع المدني والشركات للتبادل المعرفي بشأن مخاطر الثقة والسلامة.
ويهدف المنتدى أخيرًا إلى دعم الجهود المبذولة لتطوير التطبيقات التي يمكن أن تساعد في مواجهة أكبر تحديات المجتمع، مثل: التخفيف من تغير المناخ والتكيف معه، والكشف المبكر عن السرطان والوقاية منه، ومكافحة التهديدات السيبرانية.
وقالت الشركات التي أسست (منتدى نموذج الحدود) إنه يمكن للمنظمات التي تستوفي عدة معايير الانضمام إلى المجموعة.
وقالت جوجل في منشورها إن ذلك يشمل تطوير نماذج حدود أو نشرها، أو «نماذج التعلم الآلي الواسعة النطاق التي تتجاوز القدرات الموجودة حاليًا في النماذج الحالية الأكثر تقدمًا، ويمكنها أداء مجموعة متنوعة من المهام».
ويجب على الشركات أيضًا إظهار التزامها بالسلامة «من خلال الأساليب التقنية والمؤسسية».
وقالت المجموعة إنها سوف تنشئ في الأشهر المقبلة مجلسًا استشاريًا من خلفيات متنوعة لتوجيه أولوياتها. وسوف تتشاور الشركات المُؤسِّسة مع منظمات المجتمع المدني عندما تبتكر تصميم الحوكمة وتمويلها.
ويأتي هذا الجهد في الوقت الذي يعمل فيه صانعو السياسة على تحديد الشكل الذي يمكن أن تبدو عليه التقنية، وذلك دون إعاقة الابتكار والتنازل عن مكانة الحكومات في سباق الذكاء الاصطناعي الذي أواخر العام الماضي بعد أن أطلقت شركة (أوبن أي آي) روبوت الدردشة (شات جي بي تي) ChatGPT.