استقال ديف ويلنر، رئيس قسم الثقة والأمان في OpenAI، الشركة التي تعمل وراء ChatGPT، عن منصبه بالشركة حيث تواجه صناعة الذكاء الاصطناعي مزيدًا من التدقيق حول الخصوصية والأمان، ويعمل ويلنر في الثقة والأمان منذ ما يقرب من عقد من الزمان، فقبل الانضمام إلى OpenAI، كان ويلنر رئيسًا للثقة والأمان في شركة Otter الناشئة لرعاية الأطفال، وقاد سياسة الثقة والمجتمع في Airbnb.
أطلقت لجنة التجارة الفيدرالية (FTC) تحقيقًا في OpenAI الأسبوع الماضي لتحديد ما إذا كانت أساليب جمع بيانات التدريب لديها تنتهك حقوق المستهلك.
كما أعربت لجنة الأوراق المالية والبورصات عن قلقها من أن نماذج الذكاء الاصطناعي الكبيرة يمكن أن تركز البيانات واتخاذ القرار في مجال التمويل، مما يؤدي إلى نوع من التفكير الجماعي يشبه الأحداث التي سبقت الأزمة المالية لعام 2008.
وقعت شركة OpenAI و Meta و Microsoft وغيرها من الأسماء الكبيرة في مجال الذكاء الاصطناعي التزامًا مع البيت الأبيض هذا الأسبوع للاستثمار في أبحاث الأمن والتمييز ونظام علامة مائية جديد لتحديد المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.
كان سام ألتمان، الرئيس التنفيذي لشركة OpenAI، صريحًا بشأن لوائح الذكاء الاصطناعي، داعيًا الكونجرس إلى سن سياسات، وكما ذكرت بلومبرج، فقد دعم مبادرة لطلب تراخيص لتطوير نماذج قوية للذكاء الاصطناعي.
قالت الشركة، إن كبيرة مسؤولي التكنولوجيا ميرا موراتي ستدير فريق الثقة والأمان في غضون ذلك وستبحث عن قائد ثقة جديد.
وقالت شركة OpenAI في بيان لها لموقع The Verge: “نحن نسعى إلى قائد ماهر تقنيًا لدفع مهمتنا، مع التركيز على تصميم وتطوير وتنفيذ الأنظمة التي تضمن الاستخدام الآمن والنمو القابل للتطوير لتقنيتنا”.
وقال ويلنر في منشور على LinkedIn إنه قرر تحقيق التوازن بين العمل مع الشركات الصغيرة ورؤية أطفاله يكبرون بعد حضور أحدث مؤتمر TrustCon، وهو مؤتمر لمتخصصي الثقة والسلامة.
وأضاف ويلنر: “سمحت لي تلك اللحظة من الوضوح بالتوصل إلى قرار ربما يبدو أنه غير منطقي بالنسبة لكثير من الناس ولكنه يبدو مناسبًا للغاية بالنسبة لي”، موضحا “انتهى الأمر إلى أن يكون اختيارًا سهلًا جدًا، على الرغم من أنه ليس خيارًا يفعله الأشخاص في منصبي كثيرًا بشكل صريح.. آمل أن تساعد هذه المشاركة في تطبيعها”.
لا تعليق