مواكبة صناعة سريعة التطور مثل الذكاء الاصطناعي تعد تحديًا كبيرًا. لذا، حتى يتسنى لك متابعة التطورات بسهولة، نقدم لك ملخصًا مفيدًا لأحدث القصص في عالم التعلم الآلي، بالإضافة إلى أبحاث وتجارب بارزة لم نقم بتغطيتها بشكل منفصل.
هذا الأسبوع في مجال الذكاء الاصطناعي، هيمنت شركة OpenAI مرة أخرى على دورة الأخبار، على الرغم من جهود Google المستمرة. أطلقت الشركة منتجًا جديدًا، وأثارت بعض الأحداث المثيرة. كشفت OpenAI عن GPT-4o، أحدث نموذج توليدي لها وأكثرها قدرة حتى الآن، وبعد بضعة أيام فقط، قامت بتفكيك فريق كان يعمل على تطوير ضوابط لمنع أنظمة الذكاء الاصطناعي “الفائقة الذكاء” من الخروج عن السيطرة.
أثار تفكيك الفريق العديد من العناوين الإخبارية، كما هو متوقع. تشير التقارير، بما في ذلك تقاريرنا، إلى أن OpenAI قللت من أولوية أبحاث السلامة التي يقوم بها الفريق لصالح إطلاق منتجات جديدة مثل GPT-4o، مما أدى في النهاية إلى استقالة قائدي الفريق، جان ليك وأحد مؤسسي OpenAI، إيليا سوتسكيفر.
في الوقت الحالي، يعتبر الذكاء الاصطناعي الفائق نظريًا أكثر من كونه واقعيًا؛ ليس من الواضح متى، أو ما إذا، ستتمكن صناعة التكنولوجيا من تحقيق الاختراقات اللازمة لخلق ذكاء اصطناعي قادر على إنجاز أي مهمة يمكن للإنسان القيام بها. لكن تغطية هذا الأسبوع تؤكد شيئًا واحدًا: أن قيادة OpenAI، وخصوصًا الرئيس التنفيذي سام ألتمان، أصبحت بشكل متزايد تعطي الأولوية للمنتجات على حساب الضمانات.
أثارت قرارات ألتمان غضب سوتسكيفر، خاصة بعد أن قام بإطلاق ميزات مدعومة بالذكاء الاصطناعي في أول مؤتمر مطوري لشركة OpenAI في نوفمبر الماضي. كما انتقد ألتمان هيلين تونر، مديرة في مركز الأمن والتقنيات الناشئة بجامعة جورجتاون وعضوة سابقة في مجلس إدارة OpenAI، بسبب ورقة بحثية شاركت في تأليفها وانتقدت نهج OpenAI في السلامة، إلى درجة أنه حاول دفعها للخروج من المجلس.
على مدار العام الماضي، امتلأ متجر روبوت الدردشة الخاص بـ OpenAI بالرسائل غير المرغوب فيها، وزُعم أنها جمعت بيانات من YouTube بما يخالف شروط الخدمة الخاصة بالمنصة. وفي نفس الوقت، أعربت الشركة عن طموحاتها في السماح لذكائها الاصطناعي بإنشاء صور إباحية ومشاهد دموية. من الواضح أن السلامة قد أصبحت أقل أهمية في الشركة، وخلص عدد متزايد من باحثي السلامة في OpenAI إلى أن عملهم سيكون أفضل دعمًا في مكان آخر.
إليك بعض القصص الأخرى البارزة في مجال الذكاء الاصطناعي من الأيام القليلة الماضية:
اتفاقية جديدة بين OpenAI و Reddit: في تطور جديد، توصلت شركة OpenAI إلى اتفاقية مع Reddit لاستخدام بيانات الموقع في تدريب نماذج الذكاء الاصطناعي. تفاعلت وول ستريت بترحيب شديد مع هذه الصفقة، ولكن قد لا يكون جمهور Reddit سعيدًا بذلك.
الأخبار الجديدة حول الذكاء الاصطناعي من Google: استضافت Google مؤتمرها السنوي للمطورين I/O هذا الأسبوع، وكشفت عن مجموعة من المنتجات المبتكرة بدعم من الذكاء الاصطناعي. تضمنت هذه المنتجات Veo الذي ينتج مقاطع الفيديو، ونتائج محرك البحث Google المنظمة بشكل ذكي، بالإضافة إلى تحديثات لتطبيقات Gemini للدردشة من Google.
انضمام مايك كريغر إلى Anthropic: ينضم مايك كريغر، أحد مؤسسي Instagram وتطبيق الأخبار Artifact، إلى شركة Anthropic كمدير للمنتجات الرئيسي للشركة. سيتولى كريغر مهمة إشراف الجهود الاستهلاكية والتجارية للشركة.
فرص جديدة في مجال الذكاء الاصطناعي للأطفال: أعلنت Anthropic الأسبوع الماضي عن فتح أبواب جديدة للمطورين لإنشاء تطبيقات موجهة للأطفال تعتمد على نماذجها للذكاء الاصطناعي، بشرط الالتزام ببعض القواعد. يُذكر أن شركات منافسة مثل Google تمنع استخدام الذكاء الاصطناعي في تطبيقات تستهدف الفئات العمرية الصغيرة.
مهرجان أفلام الذكاء الاصطناعي: أقامت شركة Runway، الناشئة في مجال الذكاء الاصطناعي، مهرجانها الثاني لأفلام الذكاء الاصطناعي في وقت سابق من هذا الشهر. وبالرغم من أن العرض كان مليئًا بالتقنيات الحديثة، إلا أن بعض أقوى اللحظات جاءت من لمسات إبداعية بشرية، وليس فقط من التقنيات الذكية.
المزيد من التعلم الآلي
الإطار الجديد يتألف من ثلاثة خطوات: أولاً، يتم تحديد القدرات الضارة المحتملة في النموذج عن طريق محاكاة مسارات تطوره. ثانياً، يتم تقييم النماذج بانتظام لاكتشاف متى تصل إلى “مستويات القدرات الحرجة” المعروفة. ثالثاً، يتم تطبيق خطة للتخفيف لمنع التسرب (بواسطة الآخر أو بنفسه) أو نشر المشكلات. يمكنكم الاطلاع على المزيد من التفاصيل هنا. قد تبدو هذه الإجراءات واضحة نوعًا ما، ولكن من الضروري تنظيمها رسميًا؛ خلاف ذلك، سيكون الجميع يتصرف بشكل عشوائي، وهذا ما يؤدي إلى ظهور الذكاء الاصطناعي السيء.
فريق البحث في جامعة كامبريدج يشير إلى مخاطر مختلفة تمامًا، ويعبرون عن قلق مبرر من انتشار الروبوتات الدردشة التي يتم تدريبها على بيانات شخص متوفى من أجل تقديم محاكاة سطحية لهذا الشخص. قد تجدون، كما أفعل، أن المفهوم بأكمله غير مقبول، ولكن يمكن استخدامه في إدارة الحزن وسيناريوهات أخرى إذا تمت مراعاة الحذر. المشكلة تكمن في أننا لسنا حذرين بما يكفي.
“هذا المجال في مجال الذكاء الاصطناعي هو حقل أخلاقي معقد للغاية”، قالت الباحثة الرئيسية كاتارجينا نوافتشيك-باسينسكا. “نحتاج إلى البدء في التفكير الآن في كيفية التخفيف من المخاطر الاجتماعية والنفسية للخلود الرقمي، لأن التكنولوجيا متوفرة بالفعل.” يحدد الفريق العديد من الاحتيالات والنتائج السلبية والإيجابية المحتملة، ويناقش المفهوم بشكل عام (بما في ذلك الخدمات المزيفة) في ورقة نشرت في مجلة الفلسفة والتكنولوجيا. يتنبأ مسلسل “المرآة السوداء” بالمستقبل مرة أخرى!
في تطبيقات أقل غرابة للذكاء الاصطناعي، ينظر الفيزيائيون في MIT إلى أداة مفيدة (بالنسبة لهم) لتنبؤ بمرحلة أو حالة نظام فيزيائي، وهو عادة مهمة إحصائية يمكن أن تصبح متعبة مع الأنظمة المعقدة أكثر. ولكن من خلال تدريب نموذج للتعلم الآلي على البيانات المناسبة وتحديد بعض الخصائص المعروفة للمواد للنظام، يمكنك الحصول على طريقة أكثر كفاءة بكثير. هذا مجرد مثال آخر على كيفية استخدام التعلم الآلي في العلوم المتقدمة.
في جامعة كولورادو بولدر، يتحدثون عن كيفية يمكن استخدام الذكاء الاصطناعي في إدارة الكوارث. قد يكون التكنولوجيا مفيدة للتنبؤ السريع بمكان الاحتياجات من الموارد، ورسم الخرائط للأضرار، وحتى مساعدة تدريب المستجيبين، لكن الناس (بشكل مفهوم) مترددون في تطبيقها في سيناريوهات الحياة والموت.
الأستاذ أمير بهزادان يعمل جاهدًا على تقدم الأمور. يشير إلى أن “الذكاء الاصطناعي المركز على الإنسان يمكن أن يؤدي إلى تحسين فعالية استجابة الكوارث وممارسات الانتعاش، من خلال تعزيز التعاون والتفاهم والشمولية بين أفراد الفريق والناجين وأصحاب المصلحة.” ومع أنهم لا يزالون في مرحلة الورشة، إلا أن التفكير العميق في هذه القضايا قبل المحاولة، مثل توزيع المساعدات تلقائيًا بعد إعصار، أمر مهم.
وفي نهاية المطاف، هناك بعض الأبحاث المثيرة التي أجرتها ديزني، حيث كانوا يبحثون في كيفية تنويع نتائج نماذج توليد الصور بالانتشار. يُظهر الحل “استراتيجية عيناتنا” تبريد إشارة التكييف عن طريق إضافة ضوضاء غوسية منتظمة وانخفاضية تدريجيًا إلى الفيكتور المشروط أثناء الاستنتاج، لتحقيق توازن بين التنوع وتوافق الشرط.
النتيجة هي تنوع أوسع بكثير في الزوايا والإعدادات والمظهر العام في نواتج الصور. في بعض الأحيان قد ترغب في هذا، وفي بعض الأحيان لا، لكن من الجيد أن يكون لديك هذا الخيار.
الخلاصة
- مواكبة تطورات صناعة الذكاء الاصطناعي تمثل تحديًا كبيرًا، وهذا ما يحاول “OpenAI” تحقيقه بالرغم من تحدياتها الأخيرة. الشركة قامت بإطلاق منتج جديد، “GPT-4o”، ولكن الأحداث الأخيرة أثارت قلقًا بشأن توجهها نحو البحث والتطوير. قد تكون التقارير المتداولة حول استقالة بعض قادة الفريق مبالغ فيها، ولكنها تشير إلى اهتمامات متناقضة داخل الشركة بين السلامة والابتكار.
- قرارات إدارة “OpenAI” واستجابتها للضغوط قد أثارت جدلاً داخليًا وخارجيًا. يبدو أن الشركة تتجه نحو التركيز على المنتجات بدرجة أكبر، وهو ما قد يؤثر على التزامها بمبادئ السلامة. هذا التوتر قد دفع العديد من المسؤولين والمستثمرين إلى التساؤل حول مسار الشركة المستقبلي واستعدادها للتعامل مع تحديات تطوير التكنولوجيا بشكل أكثر شمولًا وأمانًا.
- على الرغم من الجدل الذي أثارته “OpenAI”، يظل الاهتمام بالذكاء الاصطناعي مرتفعًا، مما يعكس الأهمية المتزايدة لهذا المجال في التكنولوجيا الحديثة. من المهم أن نتابع هذه التطورات بعناية، مع التركيز على تحقيق التقدم التقني بشكل مستدام ومسؤول.
مصدر المقال
موقع: techcrunch.com