تكنولوجيا

OpenAI توسع مدى توفر DALL-E 3 داخل ChatGPT


وسعت OpenAI إمكانية الوصول إلى مولد الصور بالذكاء الاصطناعي DALL-E 3، وتمنح الشركة لعملاء Plus و Enterprise إمكانية الوصول إلى نموذج DALL-E 3 الجديد من خلال التكامل المباشر مع ChatGPT. وأوضحت الشركة أنها نفذت تدابير مختلفة للأمان من أجل التخفيف من توليده للصور الضارة، مما يجعله جاهزًا للإصدار الواسع.

وأعلنت OpenAI في الشهر الماضي DALL-E 3 للمرة الأولى، وأظهرت الشركة كيف تحسن النموذج مقارنةً بالنموذج السابق DALL-E 2 من خلال السماح للمستخدمين بالاستفادة من ChatGPT لكتابة المطالبات النصية الطويلة من أجل الحصول على مخرجات من مولد الصور.

وقالت الشركة: “يمكن للنموذج الجديد مقارنةً بالنموذج السابق إنشاء صور واضحة من الناحية البصرية والتفاصيل، إذ يقدم نموذج DALL-E 3 تفاصيل معقدة، ومنها النص واليدين والوجوه، بالإضافة إلى قدرته على الاستجابة للمطالبات الشاملة والمفصلة، ودعمه لنسب العرض إلى الارتفاع الأفقية والعمودية”.

وأضافت الشركة DALL-E 3 إلى Bing Chat و Bing Image Generator، مما جعل منصة مايكروسوفت الأولى التي توفر وصولًا عامًا واسعًا إلى النموذج، حتى قبل ChatGPT.

كما يوفر النموذج الجديد للمستخدمين القدرة على إنشاء نص طباعة مضمن في الصور المولدة، مما يجعله مفيدًا بشكل خاص لأولئك الراغبين بإنشاء محتوى تجاري، مثل المواد التسويقية، أو الحصول على مصدر إلهام لتصميمات المنتجات.

موضوعات ذات صلة بما تقرأ الآن:

وأوضحت OpenAI أن نموذجها الجديد يتفوق بهذه الطريقة على العديد من منافسيه في مجال إنشاء الصور بتقنية الذكاء الاصطناعي، ومنهم Firefly 2 من شركة أدوبي، و Stable Diffusion من شركة Stability AI.

وتأتي تصريحات الشركة حول حواجز السلامة المنفذة بعد ظهور تقارير تفيد بأن حواجز الحماية المعلنة للتخفيف من الصور الضارة لم تكن ناحجة.

وأنشأ المستخدمون صورًا لمركز التجارة العالمي، كما أدت الحلول البسيطة الأخرى إلى نتائج مماثلة حتى بعد منع مايكروسوفت لبعض المطالبات.

وكتبت الشركة: “نستخدم نظام أمان ذو مستويات متعددة للحد من قدرة النموذج على إنشاء صور قد تكون ضارة، ومنها المحتوى العنيف أو المحتوى الذي يحض على الكراهية. نجري فحوصات الأمان عبر مطالبات المستخدم والصور الناتجة قبل ظهورها للمستخدمين”.

وأضافت: “عملنا أيضًا مع المستخدمين الأوائل والخبراء لتحديد الثغرات ومعالجتها في أنظمتنا للسلامة التي ظهرت مع إمكانات النموذج الجديد. ساعدتنا التعليقات في تحديد الحالات المتطورة لإنشاء المحتوى الرسومي، واختبار الإجهاد لقدرة النموذج على إنشاء الصور المضللة بشكل مقنع”.

وتركز الضمانات الأخرى على الحد من قدرة DALL-E 3 على إنشاء المحتوى بأسلوب الفنانين الأحياء وصور الشخصيات العامة، وبذلت الشركة جهودًا لتعزيز التمثيل الديموغرافي من خلال صور النموذج.

وأنشأت OpenAI موقعًا إلكترونيًا لتعزيز الشفافية يعرض الأبحاث التي أدت إلى إنشاء DALL-E 3، إلى جانب أداة تصنيف الصور التي يمكنها معرفة إذا كانت الصورة مولدة بأدواتها بدقة تتراوح بين نحو 95 في المئة و 99 في المئة.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى