Connect with us

Hi, what are you looking for?

اقتصاد

سؤال وجواب من الداخل: ميرا موراتي ، رئيس قسم التكنولوجيا في OpenAI ، حول رعاية ChatGPT

تتحدث عن إجراءات حماية الذكاء الاصطناعي ورؤية الشركة للمفهوم المستقبلي للذكاء الاصطناعي العام

ميرا موراتي ، رئيس قسم التكنولوجيا في OpenAI. يقود موراتي فرق البحث والمنتج والسلامة في OpenAI. – ا ف ب

كانت شركة OpenAI تبني سمعة طيبة في مجال الذكاء الاصطناعي ولكنها لم تكن اسمًا مألوفًا عندما انضمت ميرا موراتي إلى مختبر الأبحاث غير الربحي في عام 2018.

بعد فترة وجيزة ، بدأ مختبر سان فرانسيسكو تحولًا كبيرًا. لقد حولت نفسها إلى شركة جذبت اهتمامًا عالميًا بصفتها صانع ChatGPT.

الآن ، كبير مسؤولي التكنولوجيا ، يقود Murati فرق البحث ، والمنتجات والسلامة في OpenAI. لقد قادت تطوير وإطلاق نماذج الذكاء الاصطناعي الخاصة بها بما في ذلك ChatGPT ، ومولد الصور DALL-E والأحدث ، GPT-4.

تحدثت مع وكالة أسوشيتيد برس حول ضمانات الذكاء الاصطناعي ورؤية الشركة للمفهوم المستقبلي للذكاء الاصطناعي العام ، المعروف باسم AGI. تم تحرير المقابلة من أجل الطول والوضوح.

س: ماذا يعني الذكاء العام الاصطناعي لشركة OpenAI؟

أ: بالذكاء العام الاصطناعي ، فإننا نعني عادةً الأنظمة ذاتية التحكم للغاية القادرة على إنتاج مخرجات اقتصادية ومخرجات اقتصادية كبيرة. بمعنى آخر ، الأنظمة التي يمكنها التعميم عبر مجالات مختلفة. إنها قدرة على المستوى البشري. تتمثل رؤية OpenAI المحددة حولها في بنائها بأمان ومعرفة كيفية بنائها بطريقة تتماشى مع النوايا البشرية ، بحيث تقوم أنظمة الذكاء الاصطناعي بالأشياء التي نريدها أن تفعلها ، وتستفيد إلى أقصى حد من العديد من الأشخاص هناك قدر الإمكان ، من الناحية المثالية للجميع.

س: هل هناك مسار بين منتجات مثل GPT-4 و AGI؟

أ: نحن بعيدون عن نقطة امتلاك نظام AGI آمن وموثوق ومتوافق. طريقنا للوصول إلى هناك له عدة نواقل مهمة. من وجهة نظر بحثية ، نحاول بناء أنظمة لديها فهم قوي للعالم بشكل مشابه لما نفعله كبشر. تم تدريب أنظمة مثل GPT-3 في البداية على البيانات النصية فقط ، ولكن عالمنا ليس فقط مكونًا من نص ، لذلك لدينا صور أيضًا ثم بدأنا في تقديم أساليب أخرى. كانت الزاوية الأخرى تحجيم هذه الأنظمة لزيادة عموميتها. مع GPT-4 ، نتعامل مع نظام أكثر قدرة ، وتحديداً من زاوية التفكير في الأشياء. هذه القدرة هي المفتاح. إذا كان النموذج ذكيًا بما يكفي لفهم اتجاه غامض أو اتجاه عالي المستوى ، فيمكنك معرفة كيفية جعله يتبع هذا الاتجاه. ولكن إذا لم يفهم حتى هذا الهدف رفيع المستوى أو الاتجاه رفيع المستوى ، فسيكون من الصعب جدًا مواءمته. لا يكفي بناء هذه التكنولوجيا في فراغ في المختبر. نحتاج حقًا إلى هذا الاتصال بالواقع ، مع العالم الحقيقي ، لنرى أين توجد نقاط الضعف ، وأين توجد نقاط الانهيار ، ونحاول القيام بذلك بطريقة يتم التحكم فيها ومنخفضة المخاطر والحصول على أكبر قدر ممكن من التعليقات.

س: ما هي إجراءات السلامة التي تتخذونها؟

أ: نفكر في التدخلات في كل مرحلة. نقوم بتنقيح بيانات معينة من التدريب الأولي على النموذج. مع DALL-E ، أردنا تقليل مشكلات التحيز الضار التي كنا نراها. قمنا بتعديل نسبة صور الإناث والذكور في مجموعة بيانات التدريب. لكن عليك أن تكون حذرًا للغاية لأنك قد تخلق بعض الاختلالات الأخرى. عليك أن تراجع باستمرار. في هذه الحالة ، حصلنا على تحيز مختلف لأن الكثير من هذه الصور كانت ذات طبيعة جنسية. لذلك عليك تعديلها مرة أخرى وأن تكون حذرًا للغاية بشأن كل مرة تقوم فيها بتدخل ، لترى ما الذي يتم تعطيله أيضًا. في التدريب النموذجي ، مع ChatGPT على وجه الخصوص ، قمنا بالتعلم المعزز من خلال ردود الفعل البشرية لمساعدة النموذج على التوافق بشكل أكبر مع التفضيلات البشرية. ما نحاول فعله بشكل أساسي هو تضخيم ما يعتبر سلوكًا جيدًا ثم إلغاء تضخيم ما يعتبر سلوكًا سيئًا.

س: هل يجب تنظيم هذه الأنظمة؟

أ: نعم على الاطلاق. يجب تنظيم هذه الأنظمة. في OpenAI ، نتحدث باستمرار مع الحكومات والهيئات التنظيمية والمنظمات الأخرى التي تطور هذه الأنظمة ، على الأقل على مستوى الشركة ، للاتفاق على مستوى معين من المعايير. لقد قمنا ببعض العمل على ذلك في العامين الماضيين مع مطوري نماذج اللغة الكبيرة في التوافق مع بعض معايير الأمان الأساسية لنشر هذه النماذج. لكني أعتقد أن هناك الكثير مما يجب أن يحدث. ومن المؤكد أن المنظمين الحكوميين يجب أن يكونوا منخرطين للغاية.

س: حظي خطاب يدعو إلى توقف صناعي لمدة 6 أشهر في بناء نماذج ذكاء اصطناعي أقوى من GPT-4 باهتمام كبير. ما رأيك في العريضة وافتراضها بشأن مخاطر الذكاء الاصطناعي؟

أ: انظر ، أعتقد أن تصميم آليات السلامة في الأنظمة المعقدة أمر صعب. هناك الكثير من الفروق الدقيقة هنا. بعض المخاطر التي أشارت إليها الرسالة صحيحة تمامًا. في OpenAI ، كنا نتحدث عنها بصراحة شديدة لسنوات وندرسها أيضًا. لا أعتقد أن توقيع خطاب هو وسيلة فعالة لبناء آليات السلامة أو للتنسيق بين اللاعبين في الفضاء. كانت بعض العبارات الواردة في الرسالة غير صحيحة بشأن تطوير GPT-4 أو GPT-5. نحن لا نقوم بتدريب GPT-5. ليس لدينا أي خطط للقيام بذلك في الأشهر الستة المقبلة. ولم نسرع ​​في الخروج من GPT-4. في الواقع ، لقد استغرقنا ستة أشهر للتركيز بالكامل على التطوير الآمن ونشر GPT-4. حتى ذلك الحين ، قمنا بتدويره بعدد كبير من الدرابزين وطرح بطيء ومتناسق للغاية. لا يمكن للجميع الوصول إليه بسهولة ، وهو بالتأكيد ليس مفتوح المصدر. كل هذا يعني أنني أعتقد أن آليات السلامة وآليات التنسيق في أنظمة الذكاء الاصطناعي هذه وأي نظام تكنولوجي معقد أمر صعب ويتطلب الكثير من التفكير والاستكشاف والتنسيق بين اللاعبين.

س: ما مدى تغير OpenAI منذ انضمامك؟

أ: عندما انضممت إلى OpenAI ، كانت منظمة غير ربحية. اعتقدت أن هذه كانت أهم تقنية سنبنيها كبشرية على الإطلاق ، وشعرت حقًا أن شركة ذات مهمة OpenAI ستعمل على الأرجح على التأكد من أنها تسير على ما يرام. بمرور الوقت ، قمنا بتغيير هيكلنا لأن هذه الأنظمة باهظة الثمن. إنها تتطلب الكثير من التمويل. لقد حرصنا على هيكلة الحوافز بطريقة تجعلنا نخدم المهمة غير الربحية. لهذا السبب لدينا هيكل “ربح محدود”. يتمتع الأشخاص في OpenAI بدوافع جوهرية ومتوافقة مع المهمة ، وهذا لم يتغير منذ البداية. ولكن على مدار خمس سنوات ، تطور تفكيرنا كثيرًا عندما يتعلق الأمر بأفضل طريقة للنشر ، وما هي الطريقة الأكثر أمانًا. ربما يكون هذا هو الاختلاف الأوضح. أعتقد أنه تغيير جيد.

س: هل توقعت الرد على ChatGPT قبل إصداره في 30 نوفمبر؟

أ: كانت التكنولوجيا الأساسية موجودة منذ شهور. كانت لدينا ثقة عالية في قيود النموذج من العملاء الذين كانوا يستخدمونه بالفعل عبر واجهة برمجة التطبيقات. لكننا أجرينا بعض التغييرات على النموذج الأساسي. قمنا بتكييفه للحوار. ثم جعلنا ذلك متاحًا للباحثين من خلال واجهة ChatGPT جديدة. كنا نستكشفها داخليًا مع مجموعة صغيرة موثوق بها ، وأدركنا أن عنق الزجاجة يكمن في الحصول على مزيد من المعلومات والحصول على المزيد من البيانات من الأشخاص. أردنا توسيعه ليشمل المزيد من الأشخاص في ما نسميه معاينة البحث ، وليس منتجًا. كان القصد من ذلك هو جمع التعليقات حول كيفية تصرف النموذج واستخدام تلك البيانات لتحسين النموذج وجعله أكثر اتساقًا. لم نتوقع الدرجة التي سيكون عندها الناس مفتونون بالتحدث إلى نظام ذكاء اصطناعي. كانت مجرد معاينة بحثية. عدد المستخدمين وما إلى ذلك ، لم نتوقع هذا المستوى من الإثارة.

اضف تعليقك

اترك تعليقك

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات ذات صلة

اخر الاخبار

سيتواجه تايسون فيوري وأولكسندر أوسيك في مواجهة تاريخية توصف بأنها معركة جيل يوم السبت مع أول نزال في الوزن الثقيل بلا منازع منذ 25...

اخر الاخبار

القاهرة يبدو أن مصر في طريقها للخروج عن الممارسات السابقة والسماح بتعويم عملتها تماشيا مع الإصلاحات التي يدعمها صندوق النقد الدولي، لكن التغييرات الهيكلية...

الخليج

من المتوقع أن يكون الطقس في دولة الإمارات العربية المتحدة معتدلاً إلى غائم جزئياً وأحياناً مغبراً يوم الجمعة (17 مايو)، وفقاً للمركز الوطني للأرصاد...

دولي

توفي مراهق أمريكي بسبب سكتة قلبية بعد مشاركته في تحدي عبر وسائل التواصل الاجتماعي يتحدى الناس على تناول شريحة تورتيلا ساخنة للغاية، حسبما كشف...

رياضة

يتبع بروكس كوبكا من الولايات المتحدة تسديدة في الحفرة السابعة عشرة خلال الجولة الأولى من بطولة PGA 2024 في نادي فالهالا للغولف في الأول...

اخر الاخبار

وبالنسبة للأفغان الذين يعيشون تحت حكم طالبان، يمثل سوق السبت فرصة نادرة لعبور الحدود إلى طاجيكستان المجاورة والحصول على المواد الغذائية والسلع المنزلية. أعيد...

اخر الاخبار

وقال إتش إيه هيلير، الخبير في أمن الشرق الأوسط في مؤسسة كارنيجي للسلام الدولي، لصحيفة الغارديان: “على المستوى الحكومي، تتوافق المشاعر بشكل وثيق مع...

الخليج

أعلنت وزارة الموارد البشرية والتوطين (Mohre) يوم الجمعة أنه تم معاقبة أكثر من 1300 شركة خاصة في الإمارات العربية المتحدة لانتهاكها قواعد التوطين في...