4 آذر 1403 17:42
اخبار برگزیده 25 اردیبهشت 1403 - 6 ماه پیش زمان تقریبی مطالعه: 5 دقیقه
کپی شد!
0

گزارش رویداد OpenAI 2024 با معرفی مدل زبان جدید و قابلیت‌های خارق‌العاده ChatGPT

رویداد openai 2024

کنفرانس Spring Update با اجرای خانم میرا موراتی، مهندس ارشد OpenAI که وی را به‌عنوان مغز متفکر GPT4 می‌شناسند، دیشب برگزار شد.

به گزارش اخبار جدید؛ شایعات زیادی مبنی بر انتشار مدل زبانی GPT-5 و موتور جستجوی هوش مصنوعی OpenAI وجود داشت، اما آقای سم آلتمن ضمن رد آنها، از معرفی محصولات جذاب‌تری خبر داد.

سرفصل اخبار مهم رویداد:

  • انتشار نسخه دسکتاپ chatGPT با ویژگی‌های بصری جدید در وب
  • معرفی مدل زبان قدرتمند GPT-4o با پشتیبانی از زبان فارسی
  • گفتگو با دموی زنده و شگفت‌انگیز GPT-4o
  • قابلیت‌های مدل زبان GPT Omni
  • انتشار نسخه دسکتاپ chatGPT با ویژگی‌های بصری جدید در وب

در ابتدای رویداد، خانم موراتی نسخه دسکتاپ ChatGPT را معرفی کرد که با قابلیت‌های ویژه‌ای همراه خواهد بود.

او همچنین اشاره کرد که نسخه وب این هوش مصنوعی نیز تحولات بصری و تعاملی بخصوصی را پیش رو خواهد داشت که تجربه کاربری آن را بهتر و متفاوت خواهد کرد.

به گفته وی چت‌بات GPT اکنون بیش از ۱۰۰میلیون کاربر دارد که در نوع خود بسیار قابل‌توجه بوده و نشان‌دهنده دسترسی سطح وسیعی از مردم به انبوهی از منابع دانش است.


معرفی مدل زبان قدرتمند GPT-4o با پشتیبانی از زبان فارسی

رویداد openai 2024

 پرچم‌دار مدل‌های زبان GPT یعنی GPT-4Omni با سرعتی بسیار بیشتر و قدرت به‌مراتب بالاتر از نسخه ۴ رونمایی شد که قابلیت‌های آن توجه زیادی را به خود جلب کرد.

این مدل زبانی از نظر هوش و ادراک در سطح GPT-4 است اما می‌تواند ورودی‌های چندوجهی مانند تصویر، صدا، ویدئو و متن را به طور هم‌زمان دریافت و پردازش کند.

طبق اعلام شرکت OpenAI توسعه‌دهندگان می‌توانند از طریق API به هوش مصنوعی GPT-4o دسترسی پیدا کنند که با دوبرابر سرعت بیشتر و ۵۰درصد هزینه کمتر همراه خواهد بود.

با به‌روزرسانی نسخه رایگان chatGPT امکاناتی که قبلاً از طریق ChatGPT Plus در دسترس بود نیز در اختیار افراد قرار خواهد گرفت.

به گفته خانم موراتی، مزیت نسخه پولی نسبت به‌ رایگان این است که می‌تواند ۵ برابر بیشتر از قابلیت‌های مدل زبان GPT-4o استفاده کرد.


گفتگو با دموی زنده و شگفت‌انگیز GPT-4o

 شاید نقطه عطف رویداد دیشب را بتوان تعامل میان انسان با هوش مصنوعی دانست که در نوع خود جالب‌توجه بود.

یکی از بزرگ‌ترین پیشرفت‌های این مدل زبان، توانایی بی‌نظیر هوش مصنوعی در گفتگوی زنده و طبیعی با انسان است.

در جریان رویداد، یکی از کارشناسان این شرکت تلاش کرد تا با نفس‌های سنگین و پشت‌سرهم از هوش مصنوعی درباره وضعیت خود توصیه‌هایی را دریافت کند. در ادامه مدل زبان جدید OpenAI ضمن تعامل نزدیک با فرد و گفتگویی کاملاً طبیعی برای بهبود تنفس و تکنیک‌های بهتر نفس‌کشیدن، نقش یک مشاور را ایفا کرد.

قابلیت دیگری که جلب توجه می‌کرد امکان تغییر گفتگو و مکالمه هنگام صحبت با هوش مصنوعی بود که نه‌تنها بحث را قطع نمی‌کرد، بلکه ادامه گفتگو را باتوجه‌ به موضوع اصلی صحبت پیش می‌برد.

لازم به ذکر است که نمونه این دمو را گوگل در سال 2021 و در جریان کنفرانس SearchOn 2021 با هوش مصنوعی LaMDA پرزنت کرد. در آن زمان مدیرعامل گوگل درباره توانایی این مدل زبان در گفتگوهای طولانی و مباحث پیچیده صحبت کرد که شامل ادامه گفتگو حتی با تغییر موضوع صحبت بود.

موضوع جالب دیگر در کنفرانس OpenAI شخصیت هوش مصنوعی بود که بسیار موردتوجه واقع شد. هنگامی که کارشناسان این شرکت قصد داشتند تا با وی بحث را پیش برند، هوش مصنوعی مانند یک انسان با آنها صحبتی دوستانه داشت و گفتگو را بر اساس شناختی که از صدا و چهره افراد داشت پیش می‌برد.

این چت‌بات توانست به شکلی کاملاً متفاوت ارتباط برقرار کند، قصه بگوید، شعر بخواند و درک عمیقی از محیط اطراف خود داشته باشد. GPT-4o قادر است در حل مسائل ریاضی مانند یک معلم برخورد کند و پروسه را به‌صورت آموزشی پیش ببرد. همچنین به‌عنوان یک مترجم قادر است گفتگوی شما را به زبان‌های مختلف مدیریت کند که ابزارهای مترجم را متحول خواهد کرد.

در بخش دیگری وقتی یکی از افراد حاضر در رویداد دوربین اپلیکیشن GPT-4o را برای نشان‌دادن چهره خود فعال کرد، این هوش مصنوعی توانست تحلیل دقیقی از حالت صورت وی ارائه دهد. این مدل زبان به یکی دیگر از افراد گفت: لباسی که پوشیدی را دوست دارم!


قابلیت‌های مدل زبان GPT Omni

حرف O در اسم این مدل زبان درواقع عبارت omni است که هدف آن تعامل هرچه واقعی‌تر و طبیعی با انسان است. این هوش مصنوعی ضمن درک متن، صدا و تصویر به‌صورت هم‌زمان، پاسخ‌های خود را به‌صورت ترکیبی ارائه بده که در نوع خود تجربه‌ای بی‌نظیر  و جدید خواهد بود.

مدل زبان Omini  می‌تواند ورودی‌های صوتی را تا کمتر از ۲۳۲ میلی‌ثانیه پردازش و پیش ببرد که نزدیک به گفتگوی عادی انسان‌ها با هم است. همچنین این مدل قادر است متن‌های انگلیسی را با سرعت GPT-4 Turbo پردازش کنه و در زبان‌های دیگر هم درحال‌توسعه به این سطح است.

مطالب مرتبط
نظرات

دیدگاهتان را بنویسید!

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *