کنفرانس Spring Update با اجرای خانم میرا موراتی، مهندس ارشد OpenAI که وی را بهعنوان مغز متفکر GPT4 میشناسند، دیشب برگزار شد.
به گزارش اخبار جدید؛ شایعات زیادی مبنی بر انتشار مدل زبانی GPT-5 و موتور جستجوی هوش مصنوعی OpenAI وجود داشت، اما آقای سم آلتمن ضمن رد آنها، از معرفی محصولات جذابتری خبر داد.
سرفصل اخبار مهم رویداد:
در ابتدای رویداد، خانم موراتی نسخه دسکتاپ ChatGPT را معرفی کرد که با قابلیتهای ویژهای همراه خواهد بود.
او همچنین اشاره کرد که نسخه وب این هوش مصنوعی نیز تحولات بصری و تعاملی بخصوصی را پیش رو خواهد داشت که تجربه کاربری آن را بهتر و متفاوت خواهد کرد.
به گفته وی چتبات GPT اکنون بیش از ۱۰۰میلیون کاربر دارد که در نوع خود بسیار قابلتوجه بوده و نشاندهنده دسترسی سطح وسیعی از مردم به انبوهی از منابع دانش است.
پرچمدار مدلهای زبان GPT یعنی GPT-4Omni با سرعتی بسیار بیشتر و قدرت بهمراتب بالاتر از نسخه ۴ رونمایی شد که قابلیتهای آن توجه زیادی را به خود جلب کرد.
این مدل زبانی از نظر هوش و ادراک در سطح GPT-4 است اما میتواند ورودیهای چندوجهی مانند تصویر، صدا، ویدئو و متن را به طور همزمان دریافت و پردازش کند.
طبق اعلام شرکت OpenAI توسعهدهندگان میتوانند از طریق API به هوش مصنوعی GPT-4o دسترسی پیدا کنند که با دوبرابر سرعت بیشتر و ۵۰درصد هزینه کمتر همراه خواهد بود.
با بهروزرسانی نسخه رایگان chatGPT امکاناتی که قبلاً از طریق ChatGPT Plus در دسترس بود نیز در اختیار افراد قرار خواهد گرفت.
به گفته خانم موراتی، مزیت نسخه پولی نسبت به رایگان این است که میتواند ۵ برابر بیشتر از قابلیتهای مدل زبان GPT-4o استفاده کرد.
شاید نقطه عطف رویداد دیشب را بتوان تعامل میان انسان با هوش مصنوعی دانست که در نوع خود جالبتوجه بود.
یکی از بزرگترین پیشرفتهای این مدل زبان، توانایی بینظیر هوش مصنوعی در گفتگوی زنده و طبیعی با انسان است.
در جریان رویداد، یکی از کارشناسان این شرکت تلاش کرد تا با نفسهای سنگین و پشتسرهم از هوش مصنوعی درباره وضعیت خود توصیههایی را دریافت کند. در ادامه مدل زبان جدید OpenAI ضمن تعامل نزدیک با فرد و گفتگویی کاملاً طبیعی برای بهبود تنفس و تکنیکهای بهتر نفسکشیدن، نقش یک مشاور را ایفا کرد.
قابلیت دیگری که جلب توجه میکرد امکان تغییر گفتگو و مکالمه هنگام صحبت با هوش مصنوعی بود که نهتنها بحث را قطع نمیکرد، بلکه ادامه گفتگو را باتوجه به موضوع اصلی صحبت پیش میبرد.
لازم به ذکر است که نمونه این دمو را گوگل در سال 2021 و در جریان کنفرانس SearchOn 2021 با هوش مصنوعی LaMDA پرزنت کرد. در آن زمان مدیرعامل گوگل درباره توانایی این مدل زبان در گفتگوهای طولانی و مباحث پیچیده صحبت کرد که شامل ادامه گفتگو حتی با تغییر موضوع صحبت بود.
موضوع جالب دیگر در کنفرانس OpenAI شخصیت هوش مصنوعی بود که بسیار موردتوجه واقع شد. هنگامی که کارشناسان این شرکت قصد داشتند تا با وی بحث را پیش برند، هوش مصنوعی مانند یک انسان با آنها صحبتی دوستانه داشت و گفتگو را بر اساس شناختی که از صدا و چهره افراد داشت پیش میبرد.
این چتبات توانست به شکلی کاملاً متفاوت ارتباط برقرار کند، قصه بگوید، شعر بخواند و درک عمیقی از محیط اطراف خود داشته باشد. GPT-4o قادر است در حل مسائل ریاضی مانند یک معلم برخورد کند و پروسه را بهصورت آموزشی پیش ببرد. همچنین بهعنوان یک مترجم قادر است گفتگوی شما را به زبانهای مختلف مدیریت کند که ابزارهای مترجم را متحول خواهد کرد.
در بخش دیگری وقتی یکی از افراد حاضر در رویداد دوربین اپلیکیشن GPT-4o را برای نشاندادن چهره خود فعال کرد، این هوش مصنوعی توانست تحلیل دقیقی از حالت صورت وی ارائه دهد. این مدل زبان به یکی دیگر از افراد گفت: لباسی که پوشیدی را دوست دارم!
حرف O در اسم این مدل زبان درواقع عبارت omni است که هدف آن تعامل هرچه واقعیتر و طبیعی با انسان است. این هوش مصنوعی ضمن درک متن، صدا و تصویر بهصورت همزمان، پاسخهای خود را بهصورت ترکیبی ارائه بده که در نوع خود تجربهای بینظیر و جدید خواهد بود.
مدل زبان Omini میتواند ورودیهای صوتی را تا کمتر از ۲۳۲ میلیثانیه پردازش و پیش ببرد که نزدیک به گفتگوی عادی انسانها با هم است. همچنین این مدل قادر است متنهای انگلیسی را با سرعت GPT-4 Turbo پردازش کنه و در زبانهای دیگر هم درحالتوسعه به این سطح است.