فیلم بیشتر »»
کد خبر ۱۱۲۲۱۲۴
تاریخ انتشار: ۱۳:۲۰ - ۱۹-۰۹-۱۴۰۴
کد ۱۱۲۲۱۲۴
انتشار: ۱۳:۲۰ - ۱۹-۰۹-۱۴۰۴

این مدل‌های هوش مصنوعی بیشترین آمار پاسخ غلط را دارند

این مدل‌های هوش مصنوعی بیشترین آمار پاسخ غلط را دارند
طبق گزارشی که اخیرا نیویورک‌تایمز منتشر کرده در جدول «نرخ هالوسینیشن» یا همان توهم، مدل‌هایی مانند گراک، دیپ سیک، جیمنای و برخی مدل‌های کمتر شناخته‌شده در فهرست بیشترین نرخ خطا و توهم هوش مصنوعی قرار دارند. شاید دیدن نام بعضی مدل‌ها و میزان خطای آن برای ما جای تعجب داشته باشد. اما این آمار از دل تحقیقات جدید دانشگاه کلمبیا بیرون آمده است.

مدل‌های هوش مصنوعی به‌سرعت در حال رشد و توسعه هستند. شرکت‌های فناوری هرکدام به شکلی سعی می‌کنند از این رقابت عقب نمانند. این مدل‌ها از مراقبت‌های بهداشتی و مالی گرفته تا سرگرمی و ارتباطات هوش مصنوعی برای عامه مردم تبدیل به محل اعتماد شده است.

به گزارش همشهری آنلاین، اگرچه این فناوری مزایای باورنکردنی دارد، اما خطرات جدی نیز به همراه دارد، به‌خصوص از جانب برخی از ابزارهای هوش مصنوعی که پتانسیل سوءاستفاده یا عواقب ناخواسته را دارند. ممکن است به سبب تبلیغات اعتماد ما به مدل‌های مطرح‌تر بیشتر باشد اما برخی از آنها بیشترین میزان پاسخ غلط را دارند.

 جای تعجب است که بسیاری از این فناوری‌های خطرناک همچنان در معرض توجه بحث‌های اصلی قرار دارند و افراد، سازمان‌ها و سیاستگذاران برای مقابله با آنها آماده نیستند. در این مطلب برخی از پراشتباه‌ترین مدل‌های هوش مصنوعی را بررسی خواهیم کرد.

شفافیت برای گمراه‌نشدن

پیشرفت‌های حاصل از مدل‌های زبان بزرگ در سال ۲۰۲۳، علاقه گسترده‌ای را به پتانسیل متحول‌کننده هوش مصنوعی نسل جدید تقریبا در هر صنعتی برانگیخت. ابزار ChatGPT از شرکت OpenAI در مرکز این افزایش علاقه قرار داشت، اما این فناوری هنوز راه درازی در پیش دارد تا بتواند به‌طور قابل اعتمادی بر اکثر فرایندها غلبه کند.

مثال برای چت جی‌پی‌تی که بیشترین استقبال را از طرف مردم زیاد و حتی بازگویی آن تکراری است. اما روشنگری و شفاف‌سازی‌ در این زمینه می‌تواند هم به ارتقای سطح الگوریتم این مدل‌ها و هم توجه بیشتر مردم در مسیر اعتماد بی‌چون و چرا به این فناوری کمک کند.

چه چیزی یک ابزار هوش مصنوعی را خطرناک می‌کند؟

احتمال سوءاستفاده: می‌توان از آن برای کلاهبرداری، نظارت یا دستکاری استفاده کرد.

عدم‌شفافیت: ممیزی یا کنترل این سیستم جعبه سیاه دشوار است.

تشدید تعصبات: کلیشه‌های مضر یا تبعیض را تقویت می‌کند.

تجاوز به حریم خصوصی: امکان دسترسی غیرمجاز یا سوءاستفاده از داده‌های شخصی را فراهم می‌کند.

خودمختاری در اقدامات مضر: می‌تواند بدون نظارت انسانی عمل کند و باعث آسیب شود.

کدام مدل هوش مصنوعی بیشترین پاسخ غلط را دارد؟

طبق گزارشی که اخیرا نیویورک‌تایمز منتشر کرده در جدول «نرخ هالوسینیشن» یا همان توهم، مدل‌هایی مانند گراک، دیپ سیک، جیمنای و برخی مدل‌های کمتر شناخته‌شده در فهرست بیشترین نرخ خطا و توهم هوش مصنوعی قرار دارند. شاید دیدن نام بعضی مدل‌ها و میزان خطای آن برای ما جای تعجب داشته باشد. اما این آمار از دل تحقیقات جدید دانشگاه کلمبیا بیرون آمده است.

گراک-۳: ۹۴درصد

گراک-۲: ۷۷درصد

جمینای: ۷۶درصد

دیپ‌سیک: ۶۸درصد

چت جی‌پی‌تی: ۶۷درصد

پرپلکسیتی پرو: ۴۵درصد

کوپایلوت: ۴۰درصد

پرپلکسیتی: ۳۷درصد

ارسال به دوستان
پیش‌بینی داستان فیلم جدید اصغر فرهادی توسط هوش مصنوعی به درخواست عصر ایران بازگشت مسعود شصت‌چی به تلویزیون با پرشی ۱۸ ساله در داستان شرط وزیر اقتصاد برای اعطای تسهیلات ترجیحی و اعتبار مالیاتی رویترز: عراق و پاکستان توافقنامه‌هایی در حوزه عبور انرژی از تنگه هرمز با ایران امضا کردند 5 پیش‌شرط ایران برای مذاکره با آمریکا/ خبرنگار الجزیره:‌ ایران بر مبنای شروط دیگران مذاکره نمی‌کند کمک فوری برای نجات این دودختر یتیم که نیاز به جراحی دارند واکنش وزارت خارجه به ادعای کویت در رابطه با ۴ شهروند ایرانی آخرین جزئیات امدادرسانی به مصدومان طوفان امشب در تهران طرح مجلس برای تغییر محاسبۀ حقوق بازنشستگی/ کاری نکنید آرزو کنیم همیشه تعطیل باشید! عراقچی: برای آرام کردن ترامپ امتیاز نخواهیم داد بستری شدن اکبر عبدی در بخش مراقبت‌های ویژه؛ سکته قلبی هنرمند پیشکسوت تأمین بازار ورق فولادی به فولاد مبارکه واگذار شد؛ تخصیص ارز برای واردات وقوع زمین‌لرزه ۳.۴ ریشتری در پردیس؛ اورژانس تهران وضعیت را تشریح کرد ترامپ و دلار ! غریب‌آبادی: پاسخ ایران را صرفاً به‌دلیل آنکه تسلیم‌نامه نبود، رد کردند