از اواخر نوامبر سال ۲۰۲۲، شرکت OpenAI با معرفی یک چتبات پیشرفته مبتنی بر مدلهای زبانی بزرگ، توجه جهانیان را به خود جلب کرد. این سامانه با توانایی درک ورودیهای انسانی و تولید پاسخهایی شبیه به گفتار انسان، بهسرعت به یکی از شناختهشدهترین کاربردهای هوش مصنوعی تبدیل شد. هرچند ChatGPT از نخستین نمونههای عمومی LLM بهشمار میرفت، اما دسترسی آسان از طریق مرورگر وب یا اپلیکیشن و امکان ورود با حسابهای اپل، گوگل یا مایکروسافت، نقش مهمی در محبوبیت گسترده آن داشت.
با وجود سهولت استفاده و نفوذ طبیعی ChatGPT در محیطهای کاری، آموزشی و حتی امور روزمره، این ابزار بدون چالش نیست. در برخی موارد، پاسخهای نادرست ارائه میدهد، ممکن است دادههای شخصی را ثبت کند و همچنان از سوگیریهای پنهان رنج میبرد. علاوه بر این، تعامل طولانیمدت با یک چتبات میتواند پیامدهای روانی خاصی به همراه داشته باشد که نباید نادیده گرفته شود.
توهم در پاسخدهی؛ وقتی پاسخها الزاماً درست نیستند
ChatGPT میتواند پاسخها را با لحنی کاملاً متقاعدکننده و منطقی ارائه کند، اما این به معنای صحت همیشگی اطلاعات نیست. این سامانه صرفاً بر پایه دادههایی که با آنها آموزش دیده است پاسخ میدهد؛ دادههایی که ممکن است حاوی سوگیری باشند یا در برخی موارد، قدیمی و نادرست محسوب شوند. این مسئله بهویژه برای کاربرانی که از نسخه عمومی و رایگان استفاده میکنند، پررنگتر است.
در حال حاضر، ChatGPT برای تمامی کاربران از نسخه ۵.۱ استفاده میکند و انتظار میرود نسخه ۵.۲ در آینده نزدیک منتشر شود. این روند نشاندهنده رقابت فشرده در حوزه هوش مصنوعی است؛ جایی که بازیگرانی مانند گوگل جمینای، Claude از Anthropic و Perplexity نیز حضور فعال دارند. با توجه به رشد سریع این حوزه، اتکا بیچونوچرا به پاسخهای یک مدل زبانی همچنان پرریسک است.
نکته مهم دیگر آن است که ChatGPT همواره منابع یا ارجاعات معتبر برای پاسخهای خود ارائه نمیدهد. حتی در راهنمای رسمی OpenAI نیز تأکید شده که این ابزار ممکن است تعاریف نادرست، حقایق اشتباه یا نقلقولها و مطالعات جعلی تولید کند. ازاینرو، بررسی و تأیید مستقل اطلاعات ارائهشده، ضرورتی انکارناپذیر است؛ هرچند در عمل، ردیابی منبع اطلاعات در پاسخهای ChatGPT همیشه ساده نیست.
محاورهای بودن به معنای انسانی بودن نیست
در جریان گفتوگو با ChatGPT، بهسادگی میتوان فراموش کرد که طرف مقابل یک انسان واقعی نیست. لحن طبیعی و پاسخهای شبیه به گفتوگوی انسانی، گاه این توهم را ایجاد میکند که با یک شخص واقعی در حال مکالمه هستید. حتی گزارشهایی منتشر شده که برخی کاربران از این چتبات بهعنوان «همراه عاطفی» یا شریک ایدهآل مجازی استفاده کردهاند؛ از جمله موردی که در اوایل سال جاری میلادی گزارش شد و به استفاده یک زن متأهل از این پلتفرم برای شکلدادن به یک رابطه مجازی اشاره داشت.
این ویژگی به ظاهر انسانی، باعث میشود برخی افراد ChatGPT را بستری امن برای بیان مشکلات شخصی یا بحثهای حساس، بدون ترس از قضاوت، تلقی کنند. همین موضوع میتواند مرز میان ابزار و انسان را کمرنگ کند، در حالی که در واقعیت، ChatGPT صرفاً یک سامانه هوش مصنوعی است که پاسخها را نه بر پایه درک انسانی یا احساسات واقعی، بلکه بر اساس الگوهای آماری و دادههای آموزشی پیشبینی میکند.
محدودیتهای حافظه؛ همه چیز در خاطر ChatGPT نمیماند
ChatGPT از نظر میزان اطلاعاتی که میتواند در طول تعامل به خاطر بسپارد، محدودیتهایی دارد؛ موضوعی که بسیاری از کاربران به آن توجه نمیکنند. این سامانه میتواند از طریق قابلیت «حافظه» برخی جزئیات را ذخیره کند تا مکالمات مرتبطتر و شخصیسازیشدهتری ارائه دهد، اما این ظرفیت نامحدود نیست.
بر اساس توضیحات ارائهشده، ChatGPT قادر است چند هزار توکن متنی را ذخیره کند که تقریباً معادل چند صفحه متن است؛ هرچند OpenAI بهطور دقیق سقف این میزان را مشخص نکرده است. افزون بر این، همه اطلاعات واردشده نیز ذخیره نمیشوند. دادههای کوتاهمدت یا کماهمیت، اطلاعات شخصی حساس یا مواضع سیاسی دقیق، و هرگونه داده قابل شناسایی نظیر شماره تلفن یا مدارک هویتی در حافظه نگهداری نمیشوند.
در مقابل، اطلاعاتی مانند علایق کلی، ترجیحات شخصی و پروژههای بلندمدت ممکن است ذخیره شوند. حافظه ChatGPT به دو نوع اصلی تقسیم میشود: حافظه مکالمه و حافظه پایدار. اطلاعات تنها در صورتی وارد حافظه پایدار میشوند که کاربر بهطور صریح آن را مشخص کند یا تنظیمات مربوطه فعال شده باشد.
ChatGPT یک فضای کاملاً محرمانه نیست
رعایت احتیاط در ارائه اطلاعات شخصی هنگام استفاده از هر پلتفرم هوش مصنوعی، ضروری است. کاربران نباید دادههای حساسی مانند اطلاعات بانکی، جزئیات پروژههای کاری محرمانه یا اطلاعات فنی مرتبط با دستگاهها و حسابهای کاربری خود را به اشتراک بگذارند.
مطابق سیاست حفظ حریم خصوصی ChatGPT، این پلتفرم اطلاعاتی از جمله دادههای حساب کاربری، محتوای واردشده توسط کاربر (شامل درخواستها و فایلهای آپلودشده) و اطلاعاتی که از طریق ارتباطات، ایمیلها، رویدادها و نظرسنجیها ارائه میشود را جمعآوری میکند. این دادهها برای بهبود خدمات، آموزش سامانه و رعایت الزامات قانونی و شرایط استفاده به کار میروند.
با این حال، در سیاستهای اعلامشده تصریح شده که ممکن است اطلاعات کاربران در شرایط خاص به اشخاص ثالث، از جمله نهادهای دولتی یا شرکتهای وابسته، افشا شود. همچنین باید توجه داشت که دسترسی انسانی به دادهها، حتی در صورت غیرفعالبودن استفاده آموزشی، در مواردی مانند الزامات قانونی یا بررسی سوءاستفاده و تحت تعهدات محرمانگی، همچنان امکانپذیر است.
منبع: ایتنا
پربیننده ترین پست همین یک ساعت اخیر