۰۹ دی ۱۴۰۴
به روز شده در: ۰۹ دی ۱۴۰۴ - ۰۱:۳۰
فیلم بیشتر »»
کد خبر ۱۰۴۸۱۲۹
تاریخ انتشار: ۱۱:۰۵ - ۱۳-۰۱-۱۴۰۴
کد ۱۰۴۸۱۲۹
انتشار: ۱۱:۰۵ - ۱۳-۰۱-۱۴۰۴

مراقب باشید: «چت‌ جی‌ پی‌ تی» حالا می‌تواند رسیدهای جعلی بسازد؛ به سادگی آب خوردن

مراقب باشید: «چت‌ جی‌ پی‌ تی» حالا می‌تواند رسیدهای جعلی بسازد؛ به سادگی آب خوردن
این سؤال مطرح است که چرا چت‌ جی‌ پی‌ تی (ChatGPT) اساساً امکان ساخت رسیدهای جعلی را فراهم می‌کند و آیا این قابلیت جدید تولید تصویر با سیاست‌های استفاده OpenAI، که صراحتاً کلاهبرداری را ممنوع کرده است، تناقض دارد یا خیر؟

دیجیاتو در گزارشی به نگرانی‌ها درباره سوءاستفاده از فناوری چت‌جی‌پی‌تی برای تولید رسید جعلی پرداخت  و نوشت: 

اخیراً چت‌جی‌پی‌تی یک قابلیت تولید تصویر جدید را به‌عنوان بخشی از مدل 4o معرفی کرده است که در تولید متن داخل تصاویر بسیار خوب عمل می‌کند و می‌تواند رسیدهای جعلی طبیعی بسازد. افراد مختلف از این قابلیت برای ایجاد رسیدهای جعلی رستوران استفاده می‌کنند که می‌تواند ابزاری دیگر به مجموعه گسترده فناوری‌های دیپ‌فیک هوش مصنوعی اضافه کند که توسط کلاهبرداران به کار می‌رود.

«دیدی داس»، سرمایه‌گذار و کاربر فعال شبکه‌های اجتماعی، در شبکه اجتماعی ایکس، تصویری از یک رسید جعلی مربوط به یک استیک‌هاوس واقعی در سان‌فرانسیسکو منتشر کرد که به گفته او، با مدل 4o ایجاد شده است.

کاربران دیگر نیز موفق به بازتولید نتایج مشابه شدند، از جمله رسیدهایی که لکه‌های غذا یا نوشیدنی داشتند تا واقعی‌تر به نظر برسند.

تولید رسیدهای جعلی با استفاده از ChatGPT
تولید رسید جعلی با استفاده از ChatGPT

در فرانسه، یک کاربر در لینکدین تصویری از یک رسید جعلی چروک‌دار منتشر کرد که با هوش مصنوعی برای یک رستوران زنجیره‌ای ایجاد شده بود که بسیار طبیعی به نظر می‌رسد.

افشای تولید رسید جعلی با استفاده از ChatGPT
افشای تولید رسید جعلی با استفاده از ChatGPT

کاملاً واضح است که امکان ایجاد رسیدهای جعلی به‌سادگی، فرصت‌های بزرگی را برای کلاهبرداری فراهم می‌کند. تصور استفاده از این فناوری توسط افراد سودجو برای دریافت بازپرداخت هزینه‌های جعلی چندان دشوار نیست.

به گفته «تایا کریستینسون»، سخنگوی OpenAI، تمامی تصاویری که توسط چت‌جی‌پی‌تی ایجاد می‌شوند، شامل متادیتایی هستند که نشان می‌دهد این تصاویر با استفاده از این ابزار ساخته شده‌اند. او تأکید کرد که اوپن‌ای‌آی در صورت مشاهده نقض سیاست‌های استفاده از سوی کاربران، اقدامات لازم را انجام می‌دهد و همواره از بازخوردها و موارد استفاده واقعی برای بهبود عملکرد و افزایش امنیت مدل‌های خود بهره می‌برد.

افشای تولید رسید جعلی با استفاده از ChatGPT

افشای تولید رسید جعلی با استفاده از ChatGPT

بااین‌حال، این سؤال مطرح است که چرا ChatGPT اساساً امکان ساخت رسیدهای جعلی را فراهم می‌کند و آیا این قابلیت با سیاست‌های استفاده OpenAI، که صراحتاً کلاهبرداری را ممنوع کرده است، تناقض دارد یا خیر.

کریستینسون می‌گوید هدف اوپن‌ای‌آی ارائه بیشترین میزان آزادی خلاقانه به کاربران است. او همچنین اشاره کرد که رسیدهای جعلی ساخته‌شده با هوش مصنوعی لزوماً برای مقاصد متقلبانه استفاده نمی‌شوند، بلکه می‌توانند در زمینه‌های مختلفی مانند آموزش سواد مالی، خلق آثار هنری اوریجینال، طراحی تبلیغات و سایر کاربردهای خلاقانه مورد استفاده قرار گیرند.

گزارش: مهدی فروغی

پربیننده ترین پست همین یک ساعت اخیر
ارسال به دوستان
بزرگترین منابع میکروپلاستیک کدامند؟(+اینفوگرافیک) زیبا بروفه: شادمهر عقیلی گفت از من خوشش می آید قاتل سریالی زنان و امید به زندگی بسیار بالا قصه‌های نان و نمک(80)/ اوه اوه اوه! طلا 16 میلیون شد… بعدش چی؟ کم‌مصرف‌ترین خودروهای بنزینی و هیبریدی را بشناسید   چرا بازگشت همتی به بانک مرکزی و دولت، خبر خوبی است؟ بوس ۵ میلیارد تومانی مهران مدیری مردم از چه زمانی به این اعتقاد رسیدند: در تهران پول زیر دست و پا ریخته، کسی نیست جمع کند/ رد پای یک همدانی شمخانی: هر تجاوزی، پاسخ سخت و فوری خواهد داشت مدیرعامل انجمن اوتیسم : ۸۰ هزار کودک ایرانی مبتلا به اوتیسم هستند/ ۳۰ میلیون تومان هزینه ماهانه هر بیمار روسیه: حمله اوکراین به اقامتگاه پوتین، سیلی به صورت ترامپ است توصیه‌های پلیس راه به رانندگان راز درخشش ریاض محرز در جام ملت‌های آفریقا فاش شد احتمال ۶۶ درصدی تقابل استقلال و سپاهان با النصر عربستان رنو کلیو جدید؛ رویکرد جدید کمپانی فرانسوی در طراحی (+عکس)