ایدهای که اخیرا به موضوع داغ بحثها تبدیل شده، این است که هوش مصنوعی با اسکن چهره کاربران میتواند درآمد آنها را حدس بزند. این ایده با واکنشهای گوناگونی روبهرو شده است.
به گزارش ایسنا، این ایده که هوش مصنوعی بتواند چهره یک فرد را تحلیل کند و حقوق او را تخمین بزند، اخیراً توجه عموم را به خود جلب کرده است. به نظر میرسد که این ایده مستقیماً از یک رمان علمی-تخیلی بیرون آمده است. هوش مصنوعی عکسهای کاربر را اسکن میکند و سپس درباره تحصیلات، شخصیت یا فیشهای حقوقی او نتیجهگیری میکند. این روند جدید به بحثهای داغ، شک و تردید و پرسشهای جدی درباره تلاقی فناوری، اخلاق و شیوههای مدرن استخدام دامن میزند.
به نقل از یوسی استراتژیز، این جنجال زمانی آغاز شد که پژوهشگران آمریکایی تصمیم گرفتند حدود ۱۰۰ هزار عکس از چهره افراد حرفهای را به یک الگوریتم بدهند. این عکسها تصادفی انتخاب نشدند، بلکه پرترههایی با دقت انتخابشده از پروفایل «لینکدین»(LinkedIn) فارغالتحصیلان کارشناسی ارشد مدیریت کسبوکار بودند. هدف مشخص بود. آیا یک ماشین میتواند چیزی بیش از یک لبخند را تشخیص دهد؟ آیا میتواند سیگنالهایی را درباره شخصیت، جاهطلبی یا حتی موفقیت مالی احتمالی استخراج کند؟
چیزی که بسیاری از ناظران را شگفتزده کرد، این ادعا بود که ظاهراً میتوان ویژگیهای صداقت، وظیفهشناسی، برونگرایی، سازگاری و روانرنجوری را از روی عکسهای استاندارد شناسایی کرد. به گفته پژوهشگران این پروژه، کارفرمایان و بانکهای بزرگ پیشتر در فرآیندهای استخدام، این فناوری را آزمایش کردهاند و از رزومهها و مصاحبههای سنتی فراتر رفتهاند.
استفاده از تشخیص چهره برای تصمیمگیریهای پرسنلی در نگاه نخست نوآورانه به نظر میرسد. با وجود این، ایدههای قدیمی را تداعی میکند. این تصور که شخصیت یا موفقیت آینده را میتوان از ظاهر استنباط کرد، یادآور نظریه چند صدساله چهرهخوانی است که اکنون کاملاً بیاعتبار شده و زمانی برای توجیه تبعیض و تعصب استفاده میشد.
امروزه با شبکههای عصبی قوی و پایگاههای داده وسیع، برخی امیدوارند که هوش مصنوعی بتواند از فرضیات خام گذشته پیشی بگیرد. با وجود این، دانشمندان، اخلاقگرایان و منتقدان فناوری همچنان هشدار میدهند. بسیاری از آنها این پرسش را مطرح میکنند که آیا یک عکس میتواند واقعاً توانایی، انگیزه یا پتانسیل درآمدزایی را آشکار سازد یا این که این روشها صرفاً کلیشهها و تعصبات موجود را تقویت میکنند.
وقتی ماشینها یک عکس را قضاوت میکنند، ممکن است جزئیات حیاتی نادیده گرفته شوند. آیا عکس به صورت حرفهای در یک روز خیلی خوب گرفته شده یا با عجله پیش از کلاس ثبت شده است؟ عواملی مانند کیفیت تصویر، نورپردازی، پسزمینه و قراردادهای فرهنگی پیرامون عکسهای حرفهای میتوانند به طور چشمگیری بر نتایج تأثیر بگذارند.
علاوه بر این، چنین سیستمهایی به ندرت عوامل اجتماعی یا تاریخی گستردهتری را که هم ظاهر و هم فرصت را شکل میدهند، در نظر میگیرند. یک مدل هوش مصنوعی که روی گروههای منتخب آموزش دیده، ممکن است افرادی را که به دانشگاههای برجسته یا عکاسان حرفهای دسترسی ندارند، نادیده بگیرد و در نتیجه نابرابری اساسی را تداوم ببخشد.
این شکل از غربالگری دیجیتال، پژواکهای نگرانکنندهای را از رویههایی به همراه دارد که در طول تاریخ برای حذف گروههای خاصی از مشاغل یا پیشرفت استفاده میشدند. تحلیل چهره، خطر احیای مفاهیم مرتبط با نژادپرستی و طبقهبندی ناعادلانه را به همراه دارد که مدتهاست بیاعتبار شدهاند، اما گاهی اوقات از طریق فناوریهای پیشرفته دوباره مطرح میشوند.
با افزایش آگاهی درباره تبعیضهای موجود در سیستمهای هوش مصنوعی، اجماع فزایندهای وجود دارد مبنی بر این که چنین فناوریهایی به نظارت دقیق و بررسی مداوم نیاز دارند؛ به ویژه در زمینههایی مانند استخدام و ارتقای شغلی.
به رغم نگرانیهای گسترده گزارش شده است که چندین شرکت در حوزه مالی و فناوری، تحلیل ویژگیهای چهره را که اغلب با پرسشنامههای شخصیت ترکیب میشود، برای محدود کردن مجموعههای استخدامی بررسی میکنند. استدلال آنها بر وعده سرعت و بیطرفی استوار است و نشان میدهد که ماشینها میتوانند گزینهها را به طور منصفانه و کارآمد دستهبندی کنند.
با وجود این، چشمانداز نظارتی به سرعت در حال تحول است. در ایالتهای گوناگون آمریکا، قانونگذاران با معرفی قوانین قویتر درباره نحوه استفاده از فناوری تشخیص چهره مبتنی بر هوش مصنوعی در محیطهای کاری، به نگرانیها پیرامون تبعیض و تعصب پاسخ میدهند.
اکنون برخی مناطق پیش از آن که هر شرکتی فناوری تشخیص چهره را در فرآیندهای استخدام به کار بگیرد، رضایت صریح را الزامی میدانند. برخی دیگر، ممیزیهای منظم سوگیری را الزامی میدانند و سازمانها را مجبور میکنند تا نشان دهند که الگوریتمهایشان به طور ناعادلانه به گروههای جمعیتی خاص آسیب نمیرسانند.
با لازمالاجرا شدن قوانین جدید، بسیاری از کسبوکارها به سرعت خود را با شرایط وفق میدهند تا از چالشهای قانونی جلوگیری کنند. آنچه زمانی به عنوان نوآوری پیشرفته دیده میشد، اکنون مورد بررسی دقیق عمومی و دولتی قرار گرفته است.
تجربیات بهدستآمده در محیط شرکتها پیچیدگیهای بیشتری را آشکار میکنند. برخی از کارمندان، عکسهای حرفهای چندساله خود را نگه میدارند؛ در حالی که برخی دیگر همیشه عکسهای خود را بهروزرسانی میکنند. این روند در سطح بینالمللی نیز متفاوت است. برخی از جوامع دانشجویی به شدت روی پرترههای زیبا سرمایهگذاری میکنند؛ در حالی که برخی دیگر به سلفیهای معمولی متکی هستند.
این تنوع نشان میدهد که صرف نظر از پیچیدگی الگوریتم، زمینه همیشه اهمیت دارد. حقوق، پیشرفت شغلی و ارائه شخصی همچنان تحت تأثیر عوامل متعددی است که هیچ فناوری نمیتواند به طور کامل آنها را در بر بگیرد.
افراد در انجمنها و بحثهای آنلاین، نظرات قاطعی را ابراز میکنند. بسیاری از آنها دقت این مدلها را به سخره میگیرند و تردید دارند که ویژگیهای چهره به تنهایی بتوانند متغیرهای پیچیدهای مانند عزم، امتیاز یا خلاقیت را توضیح دهند. برخی دیگر به واقعیتهای محل کار اشاره میکنند و میگویند که با وجود پیشرفتهای فناوری، نابرابریهای مداوم هنوز وجود دارند.
افراد بدبین خاطرنشان میکنند که افراد مطابق با استانداردهای زیبایی مرسوم، صرف نظر از فناوری ممکن است همچنان از مزایا بهرهمند شوند که نشاندهنده تعصبات عمیق اجتماعی است. با وجود این، بیشتر افراد موافق هستند که اعتماد کردن به تفسیر یک تصویر واحد توسط یک رایانه، امری پرخطر است؛ مگر این که به طور شفاف و اخلاقی مدیریت شود.