ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

تکنولوژی

تشخیص احساسات با هوش مصنوعی چه خطراتی دارد؟

تکنولوژی تشخیص احساسات برخی از جامعه‌شناسان را نگران کرده و محققان در تلاشند تا هدف واقعی این تکنولوژی را به عموم نشان دهند و این موضوع را به مناظره عمومی بکشانند. این تکنولوژی که با ...

ریحانه ولی‌پور
نوشته شده توسط ریحانه ولی‌پور | ۲۵ فروردین ۱۴۰۰ | ۲۱:۳۰

تکنولوژی تشخیص احساسات برخی از جامعه‌شناسان را نگران کرده و محققان در تلاشند تا هدف واقعی این تکنولوژی را به عموم نشان دهند و این موضوع را به مناظره عمومی بکشانند. این تکنولوژی که با الگوریتم‌های یادگیری ماشینی (Machine Learning) برای تشخیص احساسات انسان طراحی شده، یکی از صنعت‌های بزرگ دنیا به شمار می‌رود و ادعا می‌شود که می‌تواند در شرایط بی‌شماری، از امنیت جاده‌ها تا مطالعات بازار، مورد استفاده قرار بگیرد و ارزشمند باشد.

اما به نظر منتقدان این تکنولوژی تهدیدی برای حریم خصوصی به حساب می‌آید و حتی پر از اشتباه و نژادپرستانه طراحی شده است.

تیمی از محققان وب‌سایتی به نام «ایموجیفای» طراحی کرده‌اند که در آن با وبکم یا دوربین سلفی می‌توانید این تکنولوژی را امتحان کنید. در یکی از بازی‌های روی این سایت می‌توانید با تغییر حالت چهره خود، هوش مصنوعی را گول بزنید و در بخش دیگر می‌توانید خطای این سیستم در تشخیص حالات چهره در متن را مشاهده کنید.

پدیدآورندگان این سایت امیدوارند تا بتوانند دانش عمومی مربوط به این تکنولوژی را افزایش دهند تا مناظره‌ای عمومی درباره استفاده از آن شکل بگیرد. آن‌ها معتقدند که این سیستم نوعی از تشخیص چهره است که ادعا می‌کند می‌تواند احساسات درونی را از چهره تشخیص بدهد.

در سال‌های اخیر، تکنولوژی تشخیص چهره مورد نقد و بررسی شدیدی قرار گرفته است. سال گذشته، کمیسیون برابری و حقوق بشر اعلام کرد که استفاده از تشخیص چهره برای اسکن جمعی به دلیل افزایش تبعیض نژادی، جنسیت، گرایش‌های جنسی و سن و نقض آزادی بیان باید متوقف شود.

عموم مردم اطلاعی از موارد استفاده از تشخیص چهره ندارند. این تکنولوژی در استخدام مشاغل، شناخت مشتری، امنیت فرودگاه و حتی آموزش برای بررسی میزان فعالیت دانش‌آموزان و در همه جای دنیا از اروپا گرفته تا ایالات متحده و چین استفاده می‌شود.

یکی از کمپانی‌های متخصص در زمینه تشخیص احساسات مدعی شده که از این تکنولوژی در تنظیمات همه محصولاتش از سیستم امینتی خانه‌ها تا زندان‌ها استفاده کرده است.

سال گذشته شهر لاکنو در هند اعلام کرد که از این سیستم برای تشخیص آشفتگی در خانم‌ها برای گزارش مزاحمت استفاده می‌کند که با انتقاد از سمت سازمان حقوق دیجیتال و سایرین مواجه شد.

تکنولوژی تشخیص احساسات ممکن است پتانسیل کاربردی و مفید بودن داشته باشد؛ اما قبل از استفاده از آن باید درباره دقیق بودن، نداشتن زمینه نژادی و همینطور کاربردی بودن این سیستم در زمینه کاری مربوطه تحقیقات کاملی انجام شود و لازم است تا مکالمه و مشورت عمومی در مقیاس وسیع‌تری درباره آن صورت بگیرد.

این پروژه جدید به کاربران اجازه می‌دهد تا تکنولوژی تشخیص احساسات را امتحان کنند و در سایت مذکور که هیچ داده شخصی از طریق آن جمع‌آوری نمی‌شود و تمامی تصاویر روی دستگاه خود کاربر ذخیره می‌شود.

در یکی از بازی‌ها، کاربران می‌توانند حالت چهره خود را تغییر دهند تا متوجه خطای این سیستم در تشخیص حالات درونی آن‌ها شوند.

توسعه‌دهندگان این تکنولوژی ادعا می‌کنند که این سیستم می‌تواند احساسات درونی را بخواند؛ اما در واقعیت این سیستم حرکات اعضای صورت را با فرض‌های ایجاد شده تطبیق می‌دهد، به عنوان مثال لبخند به معنی خوشحال بودن است و برای این سیستم معنی دیگری ندارد.

شواهدی محکمی در علم وجود دارد که چنین نتیجه‌گیری‌های ساده‌ای را رد می‌کند و حتی با تجربه ثابت شده که می‌توان لبخند مصنوعی زد. هدف این بازی دقیقا همین است که نشان دهد می‌توان حالت چهره را بدون اینکه حالات و احساسات درونی تغییری کند، عوض کرد.

برخی از محققان زمینه تشخیص احساسات اعلام کرده‌اند که کاملا به چنین محدودیت‌هایی آگاهند اما امیدوارند تا این پروژه جدید آگاهی جامعه نسبت به این تکنولوژی را افزایش دهد.

آن‌ها معتقدند که ما دیگر کاربران تکنولوژی نیستیم و به گونه‌ای شهروندان دنیایی هستیم که با تکنولوژی تغییر می‌کنیم، بنابراین باید قوانین دموکراتیک و حقوق شهروندی درباره چنین مبحث مهمی وجود داشته باشد.

سازمان حقوق بشر اعلام کرده که توقف بازار سیستم تشخیص احساسات امری واجب است. این تکنولوژی کاملا بر اساس تبعیض جنسیت، نژاد، گرایشات جنسی و سن ساخته شده و از ریشه با حقوق بشر ناسازگار است.

مسیر حرکت سیستم تشخیص احساسات در سراسر دنیا به ما نشان داد تا گهگاه صحت و نیاز به تکنولوژی‌های جدید را زیرسوال ببریم. پروژه‌هایی که محدودیت‌های چنین تکنولوژی‌هایی را مشخص می‌کنند، می‌توانند قدم مهمی برای این حرکت باشند.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی