ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

تکنولوژی دیپ فیک
تکنولوژی

دیپ فیک؛ آخرین ضربه مهلک در جنگ میان حقیقت و دروغ

«تا با چشم خودت ندیدی باور نکن». این گفته ی قدیمی بنیان اصلی تمام قضاوت های ما را شکل می دهد، حداقل تا زمانی که فکر  کنیم بشر قدرت زیر سوال بردن توانایی دیداری ما ...

زینب عابدی راد
نوشته شده توسط زینب عابدی راد | ۱۰ اردیبهشت ۱۳۹۸ | ۲۲:۰۰

«تا با چشم خودت ندیدی باور نکن». این گفته ی قدیمی بنیان اصلی تمام قضاوت های ما را شکل می دهد، حداقل تا زمانی که فکر  کنیم بشر قدرت زیر سوال بردن توانایی دیداری ما را به دست نیاورده است. حالا اگر بدانیم که تکنولوژی می تواند ما را فریب داده و با ترفندی حقیقت را پیش چشمانمان وارونه جلوه دهد، آیا باز هم معیار «دیدن» را در قضاوتمان لحاظ خواهیم کرد؟ مهم تر از آن، سوال اصلی این است که اصلا آیا تکنولوژی به چنین قابلیتی رسیده و چنین کاری چطور ممکن است؟

در این مطلب در مورد روشی صحبت می کنیم که با استفاده از آن می شود ویدیوهایی جعلی درست کرد و یا صحبت های افراد را در آن ها به دلخواه تغییر داد. این تکنولوژی «دیپ فیک» نام گرفته و می تواند کابوسی را که از یک روش جعل و دستکاری ویدیو داریم تا حد زیادی به واقعیت نزدیک کند.

دیپ فیک چیست؟

دیپ فیک از دو عبارت «دیپ لرنینگ» و «فیک» تشکیل شده است. در این تکنولوژی یک هوش مصنوعی نرم افزاری با کمک الگوریتم های ترکیبی پردازش صدا و تصویر، ویدیویی را تولید می کند. هوش مصنوعی می تواند صورت یک سوژه (فرد اصلی) را روی چهره سوژه ای دیگر ( فرد هدف) کپی کند. در حالت پیشرفته تر، این تکنولوژی می تواند یک مدل جدید بر اساس حرکات صورت شخص اصلی درست کرده و آن را روی شخص هدف قرار دهد.

با دیپ فیک می توان در ویدیوها حالت چهره افراد را به دلخواه تغییر داد

این تکنولوژی قادر است با در اختیار داشتن کمترین داده تصویری در حد یک عکس، مدل مورد نظر را درست کرده و پردازش کند. با این حال هرچه داده بیشتری در اختیار هوش مصنوعی قرار بگیرد، نتیجه بیشتر به واقعیت نزدیک خواهد بود.

مشخصا سیاستمداران و سلبریتی ها در دسترس ترین هدف برای دیپ فیک هستند. چرا که علاوه بر موجود بودن صدها عکس و ویدیو از آن ها، متن باز بودن الگوریتم دیپ فیک نیز راه را برای جعل ویدیوی این افراد بیشتر فراهم می کند.

پیشینه تکنولوژی هوش مصنوعی دیپ فیک

اولین بار تکنولوژی پشت دیپ فیک برای مقاصد مختلفی توسعه داده شد. این نرم افزار هم مثل فتوشاپ برای کاربردهای حرفه ای و سرگرمی توسعه پیدا کرد و با اینکه سازنده آن سو نیتی از طراحی یک نرم افزار ویرایش ویدیو نداشت اما این تکنولوژی راه را برای سو استفاده های بعدی فراهم کرد.

بعدا این الگوریتم برای تعویض چهره (Face Swapping) در صنعت فیلم مورد استفاده قرار گرفت که یکی از معروف ترین کاربردهای آن در فیلم Rogue One: A Star Wars Story اتفاق افتاد. در این نسخه، فیلم سازان برای بازسازی یکی از شخصیت ها و همچنین خلق نسخه جوان تر کاراکتری دیگر از آن استفاده کردند. در هر دوی این نمونه ها، تصویری از شخصیت های اصلی روی بازیگران کپی شد تا کاراکترهای مورد نظر به وجود بیایند.

نمونه کاملا پرکاربرد تعویض چهره، اپلیکیشن اسنپ چت است که فیلترهای جالبی بر روی صورت کاربر قرار می دهد. توسعه دهندگان چنین اپلیکیشن هایی از الگوریتم تشخیص چهره و دنبال کردن حرکات آن استفاده می کنند تا برنامه قادر به اعمال فیلترها در محل درست باشد.

دیپ فیک
نمونه ای از تکنولوژی تعویض چهره، قرار دادن صورت نیکلاس کیج به جای دونالد ترامپ

چرا دیپ فیک نگران کننده است؟

وقتی از قابلیت فتوشاپ برای دستکاری عکس ها و به وجود آوردن تغییرات دلخواه در آنها با خبر شدیم، به دنبال راه حل هایی برای تشخیص عکس های جعلی رفتیم و خوشبختانه در این جستجو توانستیم به راه حل های مناسبی برسیم. البته توجه به این نکته مهم است که جعل عکس در فتوشاپ به صورتی که واقعی به نظر برسد کار دشواری است و احتمالا از عهده همه افرادی که کار با این نرم افزار را تجربه کرده اند، خارج است.

دیپ فیک یک الگوریتم متن باز است که این موضوع سو استفاده از آن را آسان تر می کند

منتها در مورد دیپ فیک اوضاع کمی متفاوت است. با این که الگوریتم های یادگیری ماشین می توانند زندگی را برایمان آسان تر کنند، اما در این مورد بلای جانمان شده اند. همانطور که قبلا گفتیم الگوریتم های دیپ فیک متن باز هستند و به رایگان در اختیار همه قرار دارند. برای مثال FakeApp یک گزینه در دسترس برای تولید ویدیوهای دیپ فیک است. بنابراین اگر کسی بخواهد یک تعویض چهره ساده انجام دهد، نیازی به مهارت خاصی نخواهد داشت و نرم افزار کار را به راحتی برایش به انجام می رساند.

دیپ فیک

از طرفی رشد دیپ فیک با پیشرفت هوش مصنوعی صوتی همزمان شده و این تکنولوژی هم روز به روز با قدرت گرفتن الگوریتم های دیپ لرنینگ تقویت می شود. بنابراین برای جعل صدای یک شخصیت معروف و تغییر گفته های او نیاز نیست شخص جاعل زحمتی برای تقلید صدا به خودش بدهد بلکه با تعلیم هوش مصنوعی این کار را نیز به راحتی انجام می دهد.

در حال حاضر محتوای جعلی زیادی از شخصیت های مختلف در اینترنت موجود است و اینکه بسیاری از کشورها هنوز قانونی برای مقابله با آن ندارند، کنترل این روند رو به رشد را سخت تر کرده است.

چگونه می توان با دیپ فیک مقابله کرد؟

در حالی که شرکت های زیادی به دنبال سلطه گری به وسیله دیپ فیک هستند، در مقابل افراد زیادی سعی دارند ابزارهایی برای مقابله با این تکنولوژی توسعه دهند.

کشورها باید قانونی برای کنترل محتوای جعلی منتشر شده فراهم کنند

تیم AI Foundation با خلق یک نوع پلاگین برای مرورگرها که «مدافع واقعیت» نام گرفته، به تشخیص محتوای دیپ فیک آنلاین کمک می کند. پلاگین دیگری با نام «مرور امن» نیز عملکرد مشابهی دارد و به جنگ محتوای جعلی می رود.

در مقیاسی وسیع تر، وزارت دفاع آمریکا برای تولید نرم افزار شناسایی دیپ فیک ها دست به سرمایه گذاری زده است. چرا که پخش یک ویدیوی جعلی از سیاستمداری که در آن اعلان جنگ کرده می تواند وضعیت دنیا را دگرگون کند.

روی بد یادگیری ماشین

هوش مصنوعی و یادگیری ماشین بدون شک می توانند زندگی ما را بهبود بخشیده و قابلیت های جدیدی برای آسایش بشر آشکار کنند، اما باید بپذیریم که هر ابزار مفیدی در صورت استفاده نادرست و بداندیشانه روی شیطانی خود را نیز نشان می دهد.

دنیای ما هنوز هم کمی تا ضد آرمانشهرهای سینمایی فاصله دارد. اما در شرایطی که همین حالا هم اطرافمان مملو از اخبار دروغین است، دیپ فیک های قانع کننده می توانند ضربه آخر را بر پیکر آنچه که درست می شماریم وارد کنند.

به نظر می رسد در روزگاری که سرعت تولید اخبار و محتوا سرسام آور شده و اندکی دخل و تصرف در آن ها می تواند فجایع بزرگی به بار آورد؛ بهتر است در معیارهایمان برای تشخیص صحت گفته ها، شنیده ها و حتی دیده هایمان تجدید نظر کنیم تا آخرین سنگر بین حقیقت و دروغ اندکی بیشتر پابرجا باقی بماند.

دیدگاه‌ها و نظرات خود را بنویسید
مجموع نظرات ثبت شده (2 مورد)
  • sadeq
    sadeq | ۱۰ اردیبهشت ۱۳۹۸

    یعنی این تکنولوژی راست کار هموطن های عزیزمه
    همینجوری من اطرافیانمو میبینم که یک حرفهای محیر العقولی میزنن بعد ازشون میپرسی از کجا میگی با کمال اعتماد به نفس میگن "تو تلگرام خوندیم"
    حالا فرض فیلمشم دیده باشن....
    یا خدا

    • AZjaguar
      AZjaguar | ۱۱ اردیبهشت ۱۳۹۸

      دقیقا یاد نقل هایی فیک از پرفسور سمیعی میفتم

مطالب پیشنهادی