ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

هوش مصنوعی
هوش مصنوعی

خطر هوش مصنوعی و تسلط بر زبان؛ سیستم عامل تمدن بشری هک شده است!

زبان مهم‌ترین رکن در تاریخ تمدن بشر بوده است و حالا با چیرگی هوش مصنوعی بر زبان، همه‌چیز در معرض خطر قرار دارد.

ایمان صاحبی
نوشته شده توسط ایمان صاحبی | ۷ خرداد ۱۴۰۲ | ۱۷:۰۰

ترس از هوش مصنوعی از ابتدای عصر کامپیوترها همراه انسان بوده است. این هراس تاکنون بر استفاده فیزیکی از ربات‌ها برای کشتن، به‌بردگی‌کشیدن یا جایگزین‌کردن انسان‌ها محدود بود، اما ابزارهای جدید هوش مصنوعی حالا از سمت‌وسویی غیرمنتظره بقای تمدن بشری را هدف قرار داده‌اند. زبان سیستم عامل تمدن ماست و هوش مصنوعی حالا می‌تواند از طریق کلمات، اصوات، تصاویر و ویدیوها زبان را در دست بگیرد و به‌شکلی خارق‌العاده از آن استفاده و سوءاستفاده کند.

این مقاله یادداشتی به قلم «یووال نوح هراری»، تاریخ‌پژوه، فیلسوف و نویسنده کتاب‌هایی ازجمله «انسان خردمند» و «انسان خداگونه» است که در رسانه اکونومیست منتشر شده. متن مذکور با تغییرات اندک ترجمه و آماده شده است:

زبان همان چیزی است که تقریباً تمام فرهنگ بشر را شکل داده است. برای مثال، حقوق بشر در DNA ما حک نشده، بلکه پدیده‌ای فرهنگی است که ما با روایت داستان‌ها و تدوین قوانین آن را به‌وجود آوردیم. پول هم یک پدیده فرهنگی است. اسکناس صرفاً یک کاغذ رنگی است و امروز حتی بخش عمده همین پول حتی به‌صورت اسکناس وجود ندارد، بلکه به حالت دیجیتالی درآمده است. اما آن‌چه که به پول ارزش می‌دهد، داستان‌هایی است که بانک‌ها، وزرای اقتصاد و حتی فعالان حوزه رمزارزها به ما می‌گویند.

حال چه می‌شود اگر یک موجود غیرانسانی هوشمند در تعریف‌کردن داستان‌ها، خلق ملودی‌ها، ترسیم تصاویر، حجاری مجسمه‌ها و نوشتن قوانین از انسان‌های معمولی پیشی بگیرد؟ عمده افرادی که درباره ChatGPT و دیگر ابزارهای هوش مصنوعی فکر می‌کنند، به یاد استفاده دانش‌آموزان از این فناوری برای نوشتن تکالیف می‌افتند. ولی وقتی بچه‌ها دست به چنین کاری بزنند، چه بلایی سر سیستم آموزشی ما می‌آید؟ چنین سؤالاتی اگرچه جذاب‌اند، اما ما را از دیدن تصویر بزرگ‌تر غافل می‌کنند.

تکالیف مدرسه را فراموش کنید. انتخابات ریاست جمهوری بعدی آمریکا در سال 2024 را نظر بگیرید، و تصور کنید که اثر ابزارهای هوش مصنوعی در تولید انبوه محتواهای سیاسی، اخبار دروغین و تشکیل گروه‌های فرقه‌ای جدید چه خواهد بود.

گروه QAnon در سال‌های اخیر عمدتاً به‌صورت ناشناس در فضای آنلاین با پیام‌هایی موسوم به «نزولات Q» فعالیت داشته‌اند. طرفداران این گروه نزولات Q را به‌عنوان متنی مقدس گردآوری، بازگردانی و تفسیر می‌کنند. هرچند با توجه به شواهد، تمام نزولات Q قبلی توسط انسان‌ها نوشته شده بودند، و بات‌ها فقط در توزیع آن‌ها نقش داشتند، اما در آینده ممکن است اولین فرقه‌هایی را ببینیم که متون‌شان توسط هوش غیرانسانی نوشته می‌شوند.

در سطوح دیگر، ممکن است به‌زودی با موجوداتی وارد بحث‌وجدل‌های اینترنتی پیرامون سقط جنین، تغییرات اقلیمی و جنگ روسیه و اوکراین شویم که فکر می‌کنیم انسان هستند، اما در واقع هوش مصنوعی‌اند. نکته مهم این‌جاست که مباحثه با یک بات برای تغییردادن نظر هوش مصنوعی کاری به غایت بیهوده است. از آن سو، هوش مصنوعی می‌تواند با چنان مهارتی پیام‌های خود را بنویسد که تأثیر قابل توجهی روی نظر ما بگذارد.

قدرت هوش مصنوعی در مهارتش پیرامون استفاده از زبان است

چیرگی بالای هوش مصنوعی بر زبان، می‌تواند به این فناوری اجازه دهد تا با انسان‌ها روابط صمیمانه‌ای برقرار کند و از همین صمیمیت برای تغییر نظر و جهان‌بینی ما بهره بگیرد. اگرچه به‌نظر نمی‌آید که هوش مصنوعی ذاتاً خودآگاهی یا احساس داشته باشد، این فناوری می‌تواند با ایجاد نوعی وابستگی احساسی در انسان‌ها، این صمیمیت غیرواقعی را ایجاد کند.

در ماه ژوئن 2022، «بلیک لموین»، مهندس گوگل به‌صورت عمومی مدعی شد که چت‌بات هوش مصنوعی LaMDA به ادراک رسیده است. این ادعای جنجالی در نهایت به اخراج او منتهی شد. ولی جالب‌ترین نکته پیرامون این ماجرا ادعای آقای لموین نبود که احتمالاً هم نادرست است. نکته این‌جاست که او حاضر بود شغل جذاب خود را به‌خاطر این چت‌بات هوش مصنوعی به‌خطر بیندازد. اگر هوش مصنوعی می‌تواند کاری کند که افراد روی شغل خود ریسک کنند، این فناوری قادر به چه اعمال نفوذهای دیگری بر مردم خواهد بود؟

در مبارزه سیاسی در عرصه عقل و دل، صمیمیت مؤثرترین سلاح است و هوش مصنوعی حالا می‌تواند در مقیاسی گسترده با میلیون‌ها نفر رابطه صمیمانه ایجاد کند. همه ما می‌دانیم که شبکه‌های اجتماعی در بیش از یک دهه اخیر به میدان مبارزه‌ای برای کنترل توجه انسان‌ها تبدیل شده‌اند. اکنون با نسل جدید هوش مصنوعی، این مبارزه بر جلب صمیمیت متمرکز خواهد شد. زمانی که هوش‌های هوش مصنوعی بر سر جعل روابط صمیمانه با ما، با یکدیگر وارد نبرد شوند، چه بر سر جامعه بشری و روان‌شناسی بشری خواهد آمد؟ کدام هوش مصنوعی موفق می‌شود که نظر ما را برای رأی‌دادن به سیاست‌مدار موردعلاقه خود یا خرید محصولات مختلف تغییر دهد؟

حتی بدون ایجاد «صمیمیت دروغین»، ابزارهای جدید هوش مصنوعی بر نظرات و جهان‌بینی ما اثر بسزایی خواهند داشت. مردم احتمالاً از یک هوش مصنوعی به‌عنوان مشاوری همه‌چیزدان استفاده خواهند کرد. عجیب نیست که حتی گوگل هم به وحشت افتاده است. وقتی می‌توانم هر سؤالی را از مشاور همه‌چیزدانم بپرسم، چرا باید زحمت جستجو را به خودم بدهم؟ صنعت خبر و تبلیغات هم باید بترسند. وقتی می‌توانم از مشاورم بخواهم که جدیدترین اخبار را به من بگوید، چرا باید روزنامه بخوانم؟ و در شرایطی که می‌توانم از مشاورم بپرسم که باید چه چیزی بخرم، دیگر هدف تبلیغات چیست؟

هوش مصنوعی می‌تواند مترادف با پایان تاریخ بشری باشد

و حتی این سناریوها هم تصویر بزرگ را به‌درستی رسم نمی‌کنند. آن‌چه ما درباره‌اش حرف می‌زنیم، احتمالاً مترادف با پایان تاریخ بشری است. نه پایان تاریخ، بلکه صرفاً پایان آن بخش از تاریخ که تحت سلطه انسان‌ها بوده است. تاریخ همان تعامل میان بیولوژی و فرهنگ است؛ میان نیازهای بیولوژی و تمایل برای چیزهایی مثل خوراک و سرگرمی، و مخلوقات فرهنگی ما ازجمله قوانین. تاریخ همان فرایندی است که طی آن قوانین به موضوعاتی مثل خوراک شکل می‌دهند.

هنگامی که هوش مصنوعی فرهنگ را در دست بگیرد، و شروع به خلق داستان، ملودی، قانون و مذهب کند، چه اتفاقی برای روند تاریخ خواهد افتاد؟ ابزارهای پیشین نظیر مطبوعات چاپی و رادیو به گسترش ایده‌های فرهنگ بشری کمک کردند، ولی هرگز ایده‌های فرهنگی خودشان را به‌وجود نیاوردند. هوش مصنوعی به‌کلی متفاوت است. این فناوری می‌تواند به‌طور کامل ایده‌ها و فرهنگ جدیدی بسازد.

هوش مصنوعی در ابتدا احتمالاً پروتوتایپ‌های بشری را که با آن‌ها آموزش داده شده است، تقلید خواهد کرد. اما با گذشت هر سال، فرهنگ هوش مصنوعی جسورانه به نقاطی قدم می‌گذارد که هیچ انسانی تابه‌حال آن‌جا نرفته است. گونه بشر هزاران سال است که درون رؤیای دیگر انسان‌ها زندگی کرده است. ولی در دهه‌های آینده احتمالاً درون رؤیای یک موجود هوشمند بیگانه زندگی خواهیم کرد.

هراس از هوش مصنوعی تنها در چند دهه گذشته گریبان نوع بشر را گرفته است. اما انسان‌ها از هزاران سال پیش با ترس بسیار عمیق‌تری دست‌وپنجه نرم می‌کردند. ما همیشه به قدرت داستان‌ها و تصاویر در دستکاری ذهن و ایجاد توهمات‌مان آگاه بودیم. در نتیجه، انسان از دیرباز نگران گیرافتادن در دنیای توهمات بوده است.

«رنه دکارت» در قرن هفدهم نگران بود که یک اهریمن بدذات او را درون دنیایی از توهمات گیر انداخته باشد. در یونان باستان، «افلاطون» تمثیل مشهور غار را مطرح کرد که در آن گروهی از انسان‌ها درون غاز زندگانی خود به زنجیره کشیده می‌شوند و روبه‌روی یک دیوار خالی قرار می‌گیرند. یک صفحه، صفحه‌ای که در آن بازتاب سایه‌های مختلف را می‌بینند. زندانیان به اشتباه تصور می‌کنند که این توهمات، واقعیت زندگی‌شان است.

خردمندان بودایی و هندو در دوران باستان می‌گفتند همه انسان‌ها در تله‌ای درون «مایا»، دنیای توهمات، زندگی می‌کنند. آن‌چه ما به‌طور عادی به‌عنوان واقعیت در نظر می‌گیریم، اغلب تخیلات ذهن‌مان است. مردم ممکن است به‌خاطر باور به این یا آن توهم جنگ راه بیندازند، بقیه را بکشند و حاضر به فداکردن جان خود باشند.

انقلاب هوش مصنوعی ما را رودرروی اهریمن دکارت، و غار افلاطون، و مایا قرار می‌دهد. اگر مراقب نباشیم، ممکن است در پشت پرده‌ای از توهمات به دام بیفتیم و نتوانیم این پرده را بدریم یا حتی متوجه شویم که پرده‌ای وجود دارد.

البته که قدرت هوش مصنوعی می‌تواند استفاده‌های مفید هم داشته باشد. من روی این موضوع تمرکز نمی‌کنم، چون افرادی که هوش مصنوعی را توسعه می‌دهند، به اندازه کافی در این باره حرف می‌زنند. کار تاریخ‌پژوه و فیلسوفی مثل من این است که به خطرات اشاره کنیم. اما مطمئناً هوش مصنوعی می‌تواند به روش‌های بی‌شمار، از کشف درمان‌های جدید برای سرطان گرفته تا کشف راهکارهای حل بحران‌های زیست‌محیطی، به ما کمک کند. سؤال پیش روی ما این است که چگونه مطمئن شویم این ابزارهای جدید هوش مصنوعی نه در راهی نامناسب بلکه برای اهداف نیک استفاده می‌شوند. برای انجام این کار، نخست باید توانمندی‌های حقیقی این ابزارها را بشناسیم.

هوش مصنوعی بی‌شباهت به فناوری هسته‌ای نیست

از سال 1945 می‌دانیم که فناوری هسته‌ای می‌تواند برای تولید انرژی ارزان به کمک انسان‌ها بیاید. ولی این فناوری در عین حال می‌تواند تمدن بشری را نابود کند. بنابراین ما تمام نظم جهانی را تغییر دادیم تا از بشریت محافظت کنیم و اطمینان یابیم که فناوری هسته‌ای در وهله اول برای امور نیک استفاده می‌شود. اکنون باید با سلاح کشتار جمعیِ جدیدی سروکله بزنیم که می‌تواند دنیای ذهنی و اجتماعی ما را ویران کند.

هنوز هم می‌توانیم ابزارهای جدید هوش مصنوعی را قانون‌مند کنیم، اما باید سریع باشیم. اگرچه فناوری هسته‌ای نمی‌توانست فناوری هسته‌ای قدرتمندتری به‌وجود بیاورد، اما هوش مصنوعی می‌تواند به‌شکلی تصاعدی توانمندتر شود. اولین گام حیاتی این است که خواستار بررسی‌های ایمنی سفت‌وسختی باشیم که پیش از عرضه عمومی ابزارهای هوش مصنوعی در نظر گرفته شوند.

همان‌طور که شرکت‌های داروسازی نمی‌توانند داروهای جدید را پیش از آزمایش عوارض کوتاه‌مدت و درازمدت‌شان عرضه کنند، شرکت‌های فناوری هم نباید ابزارهای جدید هوش مصنوعی را پیش از حصول اطمینان از امن‌بودنشان منتشر کنند. ما به نهادی شبیه به سازمان غذا و دارو برای فناوری نیاز داریم و دیروز باید این سازمان را تشکیل می‌دادیم.

آیا کاهش سرعت پیاده‌سازی عمومی هوش مصنوعی باعث نمی‌شود که جوامع دموکراتیک از رژیم‌های خودکامه عقب بمانند؟ اتفاقاً ماجرا برعکس است. پیاده‌سازی بی‌قانون هوش مصنوعی هرج‌ومرج اجتماعی ایجاد می‌کند که به نفع تمامیت‌خواهان است و دموکراسی را ویران می‌کند. دموکراسی یک گفت‌وگو است، و گفت‌وگوها بر زبان اتکا دارند. زمانی که هوش مصنوعی زبان را هک می‌کند، این اتفاق می‌تواند توانایی ایجاد گفت‌وگوهای معنادار را از ما بگیرد و دموکراسی را نابود کند.

ما امروز با یک بیگانه هوشمند در زمین مواجه هستیم. چیز زیادی درباره این موجود نمی‌دانیم، جز این که ممکن است تمدن ما را از بین ببرد. ما باید پیاده‌سازی غیرمسئولانه ابزارهای هوش مصنوعی در حوزه عمومی را متوقف کنیم، و برای هوش مصنوعی قانون بگذاریم، قبل از این که هوش مصنوعی برای ما قانون بگذارد. و اولین قانونی که من پیشنهاد می‌کنم این است که ابزارهای هوش مصنوعی باید اعلام کنند که هوش مصنوعی هستند. اگر من با یک نفر حرف بزنم، و نتوانم تشخیص بدهم که طرف مقابلم انسان است یا هوش مصنوعی، به پایان دموکراسی می‌رسیم.

این متن توسط یک انسان نوشته شده است. یا شاید هم نه؟

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی