ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

فناوری ایران

پژوهشگر اخلاق هوش مصنوعی: مردم نقش مهمی در توسعه مسئولانه هوش مصنوعی دارند

آیا می‌توان هوش مصنوعی را مسئول اعمالش دانست؟ یک پژوهشگر اخلاق هوش مصنوعی به این سؤال پاسخ می‌دهد.

مجتبی آستانه
نوشته شده توسط مجتبی آستانه | ۲۹ خرداد ۱۴۰۲ | ۱۲:۲۷

یک پژوهشگر اخلاق هوش مصنوعی باور دارد مردم و کاربران نقش مهمی در توسعه مسئولانه هوش مصنوعی دارند؛ چرا که این فناوری از کنش کاربران بازخورد می‌گیرد. به باور وی، بایستی عموم جامعه به آگاهی و دانش مناسبی نسبت به این تکنولوژی دست یابند و نباید تنها طراحان آن را مسئول رفتار اخلاقی هوش مصنوعی بدانیم.

هسته حکمرانی و هوش مصنوعی مرکز رشد و خانه خلاق و نوآوری پژوهشگاه فرهنگ و اندیشه، اولین جلسه از کارگاه دانش‌افزایی هوش مصنوعی را برگزار کرد. در این جلسه مروری بر «معضل شکاف مسئولیت در هوش مصنوعی» انجام و راهکارهایی برای توسعه مسئولانه آن ارائه شد.

«سعیده بابایی»، پژوهشگر اخلاق هوش مصنوعی دانشگاه توبینگن آلمان، در این کارگاه به چهار راهبرد برای توسعه مسئولانه فناوری‌های هوش مصنوعی اشاره کرد و گفت:

«یکی از عواملی که موجب می‌شود با شکاف مسئولیت روبه‌رو شویم، شفاف‌نبودن عامل‌ها و ساختارهایی است که در توسعه یک تکنولوژی و کاربردی‌شدن آن مسئول هستند. نقش هر یک از آن‌ها در خروجی نهایی که تولید می‌شود، به‌اندازه کافی شفاف نیست. این راهبرد ما را متوجه می‌کند که باید شبکه عامل‌ها را دقیق‌تر شناسایی کنیم.»

اخلاق هوش مصنوعی

او تعریف شورای ارزیابی اخلاقی در سیستم را یکی دیگر از راهبردهای توسعه مسئولانه هوش مصنوعی عنوان کرد و گفت: «در یک سیستم پیچیده، رفتار مسئولانه هر نهاد به‌خودی‌خود برای اینکه خروجی هم اخلاقی باشد، کفایت نمی‌کند؛ زیرا اگر نگاه کلان اخلاقی به سیستم وجود نداشته باشد، ممکن است موضوعات اخلاقی در یک سیستم پیچیده از نظر غافل بماند.»

او با تأکید بر اینکه نقش کاربر بر توسعه هوش مصنوعی را باید بسیار جدی‌تر مورد بررسی قرار داد، اظهار داشت که بازخوردهای محیط و کنش کاربران انسانی، هوش مصنوعی یادگیرنده را آموزش می‌دهد و خروجی رفتار آن را معین می‌کند:

«کاربران عناصر منفعل نیستند و می‌توانند عاملیتی جدی داشته باشند. از چند جهت نقش آن‌ها مهم است؛ پاسخگو‌بودن نسبت به کاربران تا حد زیادی اهمیت دارد و توجه به ضرورت پاسخگوبودن منجر به تلاش بیشتر برای شفاف‌ترشدن مسیر توسعه هوش مصنوعی می‌شود.»

این پژوهشگر باور دارد برای اینکه پاسخگویی در عمل محقق شود، باید عموم جامعه یک آگاهی و دانش مناسب و کافی نسبت به هوش مصنوعی پیدا کنند: «مثلاً کدام تکنولوژی‌هایی که به‌طور روزمره از آن‌ها استفاده می‌کنند، در آن‌ها هوش مصنوعی به‌کار رفته است و چه اثراتی روی زندگی آن‌ها دارد. بنابراین آگاه‌کردن مردم و کاربر مهم است.»

وی با بیان اینکه سیستم‌های هوش مصنوعی از محیط یاد می‌گیرند، اظهار داشت این سیستم‌ها از کنش کاربران بازخورد می‌گیرند و داده جدید وارد این‌ها می‌شود که خروجی رفتارشان را تعیین می‌کند: «کاربران یک بخش از فرایند توسعه را با تعامل با این سیستم‌ها رقم می‌زنند. بنابراین می‌توان ادعا کرد که توسعه یک فناوری مثل هوش مصنوعی درواقع یک عمل جمعی است. این درحالی است که غالب مردم از نقش فعال و مهمی که می‌توانند داشته باشند، بی‌خبر هستند؛ اما ما صرفاً جامعه طراحان را مسئول می‌دانیم.»

توسعه مسئولانه AI

به گفته بابایی، در راستای توسعه مسئولانه هوش مصنوعی، پیشنهاد شده است تا از سیاست‌گذاری تمرکززدایی شود و افکار عمومی و ذی‌نفعان در پروسه توسعه هوش مصنوعی مشارکت داده شوند: 

«کاربران حق دارند در تکنولوژی‌هایی که زندگی‌شان را شکل و تغییر می‌دهد، نقش داشته باشند. همچنین بسیاری اوقات خرد جمعی که در افکار عمومی وجود دارد، می‌تواند یک آگاهی جدید و متفاوتی را درباره جنبه‌های اخلاقی تکنولوژی‌های مختلف ازجمله هوش مصنوعی، با خود به‌همراه آورد.»

آیا می‌توان هوش مصنوعی را مسئول دانست؟

این پژوهشگر هوش مصنوعی در بخش دیگری از سخنان خود به امکان مسئولیت اخلاقی هوش مصنوعی اشاره کرد و گفت در این رابطه دو استدلال مبتنی بر «تعریف ربطی مسئولیت‌پذیری» و «امکان‌های آینده هوش مصنوعی» وجود دارد.

او معتقد است در رویکرد ربطی شباهت زیادی بین عمل هوش مصنوعی و عمل انسانی وجود دارد: «اگر در بسیاری از موقعیت‌هایی که هوش مصنوعی می‌تواند به‌طور بالقوه در آن‌ها قرار گیرد، تکنولوژی را با عامل انسانی جایگزین کنیم، می‌توانیم آن موقعیت را یک موقعیت اخلاقی تلقی کنیم؛ مثلاً هوش مصنوعی جای یک معلم یا پرستار سالمند قرار گیرد.»

بابایی با اشاره به اینکه جان سالینز از مدافعین این رویکرد است، اظهار داشت به باور این فرد، مفهوم خودمختاری که در ذهن عامه مردم درباره هوش مصنوعی شکل گرفته است، بایستی تغییر کند:

«هوش مصنوعی را می‌توان با سگ‌های دست‌آموزی که به افراد نابینا کمک می‌کنند، مقایسه کرد. همان‌طور که این یک عمل اخلاقی است که مورد تحسین ما قرار می‌گیرد، هوش مصنوعی را نیز اگر در این موقعیت قرار دهیم، می‌تواند شایسته تحسین ما باشد. این هم متوجه مربی سگ و هم خود سگ است که شایسته تحسین است.»

اخلاق هوش مصنوعی

او با طرح این سؤال که آیا می‌توان هوش مصنوعی را مسئول دانست یا خیر، گفت گروهی از اندیشمندان بر این باورند که نمی‌توان امکان مسئولیت اخلاقی برای هوش مصنوعی قائل بود. درواقع طی این استدلال، عاملیت اخلاقی هوش مصنوعی رد می‌شود و به این دلیل که نمی‌تواند عاملیت داشته باشد، پس مسئولیت‌پذیر هم نیست:

«بار مسئولیت و عملی که تولید می‌شود و ممکن است یک خروجی نامطلوب ایجاد کند، باید منحصراً بر دوش انسان‌ها گذاشته شود. راهبردی که این دسته از اندیشمندان پیگیری می‌کنند، این است که هوش مصنوعی نمی‌تواند شرایط پذیرفتن مسئولیت را احراز کند»

اما در استدلال گروه دوم، هوش مصنوعی حائز عاملیت شرایط اخلاقی است، اما مسئول آن نیست. بابایی دراین‌باره گفت: «هوش مصنوعی فاقد مسئولیت اخلاقی است. در تعامل بین انسان و تکنولوژی، تکنولوژی به نحو فعالانه‌ای بین انسان و جهان انسان‌ها وساطت می‌کند. تکنولوژی یک نوع عاملیتی از خود نشان می‌دهد، اما از آنجا که انسان‌ها طراح این تکنولوژی هستند، مسئولیت اتفاقات ناخواسته رخ‌داده هم بر عهده انسان‌هاست. فلوریدی و سانترز معتقدند اگر خروجی هوش مصنوعی به‌اندازه کافی شبیه به انسان باشد، کفایت می‌کند که عاملیت را به هوش مصنوعی نسبت دهیم؛ اما نه به آن معنا که مسئولیت را به انسان واگذار می‌کنیم. البته هوش مصنوعی را می‌توان پاسخگو دانست تا اگر یک عاملی منجر به فعلی غیراخلاقی شود، آن فعل را اصلاح یا عامل را حذف کند.»

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی