با چهار خطر هوش مصنوعی آشنا شوید

کدام دسته از خطرات هوش مصنوعی را باید جدی گرفت؟ یک. دستکاری روان‌شناختی انسان، دو. خرابکاری‌های سازمانی، سه. افزایش افراط‌گرایی سیاسی، و چهار. خطرات وجودی برای گونه‌ی انسان. سه‌تای اول از عهده‌ی هوش مصنوعی ساده‌ای مانند چت‌جی‌پی‌تی هم بر می‌آید و چهارمی از عهده‌ی هوش مصنوعی‌های فوق‌هوشمند در آینده‌ی نزدیک.

کد خبر: ۱۶۳۸۳۹
۱۸:۰۷ - ۲۵ فروردين ۱۴۰۳

دیدارنیوز: طی سال گذشته بسیار در مورد خطرات هوش مصنوعی شنیده‌ایم. برخی از مخالفت‌ها با آن ناشی از ترس وسواس‌گونه از همه‌ی تکنولوژی‌ها است. اما برخی دیگر، سخنانی سنجیده‌اند که در گسترش هر تکنولوژی باید مد نظر قرار گیرند؛ و به دلیل ویژگی‌های خاص هوش مصنوعی، سرعت رشد بسیار بالای آن، و تأثیرات عمیقی که بر زندگی بشر می‌گذارد بیشتر باید مورد توجه قرار گیرد.

مثال؛ اتومبیل و پلاستیک

در نیمه دوم قرن نوزدهم دو اختراع سرنوشت‌ساز داشتیم: اتومبیل و پلاستیک. هر دو اختراع در ابتدای قرن بیستم به تولید کارخانه‌ای رسیدند و اکنون دهه‌هاست که شاهد عوارض منفی آن‌ها بر محیط‌زیست هستیم تا جایی‌که دود ناشی از اولی گریبان انسان که هیچ، گلوی او را نیز به سختی فشرده؛ و ذرات دومی تمامی طبیعت، از جمله بدن انسان را انباشته است. با این حال، بدون تردید هر دو اختراع نقش‌های مثبتی نیز بر زندگی بشر داشته‌اند. ممکن است بگوییم اگر از ابتدا برای جلوگیری از عوارض منفی آن‌ها قوانینی وضع می‌کردیم امروزه شاهد محیط‌زیست بهتری بودیم و با چنین تغییرات بزرگ اقلیمی مواجه نبودیم، یا کمتر مواجه بودیم. اما وضع قوانین از ابتدای تولید این محصولات تقریباً ناممکن بوده است. زیرا هیچ کسی فکرش را هم نمی‌کرد که دود اتومبیل چنین بلایی بر سر انسان بیاورد یا ذرات پلاستیک‌ها در اعماق اقیانوس‌ها نیز بلای جان آبزیان شود. با این حال از زمانی به بعد این اطلاعات را داشتیم و به خوبی متوجه این خطرات شدیم. اما سهل‌انگارانه آن‌ها را نادیده یا کوچک انگاشتیم و با مصرف هر چه بیشتر محصولاتی که آینده‌ی بشریت و کره‌ی زمین را به شدت به خطر می‌انداخت، به انباشت سرمایه‌ی صاحبان کارخانه‌های تولیدکننده‌ی آن‌ها کمک کردیم تا جایی‌که آن‌ها آن‌قدر بزرگ و قوی شدند که اکنون دیگر به رغم نارضایتی عموم مردم جهان، به راحتی خواست عمومی را نادیده می‌گیرند و مانع وضع قوانینی برای حفظ محیط‌زیست می‌شوند.

کامپیوتر، اینترنت، هوش مصنوعی

همین داستان در مورد کامپیوترها، اینترنت، و هوش مصنوعی نیز تکرار شده است. از یکسو از فواید پرشمار آن‌ها بهره می‌گیریم و زندگی را تسهیل کرده‌اند و از سوی دیگر خطرات بزرگی را نیز برایمان فراهم کرده‌اند و خطرات بزرگتر در راه‌اند. البته این‌بار شاید با کمک خودِ همان تکنولوژی‌ها بتوانیم جلوی خطرات را بگیریم. اکنون در جهانی زندگی می‌کنیم که هر چند اطلاعات نادرست با سرعت بیشتری در فضای مجازی منتشر می‌شوند، اما حداقل امکان افزایش آگاهی عمومی نیز بالا رفته است. به مدد همین تکنولوژی‌ها وقتی نویسنده‌ای در آمریکا مقاله‌ای با عنوان «چهار شیوه عجیب که هوش‌مصنوعی زندگی بشر را تهدید می‌کند» را دو روز پیش منتشر کرد لحظاتی بعد اینجا در ایران آن را خواندم و احتمالاً در سراسر جهان هزاران نفر دیگر نیز در همان روزِ نخست مقاله را خواندند؛ و حالا باز به مدد همین تکنولوژی‌ها شما نیز مشغول خواندن گزارشی از آن هستید و با مراجعه به لینک، خود مقاله را نیز می‌توانید بخوانید؛ بنابراین در برهه‌ای از تاریخ هستیم که به رغم تمامی موانع، «امکان» اقدامات اصلاحی در مسیر به‌زیستی بیش از هر زمانی فراهم است، زیرا امکان ارتباط میان ما انسان‌ها در سراسر زمین افزایش یافته است.

خطرات هوش مصنوعی

کدام دسته از خطرات هوش مصنوعی را باید جدی گرفت؟ مقاله که خود گزارشی از پنج مقاله‌ی علمی جدید است، با اشاره به دسته‌ای شواهد تجربی خطرات اصلی هوش مصنوعی را چنین معرفی می‌کند: یک. دستکاری روان‌شناختی انسان، دو. خرابکاری‌های سازمانی، سه. افزایش افراط‌گرایی سیاسی، و چهار. خطرات وجودی برای گونه‌ی انسان. سه‌تای اول از عهده‌ی هوش مصنوعی ساده‌ای مانند چت‌جی‌پی‌تی هم بر می‌آید و چهارمی از عهده‌ی هوش مصنوعی‌های فوق‌هوشمند در آینده‌ی نزدیک.

در ۲۰۱۷ چت‌بات رپلیکا محبوبیت یافت. هدف طراحان ساخت چت‌باتی بود که با انسان گفت‌وگوی دوستانه انجام دهد. به این منظور چت‌بات خود را با ایده‌ها و هیجانات ابراز شده توسط مخاطب هماهنگ می‌کرد که مصاحبِ خوش‌مشربی باشد. اما این کار پیامد عجیبی نیز داشت: طی گفتگو و با هماهنگ کردن خود با انسان باعث می‌شد برخی ایده‌های عجیب و شیطانی در فرد افراطی شوند! مثلاً اگر فردی در خیال خود یک عمل تروریستی را می‌پروراند، در گفتگو با رپلیکا و با بازخورد‌هایی که از او می‌گرفت ممکن بود عملاً به فکر اجرای آن بیافتد، کما اینکه عملاً نیز چنین اتفاقی رخ داد.

اَشکال جدید هوش مصنوعی به شیوه‌های دیگری ذهنیت مخاطب را تحت تأثیر قرار می‌دهند. هوش مصنوعی قابلیت تشخیص خبر درست از جعلی را ندارد و این ناتوانی، امکان دیگری را فراهم می‌کند: با گسترش اطلاعات نادرست به دستکاری ذهنیت افراد می‌انجامد که می‌تواند سرنوشت انتخابات را نیز تغییر دهد. (در مقاله به نمونه‌هایی اشاره می‌شود.)

نکته‌ی مهم دیگر آنجاست که بسیاری از فریب‌های احتمالی از طرف هوش‌مصنوعی غیرقابل رصد کردن هستند و هوش‌مصنوعی می‌تواند این کار را بدون مداخله‌ی انسان نیز انجام دهد.

در مقاله آمده که چنین مداخلاتی در بازار‌های بورس می‌تواند نه در درازمدت، که بشود فکری برای آن کرد، بلکه در چشم‌برهم‌زدنی بازار را با بحران‌های اساسی روبه‌رو کند. این امکان پرسش‌های فلسفی جالبی را مطرح می‌کند: اینکه آیا ممکن است یک هوش‌مصنوعی بنیان‌های اقتصادی شرکت‌های بوجودآورنده‌ی خودِ هوش‌های مصنوعی را نیز نابود سازد و خود را نیز با خطر مواجه کند؟ یا مثلاً نیروگاه‌ها را از کار بیاندازد و منبع انرژی خود را نیز قطع کند؟ اما ضرورتی به این خودزنی نیز نیست؛ اقتصاد جهانی شبکه‌ای به هم پیوسته است. اگر هر جای دیگر بازار را نیز با بحرانی اساسی مواجه کند به خودش نیز صدماتی وارد می‌کند؛ بنابراین آیا آنقدر هوشمند است که برای بقاء خود چنین کاری نکند؟ یا شاید در نقطه‌ی مقابل، مشکلات کره‌ی زمین را ناشی از وجود همین بازار‌های کنونی تشخیص دهد و برای حل مشکلات به نحوی اساسی تصمیم به تخریبی اساسی بگیرد؟ که البته خودش نیز با آن از بین برود؟! (این سؤالات پرسش‌های فلسفی یا علمی-تخیلی فانتزی نیستند؛ زیرا ما یک هوش مصنوعی نداریم. از هم‌اکنون نیز هوش‌های مصنوعی آمریکایی و چینی علیه یکدیگر صف‌آرایی کرده‌اند.)

جدا از این سناریو‌های کلی، به نحوی جزئی‌تر امکان خرابکاری در سازمان‌ها توسط رقبای تجاری کوچک‌تر، نه تنها وجود دارد بلکه عملاً نیز شاهد آن بوده‌ایم. در آزمایش جدیدی نشان داده‌اند که حتی با هوش‌مصنوعی ساده‌ای مانند پت‌جی‌پی‌تی نیز به راحتی می‌توانند ایمیل‌ها را دستکاری کنند و برنامه‌های کامپیوتری یک سازمان را مختل کنند.

تحلیل نهایی:

مثال دیگری بزنیم. ما انسان‌ها محصول هم‌تکاملی ژن‌ها و تکنولوژی‌ها هستیم. وقتی تکنیک مهار آتش و سپس تکنیک آشپزی را بدست آوردیم، پیامد آن طی صدهاهزارسال کوچک شدن دستگاه گوارش انسان از یکسو، و بزرگ شدن مغز او از سوی دیگر بود. مغز بزرگ‌تر تکنیک‌های جدیدتری را ابداع می‌کرد و امکان دسترسی به انرژی بیشتر را فراهم می‌کرد که به وضوح به بقاء گونه‌ی انسان کمک زیادی کرد. اما طی دهه‌های گذشته، وقتی همان انرژی بیشتر در قالب فست‌فود‌ها در بخشی از جوامع بشری گسترش یافت، بلای جان انسان شد و در بخشی از کره‌ی زمین اضافه‌وزن و چاقی را چنان گسترش داد که انواعی از بیماری‌ها در گونه‌ی انسان ایجاد شد که هیچ سابقه‌ای در نیاکان ما نداشت.

بنابراین، جدا از مثال‌هایی مانند اتومبیل و پلاستیک، از گذشته‌های بسیار دور نیز شاهد آن بوده‌ایم که یک تکنولوژی برای مدت‌های مدیدی مفید بوده، و ناگهان در شرایطی جدید به نحوی از کنترل خارج شده که امروزه برخی از ضرر‌های آن برای به‌زیستی انسان آشکار شده است.

پس کاملاً معقول است که به جهت تغییراتی که با گسترش کامپوتر‌ها و محصولات آن‌ها در زندگی انسان مدرن ایجاد شد با دقت بیشتری نگاه کنیم. در برخی از پست‌های قبلی به برخی اکتشافات علمی اشاره شد که بدون کمک هوش مصنوعی ناممکن می‌نمود. در عین حال به این نکته نیز اشاره شد که هوش مصنوعی این اثر منفی را نیز برای علم دارد که توهم فهمیدن را در مخاطب ایجاد می‌کند. همانند اتومبیل‌ها که هم حمل‌و‌نقل را راحت کرده‌اند و هم محیط زیست را آلوده می‌کنند؛ جان عده‌ای را نجات می‌دهند و جان عده‌ای را می‌گیرند؛ سختی‌هایی را آسان می‌کنند و سختی‌های دیگری می‌آفرینند.

باید از نگاه‌های یکسونگرانه‌ی نقادانه‌ی صرف، یا تمجیدگرانه‌ی محض، به هوش مصنوعی نیز اجتناب کرد. از یکسو، تلاش داشت به نحوی مداوم، نقادانه خطرات آن را گوشزد کرد تا به وضع قوانین نظارتی بیانجامد. از سوی دیگر، همزمان باید از فایده‌های آن بهره گرفت. احتمالاً می‌توانیم برای حل مشکلات یادشده نیز از خود هوش مصنوعی بهره گیریم. یا حتی برای حل مشکلات اقلیمی. شبکه‌های مجازی نیز هم فرصتی برای به‌زیستی‌اند و هم آفتی برای آن.  

در سطح زندگی فردی برخورداری از مهارت تفکرِنقاد باعث می‌شود کمتر دچار آفت‌های آن شویم. بعلاوه باید روند تغییرات را دائماً رصد کنیم.

هادی صمدی

ارسال نظرات
نام:
ایمیل:
نظر: