به گزارش تحریریه، هراس از هوش مصنوعی (AI) از آغاز عصر رایانه، بر انسان سایه افکنده است. تاکنون این هراس بیشتر بر ماشینهایی تمرکز داشت که می توانستند با بکارگیری ابزارهای فیزیکی، افراد را بکشند، بر آنها سلطه یابند یا جایگزین (شغلی و...) آنها باشند. اما در این چند سال، ابزارهای جدید هوش مصنوعی یا همان AI ظهور کرده اند که به شکلی غیرمنتظره، سرچشمه تهدید برای بقای تمدن بشری هستند. هسته این تهدید اینجاست که هوش مصنوعی، تواناییهای قابل توجهی برای تولید زبان بشری و دستکاری آن با بکارگیری واژه ها، آواها و تصاویر دارد. این است که می توان گفت هوش مصنوعی، سیستم عامل یا سامانه مدیریتی جامعه و تمدن بشری را هک کرده است.
زبان، همان ماده اصلی است که تقریباً تمام فرهنگ بشری از آن ساخته شده و می شود. برای مثال، ارزش های حقوق بشری در DNA ما نوشته نشده بلکه آفریده های فرهنگیای هستند که با بیان روایت ها و نوشتن قوانین (و پسند و پذیرش آن) توسط خود بشر شکل گرفته اند. همینطور، خدایان و الهه ها واقعیتهای فیزیکی نیستند بلکه پدیده هایی فرهنگی هستند که با اختراع اسطورهها و نوشتن متونی که بشر از آنها تلقی مقدسی داشته، ساخته شدهاند. همچنین پول نیز یک پدیده فرهنگی است. اسکناسها فقط قطعات رنگی کاغذ هستند و اکنون هم بیش از 90٪ پول رایج در جهان، حتی از کاغذ هم نیست بلکه صرفا اطلاعاتی دیجیتالی است که در رایانهها ذخیره می شود. چیزی که به پول ارزش میدهد، در واقع، روایت ها و داستانهایی است که بانکداران، وزرای امور مالی و کارشناسان ارز دیجیتال برای ما می گویند (و به هر میزان که ما آن روایت ها را باور و به آن اعتماد کنیم، ارزها هم اعتبار می یابند). سام بانکمن-فرید، الیزابت هولمز و برنی مداف همگی توانایی خوبی در ساخت و پرداخت روایت ها و داستان هایی درباره پول و ارزهای دیجیتال دارند اما هیچ کدام از آنچنان توانایی ای در خلق ارزش های عینی و واقعی برخوردار نیستند.
چه پیش خواهد آمد اگر هوش مصنوعی غیربشری بتواند بهتر از میانگین انسان ها به روایت سازی، داستان سرایی، شاعری، ساخت ملودی، نقاشی و نوشتن قوانین و کتب مقدس بپردازد؟ این روزها وقتی مردم درباره چتجیپیتی و سایر ابزارهای تازه هوش مصنوعی فکر و گفت وگو میکنند، بیشتر به مواردی می اندیشند مثل استفاده دانش آموزان از هوش مصنوعی برای نوشتن مقالات و تکالیف درسی شان. اما این نگرانی ها موجب می شود که تصویر بزرگتر را نبینیم. فکر کنید که در انتخابات آینده ریاست جمهوری آمریکا در سال ۲۰۲۴، ابزارهای هوش مصنوعی به تولید محتواهای سیاسی، خلق روایت ها و داستانها و متون مقدس جعلی قادر باشند. در چند سال اخیر، فرقه کیوآنون QAnon، زیر پرچم پیامهای ناشناس آنلاین معروف به "قطرات کیو Q drops " گرد آمده اند. پیروان این فرقه، از چنین پیامهایی تلقی متون مقدس داشته، آنها را گردآوری، تفسیر و با تکرارشان اصطلاحا عبادت میکنند. این در حالی که همه پیامهای "قطرات کیو" توسط انسانها نوشته شده و رباتها هم به انتشار آنها کمک میکنند. چه بسا که در آینده شاهد باشیم که فرقههایی در تاریخ بوجود می آیند که متون مقدسشان توسط هوش مصنوعی غیربشری نوشته شده باشد. همه ادیان در گذر تاریخ، این دعوی را داشته اند که کتاب های مقدسشان، منشایی غیربشری دارد. شاید به زودی شاهد باشیم که متونی که توسط هوش مصنوعی (یک منشاء غیربشری!) تولید می شود، مقدس تلقی شوند.
در یک سطح عامیانه تر، ممکن است به زودی در گفت وگوها یا چت های آنلاین، درباره مسائلی همچون سقط جنین، دگرش های آب و هوا یا حمله روسیه به اوکراین با طرف هایی شرکت کنیم که فکر میکنیم، افراد بشر هستند، حال آنکه در واقع ابزارهای گفت وگوی هوش مصنوعی باشند. نکته اینجاست که صرف وقت برای تاثیر گذاری و تغییر نظر یک ربات هوش مصنوعی، کاری بیهوده است، حال آنکه این ربات ممکن است پیامهای خود را به گونهای بهینه و دقیق ساخته و پرداخته کند که شانس خوبی برای تأثیرگذاری و نفوذ بر ما را داشته باشد.
هوش مصنوعی با تسلط بر زبان، حتی میتواند پیوندهایی عاطفی و روابطی صمیمی با افراد شکل دهد و از قدرت عاطفه و صمیمیت برای تغییر دیدگاهها، جهان بینی و ارزیابی های ما استفاده کند. اگرچه هنوز، هیچ نشانهای از وجود عاطفه یا احساسات و هیجانات خاص در هوش مصنوعی وجود ندارد اما کافی است که هوش مصنوعی موجب شود که افراد نسبت به آن، نوعی احساس علاقه و بستگی عاطفی پیدا کنند. در ژوئن 2022، بِلیِک لومُین Blake Lemoine، یک مهندس گوگل، ادعا کرد که چتبات هوش مصنوعی LaMDA، که روی آن کار میکرد، دستخوش احساس و هیجان شده است. این ادعای جنجالی او، به بهای از دست رفتن شغلش تمام شد. نکته جالب در اینجا، درستی یا نادرستی ادعای آقای لومُین نبود- که احتمالاً هم نادرست بود- بلکه این بود که او حاضر شد شغل پر درآمد خود را برای دفاع از چندوچون تعامل با یک چتبات هوش مصنوعی قربانی کند. اگر هوش مصنوعی قادر باشد، افراد را تحت تأثیر خود قرار دهد آنهم تا حدی که برایش به ریسک تن دهند، باید پرسید که احتمالا میتواند آنها را به انجام چه کارهای دیگری تشویق کند؟
در یک نبرد و رقابت سیاسی برای ربودن ذهن و دل افراد، "صمیمیت" بهترین سلاح است و ظاهرا هوش مصنوعی اکنون توانایی تولید روابطی صمیمی با میلیون ها نفر را پیدا کرده است. همه میدانیم که در دهه گذشته رسانه های اجتماعی به یک میدان نبرد برای جلب توجه انسانها تبدیل شده اند. اکنون با نسل جدید هوش مصنوعی، میدان نبرد از "جلب توجه" به "خلق صمیمیت" منتقل می شود. فکر کنید چه بر سر جامعه انسانی و روانشناسی آدم ها خواهد آمد اگر هوش مصنوعی در نبرد و هماوردی برای خلق پیوندهای عاطفی و صمیمی با ما، قادر باشد که پیوندهایی مصنوعی شکل دهد که بر ما تاثیر داشته و مثلا ما را متقاعد کند که به یک سیاستمدار خاص رأی دهیم یا یک کالای خاص را بخریم؟
حتی بدون ایجاد "صمیمیت مصنوعی"، ابزارهای هوش مصنوعی جدید، تأثیر زیادی بر نظرات و دیدگاههای ما خواهند داشت. مردم ممکن است برای پاسخگویی به تمام سوالات خود از یک مشاور هوش مصنوعی به عنوان یک منبع مطمئن استفاده کنند. به همین دلیل، حتی شرکت گوگل نیز به هراس افتاده است: چرا باید جست وجو کنم، وقتی میتوانم فقط از اوراکل the oracle بپرسم؟ صنعت رسانه و تبلیغات تجاری نیز باید ترسیده باشد. چرا باید روزنامه بخوانم، وقتی میتوانم از اوراکل بخواهم که آخرین خبرها را برایم بازگو کند؟ همچنین، فلسفه ای برای تبلیغات باقی نمی ماند، وقتی میتوانم فقط از اوراکل بپرسم که بگوید چه چیزی را بخرم؟
نکته اینجاست که حتی این سناریوها هم نمیتوانند تصویر بزرگ و کامل واقعیت را نشان دهند. آنچه را درباره آن بحث می کنیم، احتمالا پایان سرشت بشری تاریخ است. البته نه پایان تاریخ، بلکه پایان آن بخشی از تاریخ که تحت غلبه انسانها رقم خورده است. تاریخ عبارت است از تعامل میان بیولوژی و فرهنگ؛ میان نیازها و خواستههای بیولوژیکی ما برای چیزهایی مانند غذا و نیازهای جنسی با پدیده های فرهنگی همچون دین و قوانین. تاریخ فرآیندی است که در گذر آن، قوانین و ادیان، نیاز به غذا و جنسیت را سروشکل میدهند. زمانی که هوش مصنوعی کنترل فرهنگ را به دست گیرد و روایت ها، داستانها، ملودی ها، قوانین و دینهای تازه را خلق کند، چه اتفاقی برای "روند تاریخ" خواهد افتاد؟ ابزارهای گذشته مانند صنعت چاپ و رادیو به گسترش ایدههای فرهنگی انسانها کمک می کردند اما هیچ گاه خود این ابزارها، ایدههای فرهنگی تازه را خلق نمی کردند. حال آنکه کارکرد هوش مصنوعی در این زمینه، از بنیان تفاوت می کند. هوش مصنوعی میتواند ایدههای کاملاً تازه و فرهنگ کاملاً نوینی پدید آورد.
احتمالا در مراحل ابتدایی، هوش مصنوعی از همان پیش نمونههای انسانیhuman prototypes که در دوران نوزادی اش به او یاد داده شده، تقلید خواهد کرد. اما با گذر زمان، فرهنگ هوش مصنوعی با رشد خیره کننده اش به جایی خواهد رسید که پیش از آن، ظرفیت ذهنی هیچ انسانی به نزدیکی آن هم نرسیده است. برای هزاران سال، انسانها در دل رؤیاهای دیگر انسانها زندگی کرده اند. در دهههای آینده، ممکن است به شرایطی برسیم که در دل رؤیاهای یک پدیده هوشمند غیربشری و اصطلاحا بیگانه زندگی کنیم.
تنها چند دهه است که ترس از هوش مصنوعی ذهن انسانها را درگیر کرده است. اما برای هزاران سال، انسانها گرفتار ترس های عمیقتری بودند که از جهان اوهام خودشان سرچشمه می گرفت. بشر همواره محو داستانها و ایماژهایی بوده که ذهن او را دستکاری کرده و برایش وهم آفرین بوده اند. در نتیجه، از دوران باستان، انسان گرفتار دنیای اوهام، در هراس زیسته است. در قرن هفدهم، رنه دکارت از این ترس رنج میبرد که نکند یک دیو شوم، او را در دنیای اوهام گرفتار کرده باشد و هر چه را میبیند و میشنود، آن هیولای شیطانی بر او نمایان کرده باشد. در یونان باستان، افلاطون تمثیل مشهور غار Allegory of the Cave را روایت میکند که در آن گروهی از مردم، تمام دوران زندگی خود را زنجیرشده در داخل یک غار و رو به یک دیوار سفید سپری میکنند که همچون یک صفحه نمایش بر روی آن سایههای مختلفی را که بازتاب می یابد، تماشا می کنند. این زندانیان به اشتباه، اوهامی را که بر این صفحه میبینند، واقعیت می انگارند.
در هند باستان، حکما یا اصطلاحا ساجههای هندو و بودایی بر این باور بودند که همه انسانها در دام "مایا" یا جهان اوهام گرفتارند. آنچه را که ما به طور معمول، واقعیت میپنداریم، در بسیاری مواقع، فقط افسانه هایی هستند که در ذهن خودمان پروردهایم. چه بسیار پیش آمده (و می آید) که افرادی به خاطر باور به این یا آن روایت خیالی، تصویر یا توهم ذهنی، آتش جنگ هایی را شعله ور کرده، افراد دیگری را کشته و حتی آماده کشته شدن باشند. انقلاب هوش مصنوعی، ما را چشم در چشم هیولا یا شیطان شوم دکارت، غار افلاطون و دام مایا قرار می دهد و اگر مراقب نباشیم، ممکن است در پس چنان پردهای از اوهام تازه گرفتار شویم که قادر به پاره کردن آن نیستیم و بدتر چه بسا که حتی متوجه، اصل وجود آن هم نشویم.
بی گمان، می توان توانایی های تازه هوش مصنوعی را برای مقاصد خوب نیز به کار گرفت اما در اینجا به این موضوع نمی پردازیم چرا که افرادی که در حوزه هوش مصنوعی کار میکنند، درباره آن بسیار صحبت کردهاند. کار تاریخنگاران و فیلسوفانی مانند من، نشان دادن خطرات است. با این حال، مطمئناً هوش مصنوعی میتواند به ما در بسیاری از زمینه ها کمک کند، از پیدا کردن روش های تازه برای درمان سرطان تا یافتن راه حلهایی برای بحران زیست محیطی کنونی. پرسشی که با آن روبرو هستیم این است که چگونه مطمئن شویم ابزارهای جدید هوش مصنوعی برای مقاصد خوب و نه برای مقاصد بد به کار گرفته میشوند. برای این منظور، ابتدا باید قدرت و توانایی واقعی این ابزارها را درک کنیم. از سال 1945، ما میدانیم که فناوری هستهای میتواند انرژی ارزانی برای رفاه انسانها تولید کند اما ممکن است باعث نابودی فیزیکی تمدن بشری هم شود. به همین دلیل، تدابیر بینالمللی کلی ای را ترسیم و تدوین کردهایم تا از موجودیت بشر حفاظت کنیم و مطمئن شویم که فناوری هستهای اساساً برای مقاصد خوب استفاده میشود. اکنون با یک سلاح به اصطلاح کشتار جمعی یا ویرانی انبوه تازه سروکار داریم که میتواند جهان ذهنی و اجتماعی ما را نابود کند.
هنوز میتوانیم ابزارهای هوش مصنوعی جدید را تحت نظارت قرار دهیم اما باید به سرعت عمل کنیم. در حالی که فن آوری هستهای نمیتواند بمب های هستهای نیرومندتری اختراع کند، هوش مصنوعی میتواند با رشد مضاعف خود، هوش مصنوعی قدرتمندتری را پدید آورد. اولین گام حیاتی این است که خواهان کنترل های ایمنی دقیق و محکم، پیش از عرضه عمومی ابزارهای هوش مصنوعی بشویم. همانطور که شرکتهای دارویی نمیتوانند داروهای جدید را پیش از بررسی اثرات جانبی کوتاهمدت و بلندمدت آنها عرضه کنند، شرکتهای فناوری هم نباید ابزارهای هوش مصنوعی تازه را پیش از ایمن سازی، عرضه کنند. ما به نهادی معادل سازمان غذا و دارو برای این فناوری تازه نیاز داریم و باید هم در این زمینه به سرعت اقدام کنیم. آیا کندکردن فرایند عرضه عمومی هوش مصنوعی باعث میشود که دموکراسیها در مقابل رژیمهای خودکامه بیشتر عقب بمانند؟ برعکس، این عرضه بدون ضابطه ابزارهای هوش مصنوعی است که به هرج و مرج اجتماعی می انجامد و به رژیمهای استبدادی کمک میکند تا به تخریب سازوکارهای مردمسالار بپردازند. دموکراسی در سرشت خود، یک گفت وگوست و گفت وگوها هم به زبان وابستهاند. وقتی هوش مصنوعی زبان را هک میکند، میتواند توانایی برقراری گفت وگوهای مفید و موثر را از ما بگیرد و دمکراسی را نابود کند.
ما تازه با یک "هوش بیگانه" در سیاره زمین روبه رو شدهایم. درباره آن چیز زیادی نمیدانیم جز اینکه ممکن است تمدن ما را نابود کند. پس باید عرضه غیرمسوولانه ابزارهای هوش مصنوعی در فضای عمومی را متوقف کنیم و هوش مصنوعی را تحت کنترل درآوریم و آن را مدیریت کنیم پیش از آنکه ما را تحت کنترل خود در آورده و مدیریت کند. اولین قانونی و مقرراتی که پیشنهاد میدهم این است که الزامی باشد که هوش مصنوعی بگوید که یک هوش مصنوعی است. اگر در حال گفتگو با کسی هستم و نمیتوانم تشخیص دهم که آیا او یک انسان است یا یک هوش مصنوعی، آنجاست که نقطه پایان دموکراسی فرا رسیده است.
این متن توسط یک انسان تولید شده است.
شاید هم نه؟
نویسنده: یووال نوح هراری Yuval Noah Harari، استاد تاریخ، فیلسوف و نویسنده دو کتاب مشهور "انسان خردمند Sapiens" و "انسان خداگونه Homo Deus" و نیز سری کتاب های کودکان با عنوان "ما (افراد بشرِ) مهارنشدنی"
منبع: اکونومیست/دیپلماسی ایرانی
پایان/
نظر شما