آژانس بین المللی هوش مصنوعی | نظر کارشناسان این عرصه در مورد لزوم وجود این ارگان
به عقیده گری مارکوس (Gary Marcus) و آنکا روئل (Anka Reuel) در رابطه با لزوم در اولویت قرار گرفتن حاکمیت جهانی به منظور رسیدگی به خطرات مربوط به جهتگیریهای جهان، اطلاعات نادرست و مسائل وخیمتر از این، جهان به یک آژانس بین المللی هوش مصنوعی نیاز دارد. با توجه به نوظهور بودن این عرصه، هیچ قانون واحدی برای اداره و مدیریت کردن حوزه هوش مصنوعی در جهان وجود ندارد. در این مقاله با توان تحلیل همراه باشید تا دیدگاه این دو متخصص در مورد لزوم اداره متحد و جهانی حیطه AI توسط دولتها، کمپانیهای بزرگ تکنولوژی محور و مردم را مورد بررسی قرار دهیم.
آژانس بین المللی هوش مصنوعی | مشکلات موجود در عرصه AI و لزوم وجود این ارگان
ابزارهای جدید هوش مصنوعی از قبیل ChatGPT که توسط کمپانی OpenAI منتشر شده و در جایگاه یکی از برنامههایی قرار دارد که با سرعت بسیار بالایی در حال رشد هستند، جهان را تحت تاثیر قابل ملاحظهای قرار دادهاند. چنین ابزارهایی در زمینههای متنوعی از حیطه آموزش تا زمینههای دارویی کاربرد داشته و بهرهگیری از این ابزار به صورت شگفتانگیزی سرگرمکننده خواهد بود. با وجود اینکه در حال حاضر سیستمهای مبتنی بر هوش مصنوعی از ویژگیهای منحصر به فردی برخوردار هستند اما ریسکهایی را نیز به دنبال دارند. یوروپال (Europal) هشدار داده است که ممکن است چنین ابزاری جرایم سایبری را تا محدوده بالایی افزایش دهند. بسیاری از متخصصان حوزه هوش مصنوعی (AI) نگران این هستند که پتانسیلهایشان در این عرصه با ایجاد فضایی غیرقابل اعتماد به ایجاد موج عظیمی از اطلاعات نادرست، تهدیدی برای انتخابات ریاست جمهوری آمریکا در سال ۲۰۲۴ و در نهایت برای خود حوزه دموکراسی منجر شود. دانشمندان نیز هشدار دادهاند که این ابزار جدید میتوانند در راستای طراحی سموم نوین و مرگباری مورد استفاده قرار بگیرند. به عقیده سایرین، ممکن است در بلند مدت خطر حقیقی و بزرگی در کمین کل بشریت باشد.
یکی از مشکلات کلیدی مربوط به سیستمهای مبتنی بر هوش مصنوعی فعلی این است که آنها به صورت عمده در دسته جعبههای سیاه محسوب میشوند و هیچگونه اطلاعاتی در مورد شیوه عملکرد و کارکرد آنها در دسترس عموم قرار نمیگیرد. بنابراین، اغلب این ابزار غیرقابل اعتماد بوده و تفسیر آنها کار دشواری خواهد بود و در معرض خطر خارج شدن از محدوده کنترل بشریت قرار دارند. به عنوان مثال، تکنولوژی زیرساخت سیستمهایی مثل ChatGPT، یا همان مدلهای زبانی گسترده (LLMS)، تحت عنوان مدلهای «متوهم» شناخته شده و گاهی اوقات عبارات نادرستی را به عنوان خروجی تولید میکنند. باز هم به عنوان مثال به ChatGPT میتوان اشاره کرد که به نادرستی یکی از پروفسورهای حوزه حقوق را به دست داشتن در آزار و اذیت جنسی متهم کرد. به نظر میرسید که این نتیجه به واسطه تجزیه و تحلیل نادرست آماری و ارتباطات نادرست میان بیتهای متونی که به یکدیگر ارتباطی نداشتند حاصل شده بود. پس از اینکه بر اساس یکی از مقالههای منتشر شده در این عرصه مشخص شد که چه اشتباهی در این استنتاج رخ داده است، Bing Chat نیز مرتکب خطای مشابهی شد و این خطا را به اطلاعات مورد استفاده در USA Today میتوان نسبت داد که بر اساس آن، چتبات مورد نظر تمامی اطلاعات را به صورت کامل و از آخر به اول مورد استفاده قرار داده بود.
شایان ذکر است که از این سیستمها همچنین میتوان برای سوءاستفاده عمدی، از ایجاد اختلال در انتخابات (با دستکاری آنچه نامزدهای انتخاباتی در سخنرانیها و کمپینهای خود میگویند و مینویسند) تا انتشار اطلاعات نادرست پزشکی استفاده کرد. در تجزیه و تحلیل اخیر صورت گرفته در مورد GPT4، که پیشرفتهترین LLM OpenAI محسوب میشود، این شرکت ۱۲ مورد از نگرانیهای جدی خود را بدون ارائه راهکارهای قطعی برای مرتفع کردن هریک از این مشکلات مطرح کرده است.
قوانین مربوط به حوزه هوش مصنوعی
تنها در طول سال گذشته، ۳۷ بند مقرراتی در سراسر جهان در حیطه هوش مصنوعی به تصویب رسید. ایتالیا تا جایی پیش رفت که حتی استفاده از ChatGPT را ممنوع اعلام کرد. با این حال، هماهنگی بسیار اندکی در این حیطه میان کشورهای سراسر جهان وجود دارد. حتی در برخی از کشورها اختلافاتی نیز در این حیطه وجود دارد، به عنوان مثال به قوانین ایالتی مختلفی در این حیطه در آمریکا و پروپوزال انگلیس برای اجتناب از یک تنظیمکننده مرکزی و ایجاد شکاف در حیطه نظارتی میان چندین سازمان میتوان اشاره کرد. این ناهماهنگی و گسستگی امنیتی به نفع هیچ کسی نیست. شرکتها و کمپانیهای مختلف نیز نباید مدلهای مبتنی بر هوش مصنوعی مختلفی برای هر یک از حوزههای قضایی ایجاد کنند و به صورت جداگانه به مشکلات قانونی، فرهنگی و اجتماعی این حیطه بپردازند.
با این حال، هنوز هم توافقنامه نانوشته مشترکی در مورد اصول اولیه مسئولیتپذیری، از قبیل حوزه امنیت و قابلیت اطمینان، شفافیت، توضیح و تفسیرپذیری، حریم خصوصی و رعایت انصاف در این حیطه میان سازمانها و ارگانهای مختلف کشورهای سراسر جهان وجود دارد. به صورت تقریبی تمامی مشارکتکنندگان حوزه قانونگذاری موافق هستند که باید اقداماتی در این عرصه صورت بگیرد. بر اساس نظرسنجی اخیر که نتایج آن به تازگی توسط مرکز حاکمیت هوش مصنوعی منتشر شده است، ۹۱ درصد از مشارکتکنندگان ۱۳٫۰۰۰ نفری در این نظرسنجی در ۱۱ کشور مختلف موافق هستند که AI باید با دقت بالایی مدیریت شود.
لزوم وجود آژانس بین المللی هوش مصنوعی
تمام ماجراهایی که تا به اینجا مطرح شدند، دلیل اصلی این هستند که ما خواهان و نیازمند یک آژانس بین المللی هوش مصنوعی در سطح جهان هستیم. این آژانس باید سیاستهای بیطرفانه و غیرانتفاعی در حوزه هوش مصنوعی (IAAI) در پیش گرفته و اصول و مالکیت آن به دولت، کمپانیهای بزرگ مبتنی بر تکنولوژی، ارگانهای غیرانتفاعی، دانشگاهها و جامعه تعلق داشته باشد. هدف از تشکیل آژانس بین المللی هوش مصنوعی دست یافتن به راهکارهای فنی تعاملی حوزه حاکمیت و به منظور بهبود ایمنی و بهرهبرداری از تکنولوژيهای عرصه هوش مصنوعی خواهد بود.
همانطور که ساندار پیچای (Sundar Pichai)، مدیرعامل گوگل، در ۱۶ آپریل ۲۰۲۳ اعلام کرد، زمان تشکیل چنین آژانسی فرا رسیده است. اما چشمانداز دستاوردهای این آژانس به چه صورت خواهد بود؟ هر یک از زمینهها و هر یک از صنایع با از راه رسیدن این ارگان عملکرد متفاوتی خواهند داشت، بدین صورت که بسیاری از آنها مشمول حاکمیت جهانی شده و تحت پوشش نوآوریهای تکنولوژی محور قرار میگیرند. به عنوان مثال، مدتهاست که مردم در مورد خودداری از تصمیمگیریهای استخدام نیرو بر اساس جنسیت توافق کردهاند، حتی اقداماتی را در همین راستا و طی مقدمات قابل تفسیر پیشین صورت دادهاند. به عنوان مثال به ملزومات تفسیرپذیری منشور حقوق هوش مصنوعی که توسط دولت بایدن ارائه شد میتوان اشاره کرد. این در حالیست که در سیستمهای جعبه سیاهی مانند ChatGPT انواع مختلفی از کاربردهایی که راه حل فعلی برای آنها وجود ندارد به چشم میخورد. برای مثال، ممکن است افراد مختلفی کل پرونده شغلی یک نفر را وارد برنامه کرده و از ChatGPT بخواهند تا این اطلاعات را مورد بررسی و قضاوت قرار دهد، اما در حال حاضر هیچ راهکاری برای اطمینان حاصل کردن از اینکه ChatGPT پاسخ بیطرفانهای ارائه کند وجود ندارد. آژانس بین المللی هوش مصنوعی به صورت دقیق به این موضوع میپردازد و در مورد چنین کاربردهای «خارج از محدودهای» از چتباتها و سایر سوالات مربوط به خط مشی راه حلهای خود را ارائه میکند. از طرف دیگر، این آژانس ابزارهای فنی مورد نیاز برای حسابرسی موثر این حوزه را نیز ارائه میکند.
حوزه IAAI نیز میتواند کارشناسان را گرد هم آورده و ابزارهایی برای مقابله با انتشار اطلاعات نادرست را ارائه کند. از نقطه نظر سیاسی، این ارگان اجازه بازخواست این را دارد که به عنوان مثال بپرسد که انتشار گسترده اطلاعات نادرست چگونه مورد مجازات قرار خواهد گرفت. از نقطه نظر فنی، تمرکز اصلی باید به توسعه خودکار یا نیمه خودکار ابزارهایی برای پاسخدهی به سوالات بنیادین یا فاندامنتال معطوف شود. به عنوان مثال به این سوال میتوان اشاره کرد «چه میزان اطلاعات نادرست وجود دارد؟» یا «حجم این اطلاعات نادرست با چه سرعتی در حال افزایش یافتن است؟» و «حوزه هوش مصنوعی تا چه اندازه در حال پرداختن به این مشکلات است؟» جالب اینجاست که تکنولوژیهای موجود در تولید اطلاعات نادرست بهتر از شناسایی این اطلاعات کاربرد دارند. نوآوریهای فنی قابل توجه در این حیطه بسیار مورد نیاز بوده و مزایای عمومی زیادی را به همراه دارند، اما ممکن است به اندازه کافی دارای منافع تجاری مستقیم باشند و یا نباشند. از همین رو، به حمایت مستقیم از جانب نهادهایی مانند IAAI وجود دارد.
برای مثال سوم و رویداد اخیری در این حیطه، سیستمهایی مثل Autogpt و Babyagi به آماتورها اجازه میدهند تا مجموعههای پیچیدهای که دیباگ کردن یا مشکلزدایی آنها کار دشواری است را در قالب سیستمهای غیرقابل اعتماد مبتنی بر هوش مصنوعی بسازند و به واسطه آنها سایر سیستمهای مبتنی بر AI غیرقابل اعتماد را به منظور دستهبندی و دسترسی داشتن به اهداف دلخواه مورد استفاده قرار دهند. این اقدامیست که ایمن و یا ناامن بودن آن به هیچ عنوان قابل پیشبینی نیست. همانطور که مارک روزا (Marek Rosa)، مدیرعامل Good.AI، نیز به آن اشاره کرده است، ما به ایدههای فنی در رابطه با «شیوه افزایش امنیت (تدافع پیشگیرانه) در دنیایی که میلیاردها نمونه از عوامل AI در آن وجود داشته و در برنامهها و سرورهای مختلف در حال اجرا هستند نیاز داریم. این در حالیست که ما به هیچ عنوان از کاری که این عوامل انجام میدهند اطلاعی نداریم. شاید بتوان اینطور تصور کرد که برای مدیریت این عوامل به نوعی «آنتی ویروس (نرم افزار) علیه این عوامل هوش مصنوعی احتیاج داشته باشیم.» همکاری و اتحاد با متخصصان و محققان برجسته میتواند راهنمای سریع و متناسبی برای دست یافتن به چنین پیشرفتهای نوینی محسوب شود.
طراحی نوعی همکاری جهانی در قالب آژانس بین المللی هوش مصنوعی اقدام بسیار بزرگی محسوب میشود. بسیاری از سهامداران باید در این حیطه مشارکت داشته باشند. هر دو بخش خطرات کوتاه مدت و بلند مدت نیز در این زمینه باید در نظر گرفته شود. هیچ راهکاری در این مسیر موفقیت به همراه نخواهد داشت مگر اینکه دولت و کمپانیهای بزرگ در هیئت مدیره این حوزه حضور داشته باشند و این امر به آنها ختم نمیشود: مردم جهان نیز باید هر کدام به صورت مجزا در این حیطه فعالیت داشته باشند.
خوشبختانه سوابق اینگونه از همکاری در سطح بینالمللی در جهان وجود دارد. به عنوان مثال، در پایان جنگ جهانی دوم، تسلیحات هستهای موجب پدید آمدن ترس و تردید عمیقی در مورد چگونگی استفاده از این تکنولوژی جدید مطرح شد. در پاسخ به این موضوع، ۸۱ کشور با اتفاق آرا اساسنامه آژانس بینالمللی انرژی اتمی برای «ترویج تکنولوژیهای هستهای ایمن، حفاظتشده و صلحآمیز» با حقوق بازرسی را تصویب کردند. نمونه نرمتری از این همکاری را در سازمان بینالمللی هوانوردی غیرنظامی میتوان مشاهده کرد که کشورهای عضو آن قوانین خود را وضع میکنند اما از یک آژانس بینالمللی مشاوره میگیرند. دست یافتن به یک مدل صحیح و انتخاب درست نیازمند زمان، خرد و همکاری جمعی خواهد بود.
چالشهای موجود در عرصه AI
چالشها و ریسکهای مربوط به هوش مصنوعی بدون شک تفاوت زیادی با مثالهای بالا دارند و به صورت نگرانکنندهای هنوز ناشناخته هستند. ما هماکنون میدانیم که امکان طراحی بهینهتر اینترنت و دوراندیشانهتر اینترنت در گذشته وجود داشته است. به عنوان مثال، تصمیمات پیشین در مورد نحوه مدیریت حریم خصوصی و ناشناس بودن ممکن بود به کاهش توسعه و گسترش فرهنگ ترولینگ (تمسخر) در سطح گسترده منجر شود. همچنین میدانیم که انتخاب قبلی ما در این حیطه به نتایج غیرقابل تغییری منتهی شدهاند. ممکن است تصمیمات قبلی ما به عواقب ماندگاری منجر شده باشند و لازم است تا تصمیمات پیش رو با تدابیر بیشتری اتخاذ شوند.
با توجه به سرعت پیشرفت همه زمینههای مختلف در دنیای امروز، زمان کافی در اختیار بشر وجود ندارد تا تصمیمات پیش روی خود را عاقلانهتر اتخاذ کند. بنابراین، یک سازمان جهانی غیرانتفاعی که توسط دولتها، کسب و کارهای بزرگ و جامعه پشتیبانی میشود، شروع مهم تلقی خواهد شد. این در واقع آغاز شکلگیری یک آژانس بین المللی هوش مصنوعی در جهان خواهد بود.
سخن پایانی
با توجه به اینکه در عصر رشد و نمو چتباتهایی از قبیل ChatGPT به سر میبریم و اطلاعات عمومی در مورد شیوه عملکرد و کارکرد این چتباتها در دسترس عموم قرار ندارد، لازم است تا بررسیهای گستردهای در مورد پاسخهای خروجی و صحت این دادهها صورت بگیرد. تا به امروز شاهد ارائه پاسخها و اطلاعات نادرستی توسط این برنامههای مبتنی بر هوش مصنوعی در عرصههای مختلف بودهایم و هیچ یک از کشورهای جهان نیز قوانین یگانهای برای شیوه بهرهوری از این تکنولوژی در سطح جهانی ارائه نکردهاند. تفاوت نظر زیادی میان ایالتها و بخشهای مختلف یک کشور نیز در این حیطه وجود دارد. از همین رو، همانند دوره پس از جنگ جهانی دوم، باید با کمک رویکرد نوینی مثل آژانس بین المللی هوش مصنوعی که توسط دولتها، کمپانیهای بزرگ جهان و مردم ادامه میشود به این مشکلات رسیدگی شود. نظر شما در مورد آینده هوش مصنوعی و گسترش آن چیست؟ آیا این تکنولوژی آینده روشنی را برای بشریت به همراه دارد؟