مقالات

آژانس بین المللی هوش مصنوعی | نظر کارشناسان این عرصه در مورد لزوم وجود این ارگان

به عقیده گری مارکوس (Gary Marcus‌) و آنکا روئل (Anka Reuel‌) در رابطه با لزوم در اولویت قرار گرفتن حاکمیت جهانی به منظور رسیدگی به خطرات مربوط به جهت‌گیری‌های جهان‌، اطلاعات نادرست و مسائل وخیم‌تر از این‌، جهان به یک آژانس بین المللی هوش مصنوعی نیاز دارد. با توجه به نوظهور بودن این عرصه‌، هیچ قانون واحدی برای اداره و مدیریت کردن حوزه هوش مصنوعی در جهان وجود ندارد. در این مقاله با توان تحلیل همراه باشید تا دیدگاه این دو متخصص در مورد لزوم اداره متحد و جهانی حیطه AI توسط دولت‌ها‌، کمپانی‌های بزرگ تکنولوژی محور و مردم را مورد بررسی قرار دهیم.

آژانس بین المللی هوش مصنوعی | مشکلات موجود در عرصه AI و لزوم وجود این ارگان

آژانس بین المللی هوش مصنوعی
منبع: Economist

ابزار‌های جدید هوش مصنوعی از قبیل ChatGPT که توسط کمپانی OpenAI منتشر شده و در جایگاه یکی از برنامه‌هایی قرار دارد که با سرعت بسیار بالایی در حال رشد هستند‌، جهان را تحت تاثیر قابل ملاحظه‌ای قرار داده‌اند. چنین ابزار‌هایی در زمینه‌های متنوعی از حیطه آموزش تا زمینه‌های دارویی کاربرد داشته و بهره‌گیری از این ابزار به صورت شگفت‌انگیزی سرگرم‌کننده خواهد بود. با وجود این‌که در حال حاضر سیستم‌های مبتنی بر هوش مصنوعی از ویژگی‌های منحصر به فردی برخوردار هستند اما ریسک‌هایی را نیز به دنبال دارند. یوروپال (Europal‌) هشدار داده است که ممکن است چنین ابزاری جرایم سایبری را تا محدوده بالایی افزایش دهند. بسیاری از متخصصان حوزه هوش مصنوعی (AI‌) نگران این هستند که پتانسیل‌هایشان در این عرصه با ایجاد فضایی غیرقابل اعتماد به ایجاد موج عظیمی از اطلاعات نادرست‌، تهدیدی برای انتخابات ریاست جمهوری آمریکا در سال ۲۰۲۴ و در نهایت برای خود حوزه دموکراسی منجر شود. دانشمندان نیز هشدار داده‌اند که این ابزار جدید می‌توانند در راستای طراحی سموم نوین و مرگباری مورد استفاده قرار بگیرند. به عقیده سایرین‌، ممکن است در بلند مدت خطر حقیقی و بزرگی در کمین کل بشریت باشد.

یکی از مشکلات کلیدی مربوط به سیستم‌های مبتنی بر هوش مصنوعی فعلی این است که آنها به صورت عمده در دسته جعبه‌های سیاه محسوب می‌شوند و هیچ‌گونه اطلاعاتی در مورد شیوه عملکرد و کارکرد آنها در دسترس عموم قرار نمی‌گیرد. بنابراین‌، اغلب این ابزار غیرقابل اعتماد بوده و تفسیر آنها کار دشواری خواهد بود و در معرض خطر خارج شدن از محدوده کنترل بشریت قرار دارند. به عنوان مثال‌، تکنولوژی زیرساخت سیستم‌هایی مثل ChatGPT‌، یا همان مدل‌های زبانی گسترده (LLMS‌)‌، تحت عنوان مدل‌های «متوهم» شناخته شده و گاهی اوقات عبارات نادرستی را به عنوان خروجی تولید می‌کنند. باز هم به عنوان مثال به ChatGPT می‌توان اشاره کرد که به نادرستی یکی از پروفسور‌های حوزه حقوق را به دست داشتن در آزار و اذیت جنسی متهم کرد. به نظر می‌رسید که این نتیجه به واسطه تجزیه و تحلیل نادرست آماری و ارتباطات نادرست میان بیت‌های متونی که به یکدیگر ارتباطی نداشتند حاصل شده بود. پس از این‌که بر اساس یکی از مقاله‌های منتشر شده در این عرصه مشخص شد که چه اشتباهی در این استنتاج رخ داده است‌، Bing Chat نیز مرتکب خطای مشابهی شد و این خطا را به اطلاعات مورد استفاده در USA Today می‌توان نسبت داد که بر اساس آن‌، چت‌بات مورد نظر تمامی اطلاعات را به صورت کامل و از آخر به اول مورد استفاده قرار داده بود.

شایان ذکر است که از این سیستم‌ها همچنین می‌توان برای سوءاستفاده عمدی‌، از ایجاد اختلال در انتخابات (با دستکاری آنچه نامزد‌های انتخاباتی در سخنرانی‌ها و کمپین‌های خود می‌گویند و می‌نویسند‌) تا انتشار اطلاعات نادرست پزشکی استفاده کرد. در تجزیه و تحلیل اخیر صورت گرفته در مورد GPT4‌، که پیشرفته‌ترین LLM OpenAI محسوب می‌شود‌، این شرکت ۱۲ مورد از نگرانی‌های جدی خود را بدون ارائه راهکار‌های قطعی برای مرتفع کردن هریک از این مشکلات مطرح کرده است.

قوانین مربوط به حوزه هوش مصنوعی

قوانین مربوط به حوزه AI
منبع: Raid.Tech

تنها در طول سال گذشته‌، ۳۷ بند مقرراتی در سراسر جهان در حیطه هوش مصنوعی به تصویب رسید. ایتالیا تا جایی پیش رفت که حتی استفاده از ChatGPT را ممنوع اعلام کرد. با این حال‌، هماهنگی بسیار اندکی در این حیطه میان کشور‌های سراسر جهان وجود دارد. حتی در برخی از کشور‌ها اختلافاتی نیز در این حیطه وجود دارد‌، به عنوان مثال به قوانین ایالتی مختلفی در این حیطه در آمریکا و پروپوزال انگلیس برای اجتناب از یک تنظیم‌کننده مرکزی و ایجاد شکاف در حیطه نظارتی میان چندین سازمان می‌توان اشاره کرد. این ناهماهنگی و گسستگی امنیتی به نفع هیچ کسی نیست. شرکت‌ها و کمپانی‌های مختلف نیز نباید مدل‌های مبتنی بر هوش مصنوعی مختلفی برای هر یک از حوزه‌های قضایی ایجاد کنند و به صورت جداگانه به مشکلات قانونی‌، فرهنگی و اجتماعی این حیطه بپردازند.

با این حال‌، هنوز هم توافق‌نامه نانوشته مشترکی در مورد اصول اولیه مسئولیت‌پذیری‌، از قبیل حوزه امنیت و قابلیت اطمینان‌، شفافیت‌، توضیح و تفسیر‌پذیری‌، حریم خصوصی و رعایت انصاف در این حیطه میان سازمان‌ها و ارگان‌های مختلف کشور‌های سراسر جهان وجود دارد. به صورت تقریبی تمامی مشارکت‌کنندگان حوزه قانون‌گذاری موافق هستند که باید اقداماتی در این عرصه صورت بگیرد. بر اساس نظرسنجی اخیر که نتایج آن به تازگی توسط مرکز حاکمیت هوش مصنوعی منتشر شده است‌، ۹۱ درصد از مشارکت‌کنندگان ۱۳٫۰۰۰ نفری در این نظر‌سنجی در ۱۱ کشور مختلف موافق هستند که AI باید با دقت بالایی مدیریت شود.

لزوم وجود آژانس بین المللی هوش مصنوعی

تمام ماجراهایی که تا به اینجا مطرح شدند‌، دلیل اصلی این هستند که ما خواهان و نیازمند یک آژانس بین المللی هوش مصنوعی در سطح جهان هستیم. این آژانس باید سیاست‌های بی‌طرفانه و غیرانتفاعی در حوزه هوش مصنوعی (IAAI‌) در پیش گرفته و اصول و مالکیت آن به دولت‌، کمپانی‌های بزرگ مبتنی بر تکنولوژی‌، ارگان‌های غیرانتفاعی‌، دانشگاه‌ها و جامعه تعلق داشته باشد. هدف از تشکیل آژانس بین المللی هوش مصنوعی دست یافتن به راهکار‌های فنی تعاملی حوزه حاکمیت و به منظور بهبود ایمنی و بهره‌برداری از تکنولوژي‌های عرصه هوش مصنوعی خواهد بود.

همانطور که ساندار پیچای (Sundar Pichai‌)‌، مدیرعامل گوگل‌، در ۱۶ آپریل ۲۰۲۳ اعلام کرد‌، زمان تشکیل چنین آژانسی فرا رسیده است. اما چشم‌انداز دستاورد‌های این آژانس به چه صورت خواهد بود؟ هر یک از زمینه‌ها و هر یک از صنایع با از راه رسیدن این ارگان عملکرد متفاوتی خواهند داشت‌، بدین صورت که بسیاری از آنها مشمول حاکمیت جهانی شده و تحت پوشش نوآوری‌های تکنولوژی محور قرار می‌گیرند. به عنوان مثال‌، مدت‌هاست که مردم در مورد خودداری از تصمیم‌گیری‌های استخدام نیرو بر اساس جنسیت توافق کرده‌اند‌، حتی اقداماتی را در همین راستا و طی مقدمات قابل تفسیر پیشین صورت داده‌اند. به عنوان مثال به ملزومات تفسیر‌پذیری منشور حقوق هوش مصنوعی که توسط دولت بایدن ارائه شد می‌توان اشاره کرد. این در حالیست که در سیستم‌های جعبه سیاهی مانند ChatGPT انواع مختلفی از کاربرد‌هایی که راه حل فعلی برای آنها وجود ندارد به چشم می‌خورد. برای مثال‌، ممکن است افراد مختلفی کل پرونده شغلی یک نفر را وارد برنامه کرده و از ChatGPT بخواهند تا این اطلاعات را مورد بررسی و قضاوت قرار دهد‌، اما در حال حاضر هیچ راهکاری برای اطمینان حاصل کردن از این‌که ChatGPT پاسخ بی‌طرفانه‌ای ارائه کند وجود ندارد. آژانس بین المللی هوش مصنوعی به صورت دقیق به این موضوع می‌پردازد و در مورد چنین کاربرد‌های «خارج از محدوده‌ای‌» از چت‌بات‌ها و سایر سوالات مربوط به خط مشی راه حل‌های خود را ارائه می‌کند. از طرف دیگر‌، این آژانس ابزار‌های فنی مورد نیاز برای حسابرسی موثر این حوزه را نیز ارائه می‌کند.

حوزه IAAI نیز می‌تواند کارشناسان را گرد هم آورده و ابزار‌هایی برای مقابله با انتشار اطلاعات نادرست را ارائه کند. از نقطه نظر سیاسی‌، این ارگان اجازه بازخواست این را دارد که به عنوان مثال بپرسد که انتشار گسترده اطلاعات نادرست چگونه مورد مجازات قرار خواهد گرفت. از نقطه نظر فنی‌، تمرکز اصلی باید به توسعه خودکار یا نیمه خودکار ابزار‌هایی برای پاسخ‌دهی به سوالات بنیادین یا فاندامنتال معطوف شود. به عنوان مثال به این سوال می‌توان اشاره کرد «چه میزان اطلاعات نادرست وجود دارد؟» یا «حجم این اطلاعات نادرست با چه سرعتی در حال افزایش یافتن است؟» و «حوزه هوش مصنوعی تا چه اندازه در حال پرداختن به این مشکلات است؟» جالب اینجاست که تکنولوژی‌های موجود در تولید اطلاعات نادرست بهتر از شناسایی این اطلاعات کاربرد دارند. نوآوری‌های فنی قابل توجه در این حیطه بسیار مورد نیاز بوده و مزایای عمومی زیادی را به همراه دارند‌، اما ممکن است به اندازه کافی دارای منافع تجاری مستقیم باشند و یا نباشند. از همین رو‌، به حمایت مستقیم از جانب نهاد‌هایی مانند IAAI وجود دارد.

برای مثال سوم و رویداد اخیری در این حیطه‌، سیستم‌هایی مثل Autogpt و Babyagi به آماتور‌ها اجازه می‌دهند تا مجموعه‌های پیچیده‌ای که دیباگ کردن یا مشکل‌زدایی آنها کار دشواری است را در قالب سیستم‌های غیرقابل اعتماد مبتنی بر هوش مصنوعی بسازند و به واسطه آنها سایر سیستم‌های مبتنی بر AI غیرقابل اعتماد را به منظور دسته‌بندی و دسترسی داشتن به اهداف دلخواه مورد استفاده قرار دهند. این اقدامیست که ایمن و یا ناامن بودن آن به هیچ عنوان قابل پیش‌بینی نیست. همانطور که مارک روزا (Marek Rosa‌)‌، مدیرعامل Good.AI‌، نیز به آن اشاره کرده است‌، ما به ایده‌های فنی در رابطه با «شیوه افزایش امنیت (تدافع پیش‌گیرانه‌) در دنیایی که میلیارد‌ها نمونه از عوامل AI در آن وجود داشته و در برنامه‌ها و سرور‌های مختلف در حال اجرا هستند نیاز داریم. این در حالیست که ما به هیچ عنوان از کاری که این عوامل انجام می‌دهند اطلاعی نداریم. شاید بتوان اینطور تصور کرد که برای مدیریت این عوامل به نوعی «آنتی ویروس (نرم افزار‌) علیه این عوامل هوش مصنوعی احتیاج داشته باشیم.» همکاری و اتحاد با متخصصان و محققان برجسته می‌تواند راهنمای سریع و متناسبی برای دست یافتن به چنین پیشرفت‌های نوینی محسوب شود.

غیرقابل اعتماد بودن اطلاعات مربوط به برنامه‌های مبتنی بر تکنولوژی هوش مصنوعی
منبع: Simplilearn

طراحی نوعی همکاری جهانی در قالب آژانس بین المللی هوش مصنوعی اقدام بسیار بزرگی محسوب می‌شود. بسیاری از سهامداران باید در این حیطه مشارکت داشته باشند. هر دو بخش خطرات کوتاه مدت و بلند مدت نیز در این زمینه باید در نظر گرفته شود. هیچ راهکاری در این مسیر موفقیت به همراه نخواهد داشت مگر این‌که دولت و کمپانی‌های بزرگ در هیئت مدیره این حوزه حضور داشته باشند و این امر به آنها ختم نمی‌شود: مردم جهان نیز باید هر کدام به صورت مجزا در این حیطه فعالیت داشته باشند.

خوشبختانه سوابق این‌گونه از همکاری در سطح بین‌المللی در جهان وجود دارد. به عنوان مثال‌، در پایان جنگ جهانی دوم‌، تسلیحات هسته‌ای موجب پدید آمدن ترس و تردید عمیقی در مورد چگونگی استفاده از این تکنولوژی جدید مطرح شد. در پاسخ به این موضوع‌، ۸۱ کشور با اتفاق آرا اساس‌نامه آژانس بین‌المللی انرژی اتمی برای «ترویج تکنولوژی‌های هسته‌ای ایمن‌، حفاظت‌شده و صلح‌آمیز‌» با حقوق بازرسی را تصویب کردند. نمونه نرم‌تری از این همکاری را در سازمان بین‌المللی هوانوردی غیرنظامی می‌توان مشاهده کرد که کشور‌های عضو آن قوانین خود را وضع می‌کنند اما از یک آژانس بین‌المللی مشاوره می‌گیرند. دست یافتن به یک مدل صحیح و انتخاب درست نیازمند زمان‌، خرد و همکاری جمعی خواهد بود.

چالش‌های موجود در عرصه AI

چالش‌ها و ریسک‌های مربوط به هوش مصنوعی بدون شک تفاوت زیادی با مثال‌های بالا دارند و به صورت نگران‌کننده‌ای هنوز ناشناخته هستند. ما هم‌اکنون می‌دانیم که امکان طراحی بهینه‌تر اینترنت و دوراندیشانه‌تر اینترنت در گذشته وجود داشته است. به عنوان مثال‌، تصمیمات پیشین در مورد نحوه مدیریت حریم خصوصی و ناشناس بودن ممکن بود به کاهش توسعه و گسترش فرهنگ ترولینگ (تمسخر) در سطح گسترده منجر شود. همچنین می‌دانیم که انتخاب قبلی ما در این حیطه به نتایج غیرقابل تغییری منتهی شده‌اند. ممکن است تصمیمات قبلی ما به عواقب ماندگاری منجر شده باشند و لازم است تا تصمیمات پیش رو با تدابیر بیشتری اتخاذ شوند.

با توجه به سرعت پیشرفت همه زمینه‌های مختلف در دنیای امروز‌، زمان کافی در اختیار بشر وجود ندارد تا تصمیمات پیش روی خود را عاقلانه‌تر اتخاذ کند. بنابراین‌، یک سازمان جهانی غیرانتفاعی که توسط دولت‌ها‌، کسب و کار‌های بزرگ و جامعه پشتیبانی می‌شود‌، شروع مهم تلقی خواهد شد. این در واقع آغاز شکل‌گیری یک آژانس بین المللی هوش مصنوعی در جهان خواهد بود.

سخن پایانی

با توجه به این‌که در عصر رشد و نمو چت‌بات‌هایی از قبیل ChatGPT به سر می‌بریم و اطلاعات عمومی در مورد شیوه عملکرد و کارکرد این چت‌بات‌ها در دسترس عموم قرار ندارد‌، لازم است تا بررسی‌های گسترده‌ای در مورد پاسخ‌های خروجی و صحت این داده‌ها صورت بگیرد. تا به امروز شاهد ارائه پاسخ‌ها و اطلاعات نادرستی توسط این برنامه‌های مبتنی بر هوش مصنوعی در عرصه‌های مختلف بوده‌ایم و هیچ یک از کشور‌های جهان نیز قوانین یگانه‌ای برای شیوه بهره‌وری از این تکنولوژی در سطح جهانی ارائه نکرده‌اند. تفاوت نظر زیادی میان ایالت‌ها و بخش‌های مختلف یک کشور نیز در این حیطه وجود دارد. از همین رو‌، همانند دوره پس از جنگ جهانی دوم‌، باید با کمک رویکرد نوینی مثل آژانس بین المللی هوش مصنوعی که توسط دولت‌ها‌، کمپانی‌های بزرگ جهان و مردم ادامه می‌شود به این مشکلات رسیدگی شود. نظر شما در مورد آینده هوش مصنوعی و گسترش آن چیست؟ آیا این تکنولوژی آینده روشنی را برای بشریت به همراه دارد؟

منبع
Economist

نوشته های مشابه

دیدگاهتان را بنویسید

دکمه بازگشت به بالا