دولت استرالیا اخیراً استانداردهای ایمنی هوش مصنوعی (AI) به صورت داوطلبانه و یک پیشنهادنامه ارائه کرده که در آن به تنظیم بیشتر هوش مصنوعی در موقعیتهای پرخطر پرداخته است. در کنار این، آنها خواستار افزایش پذیرش هوش مصنوعی در صنایع و بخشهای مختلف شدهاند. در نگاه اول، این ممکن است گامی مثبت به سمت نوآوری به نظر برسد، اما واقعیت پیچیدهتر—و شاید خطرناکتر—است.
با توجه به اینکه سیستمهای هوش مصنوعی بر اساس مجموعه دادههای وسیعی آموزش دیدهاند که بیشتر مردم قادر به درک آن نیستند، نتایجی تولید میکنند که ما اغلب نمیتوانیم صحت آنها را تأیید کنیم. حتی پیشرفتهترین مدلهای هوش مصنوعی، مانند ChatGPT و Gemini گوگل، گاهی اشتباهات شرمآور و گاه نگرانکنندهای مرتکب میشوند. به عنوان مثال، دقت ChatGPT با گذشت زمان کاهش یافته است، در حالی که Gemini گوگل پیشنهاد کرد که چسب را روی پیتزا بمالند! تعجبی ندارد که تردید عمومی در مورد هوش مصنوعی همچنان بالاست.
<p>فشار دولت استرالیا برای استفاده بیشتر از هوش مصنوعی به نظر میرسد که برخی واقعیتهای مهم در مورد خطرات و محدودیتهای آن را نادیده میگیرد.
خطرات واقعی هوش مصنوعی
ما همه درباره احتمال از دست رفتن شغلها به خاطر هوش مصنوعی شنیدهایم، اما آسیبها از این هم فراتر میروند. سیستمهای هوش مصنوعی هماکنون در راههایی استفاده میشوند که خطرات واقعی را به وجود میآورند، از خطرات آشکار—مانند خودروهای خودران که نمیتوانند از عابران پیاده اجتناب کنند—تا خطرات پنهانتر مانند الگوریتمهای استخدام که علیه زنان یا اقلیتهای نژادی تبعیض قائل میشوند. ابزارهای حقوقی مبتنی بر هوش مصنوعی نیز ممکن است همین نوع سوگیریها را نشان دهند و تصمیماتی بگیرند که به طور ناعادلانهای بر افراد رنگینپوست تأثیر بگذارد.
فناوری دیپفیک که میتواند صداها و چهرهها را به طرز قانعکنندهای تقلید کند، منجر به افزایش تقلب شده است و نسخههای جعلی از همکاران و عزیزان را برای فریب و سوءاستفاده ایجاد کرده است.
و نکته مهم این است: حتی گزارشهای خود دولت استرالیا نشان میدهند که در بسیاری از موارد، نیروی انسانی همچنان کارآمدتر و مؤثرتر از هوش مصنوعی است. اما در عصری که تکنولوژیهای جدید پر زرق و برق به نظر میرسند، همه چیز مثل یک میخ به چکش هوش مصنوعی شباهت پیدا میکند. مشکل اینجاست که هر کاری به هوش مصنوعی نیاز ندارد و بسیار مهم است که بدانیم چه زمانی هوش مصنوعی ابزار مناسبی است و چه زمانی نیست.
آیا باید به هوش مصنوعی—یا به دولت خود—اعتماد کنیم؟
وقتی دولت خواستار استفاده بیشتر از هوش مصنوعی میشود، باید بپرسیم: از ترویج این روایت چه سودی میبرد؟ یکی از بزرگترین خطرات از جمعآوری دادهها ناشی میشود. هر بار که از ابزارهای هوش مصنوعی مانند ChatGPT یا Gemini گوگل استفاده میکنیم، آنها مقادیر عظیمی از اطلاعات خصوصی ما—افکار، مالکیت فکری و دادههای حساس—را جمعآوری میکنند که اغلب در خارج از استرالیا و تحت حوزه قضایی دیگر پردازش میشود.
در حالی که این شرکتهای فناوری شفافیت و امنیت را تبلیغ میکنند، ما به ندرت میدانیم که واقعاً چه اتفاقی برای دادههای ما میافتد. آیا برای آموزش مدلهای جدید استفاده میشود؟ آیا با طرفهای سوم یا دولتها به اشتراک گذاشته میشود؟ اینها سوالاتی هستند که اغلب پاسخهای روشنی به آنها نداریم.
اخیراً، وزیر خدمات دولتی، بیل شورتن، برنامهای به نام “تبادل اعتماد” را پیشنهاد کرد که نگرانیهای بیشتری در مورد جمعآوری دادهها ایجاد کرد، با حمایت شرکتهای بزرگی مانند گوگل. احتمال ایجاد یک سیستم نظارتی گسترده در استرالیا یک تهدید واقعی و فوری است.
اما فراتر از جمعآوری دادهها، نفوذ هوش مصنوعی بر رفتارها و سیاستهای ما حتی نگرانکنندهتر است. سوگیری خودکار—تمایل ما به باور اینکه ماشینها از ما هوشمندتر هستند—باعث اعتماد بیش از حد به سیستمهای هوش مصنوعی میشود که میتواند پیامدهای خطرناکی داشته باشد. اگر بدون آموزش کافی یا تنظیمات مناسب، هوش مصنوعی را به طور نابینا بپذیریم، ممکن است به سوی جامعهای حرکت کنیم که تحت کنترل سیستمهای خودکار قرار دارد و در آن حریم خصوصی و اعتماد از بین میرود.
هوش مصنوعی را تنظیم کنید، آن را بیش از حد تبلیغ نکنید
گفتگو در مورد تنظیم هوش مصنوعی حیاتی است. سازمان بینالمللی استانداردسازی (ISO) از قبل دستورالعملهایی برای مدیریت هوش مصنوعی ایجاد کرده است و اجرای آنها در استرالیا میتواند به استفاده محتاطانهتر و اندیشمندانهتر از هوش مصنوعی کمک کند.
فشار دولت استرالیا برای تنظیم هوش مصنوعی گامی در جهت درست است، اما مشکل در تبلیغ غیرانتقادی پیرامون پذیرش هوش مصنوعی نهفته است. تشویق به استفاده بیشتر از هوش مصنوعی بدون آموزش عمومی درباره خطرات و محدودیتهای آن، یک فاجعه در انتظار وقوع است.
به جای تشویق کورکورانه مردم استرالیا به پذیرش هوش مصنوعی، تمرکز باید بر محافظت از مردم در برابر خطرات احتمالی آن باشد. هوش مصنوعی ممکن است بخشی از آینده ما باشد، اما ادغام آن باید اندیشمندانه، سنجیده و با پشتیبانی از محافظتهای قوی صورت گیرد—نه یک پذیرش شتابزده از تکنولوژی به خاطر خود تکنولوژی.
به طور خلاصه، بهتر است هیاهوی پیرامون هوش مصنوعی را کاهش دهیم و نگاهی دقیقتر به آنچه واقعاً با پذیرش گسترده آن در معرض خطر است، داشته باشیم. هدف باید محافظت از مردم استرالیا باشد، نه الزام به اعتماد به ابزاری که هنوز راه زیادی در پیش دارد.