دولت استرالیا خواهان استفاده بیشتر از هوش مصنوعی است—اما آیا واقعاً این همان چیزی است که نیاز داریم؟

0
30
australia AI
australia AI

دولت استرالیا اخیراً استانداردهای ایمنی هوش مصنوعی (AI) به صورت داوطلبانه و یک پیشنهادنامه ارائه کرده که در آن به تنظیم بیشتر هوش مصنوعی در موقعیت‌های پرخطر پرداخته است. در کنار این، آنها خواستار افزایش پذیرش هوش مصنوعی در صنایع و بخش‌های مختلف شده‌اند. در نگاه اول، این ممکن است گامی مثبت به سمت نوآوری به نظر برسد، اما واقعیت پیچیده‌تر—و شاید خطرناک‌تر—است.
با توجه به اینکه سیستم‌های هوش مصنوعی بر اساس مجموعه داده‌های وسیعی آموزش دیده‌اند که بیشتر مردم قادر به درک آن نیستند، نتایجی تولید می‌کنند که ما اغلب نمی‌توانیم صحت آنها را تأیید کنیم. حتی پیشرفته‌ترین مدل‌های هوش مصنوعی، مانند ChatGPT و Gemini گوگل، گاهی اشتباهات شرم‌آور و گاه نگران‌کننده‌ای مرتکب می‌شوند. به عنوان مثال، دقت ChatGPT با گذشت زمان کاهش یافته است، در حالی که Gemini گوگل پیشنهاد کرد که چسب را روی پیتزا بمالند! تعجبی ندارد که تردید عمومی در مورد هوش مصنوعی همچنان بالاست.
<p>فشار دولت استرالیا برای استفاده بیشتر از هوش مصنوعی به نظر می‌رسد که برخی واقعیت‌های مهم در مورد خطرات و محدودیت‌های آن را نادیده می‌گیرد.

خطرات واقعی هوش مصنوعی

Australia AI
Australia AI

ما همه درباره احتمال از دست رفتن شغل‌ها به خاطر هوش مصنوعی شنیده‌ایم، اما آسیب‌ها از این هم فراتر می‌روند. سیستم‌های هوش مصنوعی هم‌اکنون در راه‌هایی استفاده می‌شوند که خطرات واقعی را به وجود می‌آورند، از خطرات آشکار—مانند خودروهای خودران که نمی‌توانند از عابران پیاده اجتناب کنند—تا خطرات پنهان‌تر مانند الگوریتم‌های استخدام که علیه زنان یا اقلیت‌های نژادی تبعیض قائل می‌شوند. ابزارهای حقوقی مبتنی بر هوش مصنوعی نیز ممکن است همین نوع سوگیری‌ها را نشان دهند و تصمیماتی بگیرند که به طور ناعادلانه‌ای بر افراد رنگین‌پوست تأثیر بگذارد.
فناوری دیپ‌فیک که می‌تواند صداها و چهره‌ها را به طرز قانع‌کننده‌ای تقلید کند، منجر به افزایش تقلب شده است و نسخه‌های جعلی از همکاران و عزیزان را برای فریب و سوءاستفاده ایجاد کرده است.
و نکته مهم این است: حتی گزارش‌های خود دولت استرالیا نشان می‌دهند که در بسیاری از موارد، نیروی انسانی همچنان کارآمدتر و مؤثرتر از هوش مصنوعی است. اما در عصری که تکنولوژی‌های جدید پر زرق و برق به نظر می‌رسند، همه چیز مثل یک میخ به چکش هوش مصنوعی شباهت پیدا می‌کند. مشکل اینجاست که هر کاری به هوش مصنوعی نیاز ندارد و بسیار مهم است که بدانیم چه زمانی هوش مصنوعی ابزار مناسبی است و چه زمانی نیست.

آیا باید به هوش مصنوعی—یا به دولت خود—اعتماد کنیم؟

وقتی دولت خواستار استفاده بیشتر از هوش مصنوعی می‌شود، باید بپرسیم: از ترویج این روایت چه سودی می‌برد؟ یکی از بزرگ‌ترین خطرات از جمع‌آوری داده‌ها ناشی می‌شود. هر بار که از ابزارهای هوش مصنوعی مانند ChatGPT یا Gemini گوگل استفاده می‌کنیم، آنها مقادیر عظیمی از اطلاعات خصوصی ما—افکار، مالکیت فکری و داده‌های حساس—را جمع‌آوری می‌کنند که اغلب در خارج از استرالیا و تحت حوزه قضایی دیگر پردازش می‌شود.
در حالی که این شرکت‌های فناوری شفافیت و امنیت را تبلیغ می‌کنند، ما به ندرت می‌دانیم که واقعاً چه اتفاقی برای داده‌های ما می‌افتد. آیا برای آموزش مدل‌های جدید استفاده می‌شود؟ آیا با طرف‌های سوم یا دولت‌ها به اشتراک گذاشته می‌شود؟ این‌ها سوالاتی هستند که اغلب پاسخ‌های روشنی به آنها نداریم.
اخیراً، وزیر خدمات دولتی، بیل شورتن، برنامه‌ای به نام “تبادل اعتماد” را پیشنهاد کرد که نگرانی‌های بیشتری در مورد جمع‌آوری داده‌ها ایجاد کرد، با حمایت شرکت‌های بزرگی مانند گوگل. احتمال ایجاد یک سیستم نظارتی گسترده در استرالیا یک تهدید واقعی و فوری است.
اما فراتر از جمع‌آوری داده‌ها، نفوذ هوش مصنوعی بر رفتارها و سیاست‌های ما حتی نگران‌کننده‌تر است. سوگیری خودکار—تمایل ما به باور اینکه ماشین‌ها از ما هوشمندتر هستند—باعث اعتماد بیش از حد به سیستم‌های هوش مصنوعی می‌شود که می‌تواند پیامدهای خطرناکی داشته باشد. اگر بدون آموزش کافی یا تنظیمات مناسب، هوش مصنوعی را به طور نابینا بپذیریم، ممکن است به سوی جامعه‌ای حرکت کنیم که تحت کنترل سیستم‌های خودکار قرار دارد و در آن حریم خصوصی و اعتماد از بین می‌رود.

هوش مصنوعی را تنظیم کنید، آن را بیش از حد تبلیغ نکنید

گفتگو در مورد تنظیم هوش مصنوعی حیاتی است. سازمان بین‌المللی استانداردسازی (ISO) از قبل دستورالعمل‌هایی برای مدیریت هوش مصنوعی ایجاد کرده است و اجرای آنها در استرالیا می‌تواند به استفاده محتاطانه‌تر و اندیشمندانه‌تر از هوش مصنوعی کمک کند.
فشار دولت استرالیا برای تنظیم هوش مصنوعی گامی در جهت درست است، اما مشکل در تبلیغ غیرانتقادی پیرامون پذیرش هوش مصنوعی نهفته است. تشویق به استفاده بیشتر از هوش مصنوعی بدون آموزش عمومی درباره خطرات و محدودیت‌های آن، یک فاجعه در انتظار وقوع است.
به جای تشویق کورکورانه مردم استرالیا به پذیرش هوش مصنوعی، تمرکز باید بر محافظت از مردم در برابر خطرات احتمالی آن باشد. هوش مصنوعی ممکن است بخشی از آینده ما باشد، اما ادغام آن باید اندیشمندانه، سنجیده و با پشتیبانی از محافظت‌های قوی صورت گیرد—نه یک پذیرش شتاب‌زده از تکنولوژی به خاطر خود تکنولوژی.
به طور خلاصه، بهتر است هیاهوی پیرامون هوش مصنوعی را کاهش دهیم و نگاهی دقیق‌تر به آنچه واقعاً با پذیرش گسترده آن در معرض خطر است، داشته باشیم. هدف باید محافظت از مردم استرالیا باشد، نه الزام به اعتماد به ابزاری که هنوز راه زیادی در پیش دارد.

ثبت یک پاسخ

لطفا نظر خود را وارد کنید
لطفا نام خود را اینجا وارد کنید