چرا ایمنسازی هوش مصنوعی آنقدرها هم که فکر میکنید آسان نیست
تاریخ انتشار: ۹ تیر ۱۴۰۲ | کد خبر: ۳۸۱۰۰۳۹۵
ایتنا - متخصصان هوش مصنوعی معمولاً یکی از دو مکتب فکری را دنبال میکنند - یا زندگی ما را بسیار بهبود میبخشد یا همه ما را نابود میکند. اما چگونه میتوان هوش مصنوعی را ایمن کرد؟ در اینجا پنج مورد از چالشهای پیش رو آورده شده است.
متخصصان هوش مصنوعی معمولاً یکی از دو مکتب فکری را دنبال میکنند - یا زندگی ما را بسیار بهبود میبخشد یا همه ما را نابود میکند.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
به توافق رسیدن درباره چیستی هوش مصنوعی
دو سال طول کشیده است تا پارلمان اروپا تعریفی از یک سیستم هوش مصنوعی ارائه دهد - نرمافزاری که میتواند «برای مجموعه معینی از اهداف تعریف شده توسط انسان، خروجیهایی مانند محتوا، پیشبینیها، توصیهها یا تصمیماتی ایجاد کند که بر محیط هایی که با آنها در تعامل هستند، تاثیر بگذارد.»
رسیدن به توافق جهانی
ثنا خرقانی، رئیس سابق دفتر هوش مصنوعی بریتانیا اشاره میکند که این فناوری هیچ احترامی برای مرزها قائل نیست.
او میگوید: «ما باید در این زمینه همکاری بینالمللی داشته باشیم - میدانم که سخت خواهد بود. این یک موضوع داخلی نیست. این فناوریها در محدوده فقط یک کشور قرار نمیگیرند.»
• پیشنهادات اتحادیه اروپا سختگیرانهترین هستند و شامل درجهبندی محصولات هوش مصنوعی بسته به تأثیر آنها میشود - برای مثال، فیلتر هرزنامه ایمیل، مقررات سبکتری نسبت به ابزار تشخیص سرطان دارد
• بریتانیا مقررات هوش مصنوعی را درون تنظیمکنندگان فعلیاش مندرج میکند – مثلاً آنها که میگویند فناوری علیه آنها تبعیض روا داشته است، به کمیسیون برابری مراجعه میکنند
• ایالات متحده فقط دستورالعملهایی داوطلبانه دارد که قانونگذاران در یک جلسه استماع تازه کمیته هوش مصنوعی اذعان کردهاند که نگران هستند که صلاحيت انجام چنین کاری را ندارند
• چین قصد دارد شرکتها را وادار کند هر زمان که از الگوریتم هوش مصنوعی استفاده میشود به کاربران اطلاع دهند
تامین اعتماد عمومی
ژان مارک لکلرک، رئیس امور نظارتی و دولت اتحادیه اروپا در شرکت (IBM) میگوید: «اگر مردم به آن اعتماد کنند، از آن استفاده خواهند کرد».
فرصتهای بسیار زیادی برای هوش مصنوعی وجود دارد تا زندگی مردم را به روشهایی باورنکردنی بهبود بخشد.
هوش مصنوعی در حال حاضر قادر به انجام این کارهاست:
• کمک به کشف آنتیبیوتیکها
• کمک به دوباره راه رفتن افراد فلج
• پرداختن به مسائلی مانند تغییرات آب و هوا و بیماریهای همهگیر
اما در مورد بررسی صلاحیت متقاضیان کار یا پیشبینی میزان احتمال ارتکاب جرم توسط یک فرد چه؟
پارلمان اروپا میخواهد که مردم در مورد خطرات مربوط به هر محصول هوش مصنوعی آگاه شوند.
شرکتهایی که قوانین آن را زیر پا بگذارند ممکن است به میزان بیش از ۳۰ میلیون یورو یا ۶ درصد از گردش مالی سالانه جهانیشان جریمه شوند.
اما آیا توسعهدهندگان میتوانند نحوه استفاده از محصولشان را پیشبینی یا کنترل کنند؟
به گفته سام آلتمن، رئیس OpenAI خالق ChatGPT، شرکتهای بزرگ میگویند که با مقررات دولتی - که برای کاهش خطرات احتمالی بسیار مهم است - موافق هستند.
ولی آیا در صورتی که خیلی درگیر نوشتن این مقررات شوند اولویت سود مالیشان از مردم بیشتر خواهد بود؟
میتوانید شرط بندی کنید که آنها میخواهند تا حد امکان به قانونگذارانی که وظیفه تنظیم مقررات را دارند نزدیک باشند.
و بارونس لین فاکس، بنیانگذار Lastminute.com میگوید که مهم است تنها به شرکتها گوش نکنیم.
او میگوید: «ما باید جامعه مدنی، دانشگاهها، افرادی که تحت تأثیر این مدلها و دگرگونیهای مختلف هستند را در این امر دخالت دهیم.»
واکنش سریع
مایکروسافت که میلیادرها دلار در چتجیپیتی سرمایهگذاری کرده است میخواهد «سختکاری را از چرخه کار حذف کند.»
چتجیپیتی میتواند پاسخهای متنی و نثری شبیه انسان ایجاد کند، اما، آلتمن تذکر میدهد که این، «یک ابزار است، نه یک موجود».
قرار است چتباتها باعث بهرهوری بیشتر کارکنان شوند و در برخی از صنایع، هوش مصنوعی این ظرفیت را دارد که شغل ایجاد کند و دستیار قدرتمندی باشد.
اما بقیه تا همین الان هم کارکنانشان را از دست دادهاند – ماه پیش، بیتی اعلام کرد که هوش مصنوعی جایگزین ۱۰ هزار شغل خواهد شد.
چتجیپیتی کمی بیش از شش ماه پیش مورد استفاده عمومی قرار گرفت. اکنون میتواند مقاله بنویسد، برای تعطیلات مردم برنامهریزی کند و در امتحانات حرفهای قبول شود.
قابلیت این مدلهای زبانی مقیاس بزرگ با سرعتی خارق العاده در حال رشد است.
و دو تن از سه «پدرخوانده» هوش مصنوعی - جفری هینتون و پروفسور یوشوا بنجیو - از جمله کسانی بودند که هشدار دادند این فناوری پتانسیل زیادی برای آسیب رسانی دارد.
مارگرت وستاگر، رئیس فناوری اتحادیه اروپا میگوید قانون هوش مصنوعی حداقل تا سال ۲۰۲۵ اجرایی نخواهد شد - که «بسیار دیر است».
و در کنار ایالات متحده در حال تدوین یک دستورالعمل داوطلبانه موقت برای این بخش است.
منبع: بیبیسی
منبع: ايتنا
کلیدواژه: هوش مصنوعی ChatGPT امنیت سایبری هوش مصنوعی شرکت ها
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.itna.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «ايتنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۸۱۰۰۳۹۵ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
مغز انسان شبیهسازی شد
ایتنا - ساخت چنین دستگاههایی پلهای برای عصر بعدی هوش مصنوعی است.
دانشمندان هلند و کره جنوبی به تازگی دستگاهی به نام «ممریستور یونترونیک(مقاومت حافظه)» یا به عبارت دیگر سیناپس مصنوعی ساختهاند. این دستگاه که کمی قطورتر از موی انسان است، بخشی از مغز را شبیهسازی میکند که به ما در فکر کردن و یادگیری کمک میکند. این اولین باری نیست که دانشمندان تلاش میکنند دستگاهی ایجاد کنند که میتواند شبیه مغز انسان فکر کند، اما این دستگاه خاص است، زیرا مانند دیگر دستگاهها ساخته نشده بلکه مانند مغز ما ساخته شده است.
به گزارش ایتنا از ایسنا، این دستگاه مغز مانند چیست و چرا تا این اندازه خاص است؟ ممریستور یونترونیک دارای یک کانال میکروسیال مخروطی است که داخل آن محلولی از نمک(کلرید پتاسیم) محلول در آب قرار دارد.
به نقل از دیجیتالترندز، هنگامی که دستگاه سیگنال الکتریکی دریافت میکند، یونهای موجود در محلول آب از کانال به سمت بالا حرکت میکنند و موقعیت خود را تغییر میدهند و این حرکت بر چگالی و هدایت یون تأثیر میگذارد. این اساسا میزانی که ممریستور میتواند الکتریسیته را هدایت کند، تغییر میدهد که به نوعی شبیه به نحوه اتصال سلولهای مغزی قویتر یا ضعیفتر بر اساس تجربیات ما است.
این ممکن است نزدیکترین مدل به نحوه عملکرد مغز ما در یک محیط مصنوعی باشد و با تلاشهای قبلی متفاوت است، زیرا کاملا از آب و نمک ساخته شده و برخلاف مدلهای قبلی سیلیکون و فلزات ندارد.
اگرچه ممریستورها در پلتفرمهای متداول مختلفی استفاده شدهاند، اما با مغز انسان متفاوت هستند زیرا تنها به یک منبع اطلاعاتی مانند الکترونها متکی هستند و فقط به ورودیهای الکتریکی پاسخ میدهند. این با نحوه عملکرد سیناپسها در مغز ما متفاوت است، زیرا سیناپسها میتوانند برای انجام کار به سیگنالهای الکتریکی و شیمیایی تکیه کنند.
کاربردهای فعلی هوش مصنوعی، حتی پیشرفتهترین آنها، توانایی تفکر مستقل مانند مغز انسان را ندارند. در همین حال، مدلهای زبانی بزرگ(LLM)، در حالی که ممکن است شبیه به مغز ما به نظر برسند، فقط مجموعهای از کلماتی هستند که افراد دیگر و ماشینها بیان کردهاند. توانایی آنها در خلقت ناشی از یادگیری از انسان است و نه از توانایی آنها در تفکر مستقل.
این تحقیق که توسط محقق دکتری تیم کامسما(Tim Kamsma) رهبری میشود، نتیجه مشترک کار انجام شده توسط دانشگاه اوترخت در هلند و دانشگاه سوگانگ در کره جنوبی است. این اولین بار در نوع خود است که از کانالهای یونی سیال برای شبیه سازی مکانیسمهای پیچیده مایع در مغز استفاده میشود. با این حال، به رغم این جهش، دستگاههای ممریستورهای یونترونیک هنوز در مراحل ابتدایی خود هستند و استفاده از آنها برای ساخت رایانههای نورومورفیک(neuromorphic) هنوز نیاز به پیشرفت دارد.
ساخت چنین دستگاههایی پلهای برای عصر بعدی هوش مصنوعی است.