Web Analytics Made Easy - Statcounter
به نقل از «خبرآنلاین»
2024-05-03@01:43:02 GMT

پشت پرده فوران یک وحشت / چه اتفاقی در حال رخ دادن است؟

تاریخ انتشار: ۲۰ فروردین ۱۴۰۲ | کد خبر: ۳۷۴۹۳۶۱۵

پشت پرده فوران یک وحشت / چه اتفاقی در حال رخ دادن است؟

نامه سرگشاده موسسه آینده زندگی که خواستار توقف شش ماهه محتاطانه در توسعه هوش مصنوعی شده پیش‌تر توسط هزاران شخصیت برجسته از جمله ایلان ماسک به امضا رسیده است، امضاکنندگان نگران هستند که آزمایشگاه‌های هوش مصنوعی برای توسعه و استقرار سیستم‌های قدرتمندی که هیچ کس از جمله سازندگان آن قادر به درک، پیش بینی یا کنترل‌شان نباشد در مسابقه‌ای خارج از کنترل گرفتار شوند.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

چه چیزی قادر به توضیح این حجم از فوران وحشت در میان گروهی خاصی از نخبگان است؟ کنترل و تنظیم آشکارا در مرکز داستان قرار دارد، اما توسط چه کسی؟ در طول وقفه نیم ساله پیشنهادی زمانی که بشریت می‌تواند خطرات را ارزیابی کند چه کسی از انسانیت حمایت می‌کند؟ از آنجایی که آزمایشگاه‌های هوش مصنوعی در چین، هند و روسیه به کار خود (احتمالا در خفا) ادامه خواهند داد بحث عمومی جهانی در مورد این موضوع غیرقابل تصور است.

با این وجود، ما باید در نظر بگیریم که در اینجا چه چیزی در خطر است. "یووال نوح هراری" مورخ در سال ۲۰۱۵ میلادی در کتاب خود به نام "انسان خردمند" پیش بینی کرده بود که محتمل‌ترین نتیجه هوش مصنوعی یک شکاف رادیکال بسیار قوی‌تر از شکاف طبقاتی در جامعه بشری خواهد بود. به زودی بیوتکنولوژی (فرآوری زیستی) و الگوریتم‌های رایانه‌ای به قدرت خود در تولید بدن، مغز و ذهن خواهند پیوست و در نتیجه شکاف بزرگ‌تری "بین کسانی که می‌دانند چگونه بدن و مغز را مهندسی کنند و آنانی که نمی‌دانند" ایجاد خواهند کرد. در چنین دنیایی "کسانی که سوار قطار پیشرفت می‌شوند توانایی‌های الهی در خلقت و نابودی را به دست می‌آورند در حالی که آنانی که پشت سر باقی می‌مانند با انقراض مواجه خواهند شد".

وحشت بازتاب یافته در نامه مرتبط با هوش مصنوعی ناشی از این ترس است که حتی کسانی که در "قطار پیشرفت" هستند نتوانند آن را هدایت کنند. اربابان فئودال دیجیتال کنونی ما ترسیده‌اند. با این وجود، آن چه آنان می‌خواهند بحث عمومی نیست بلکه توافقی بین دولت‌ها و شرکت‌های فناوری به منظور حفظ قدرت در جایی است که متعلق به آنان می‌باشد.

گسترش گسترده قابلیت‌های هوش مصنوعی یک تهدید جدی برای صاحبان قدرت محسوب می‌شود از جمله برای کسانی که هوش مصنوعی را توسعه می‌دهند و می‌خواهند مالک و کنترل کننده آن باشند. این به چیزی کم‌تر از پایان سرمایه داری آن گونه که ما می‌شناسیم اشاره می‌کند و در چشم انداز یک سیستم هوش مصنوعی خود بازتولید کننده که به ورودی کمتری از سوی عوامل انسانی نیاز خواهد داشت آشکار می‌شود (تجارت الگوریتمی بازار صرفا اولین گام در این مسیر است). انتخابی که برعهده ما گذاشته می‌شود بین شکل جدیدی از کمونیسم و هرج و مرج غیرقابل کنترل خواهد بود.

چت بات‌های گفتگوی جدید به بسیاری از افراد تنها (یا نه چندان تنها) شب‌های بی پایانی گفتگوی دوستانه درباره فیلم، کتاب، آشپزی یا سیاست را ارائه می‌دهند. برای استفاده مجدد از استعاره قدیمی من چیزی که مردم به دست خواهند آورد نسخه هوش مصنوعی قهوه بدون کافئین یا نوشابه بدون قند است: یک همسایه با رفتار دوستانه که به سادگی خود را با نیازهای شما سازگار می‌کند.

ساختاری از انکار فتیشیستی در اینجا وجود دارد: "من به خوبی می‌دانم که با یک شخص واقعی صحبت نمی‌کنم، اما به نظر می‌رسد که من هستم بدون هیچ یک از خطرات همراه آن".

در هر صورت، بررسی دقیق نامه هوش مصنوعی نشان می‌دهد این نامه تلاش دیگری برای منع غیرممکن است. این یک پارادوکس (تناقض) قدیمی است: برای ما به عنوان انسان غیرممکن است که در آینده پسا انسان شرکت کنیم بنابراین، باید توسعه آن را ممنوع کنیم. برای این که حول این فناوری‌ها متمرکز شویم باید سوال قدیمی لنین را بپرسیم: آزادی برای چه کسی و برای انجام چه کاری؟ آیا ما خیلی بیش‌تر از آن چه که تصور می‌کردیم کنترل نشده بودیم؟

به جای هشدار درباره تهدید آزادی و حیثیت‌مان در آینه شاید ابتدا باید به این فکر کنیم که آزادی فعلی به چه معناست. تا زمانی که این کار را انجام ندهیم مانند افراد هیستریکی عمل می‌کنیم که به گفته "ژاک لکان" روانکاو فرانسوی به دنبال استادی ناامید هستیم، اما تنها استادی که بتوانیم بر آن مسلط شویم.

"رای کورزویل" آینده نگر پیش بینی می‌کند که به دلیل ماهیت تصاعدی پیشرفت فناوری ما به زودی با ماشین‌های "معنوی" روبرو خواهیم شد که نه تنها همه نشانه‌های خودآگاهی را نشان می‌دهند بلکه از هوش انسانی نیز بسیار فراتر می‌روند. با این وجود، نباید این موضع "پسا بشری" برای مشغله پارادایمی مدرن را با دستیابی به تسلط کامل تکنولوژیکی بر طبیعت اشتباه گرفت. در عوض آن چه ما شاهد آن هستیم معکوس دیالکتیکی این روند است.

علوم "پسا بشری" امروزی دیگر در مورد سلطه نیست. باور آن شگفت انگیز است: مدل‌های هوش مصنوعی "جعبه سیاه" چه نوع ویژگی‌های احتمالی و برنامه ریزی نشده‌ای را ممکن است برای خود به دست آورند؟ هیچ کس نمی‌داند و هیجان خاصی در این باره نهفته است.

از این رو، در اوایل قرن حاضر "ژان پیر دوپوی" فیلسوف – مهندس فرانسوی در عرصه رباتیک، ژنتیک، فناوری نانو، حیات مصنوعی و هوش مصنوعی جدید وارونگی عجیبی از غرور سنتی انسان محور را تشخیص داد که فناوری آن را قادر می‌سازد.

او می‌گوید: "چگونه می‌توانیم توضیح دهیم که علم به یک فعالیت خطرناک تبدیل شده که به گفته برخی از دانشمندان برجسته امروزه تهدید اصلی برای بقای بشریت است؟ برخی از فیلسوفان در پاسخ به این پرسش می‌گویند که رویای دکارت یعنی ارباب و مالک طبیعت شدن اشتباه بوده و باید فورا به وضعیت "تسلط بر تسلط" بازگردیم. آنان چیزی نفهمیده اند. آنان نمی‌بینند که فناوری که از طریق همگرایی همه رشته‌ها در افق ما نمایان می‌شود و دقیقا هدف آن عدم تسلط است. مهندس فردا نه به سبب سهل انگاری یا نادانی بلکه از روی اختیار شاگرد جادوگر خواهد بود".

بشریت در حال خلق خدا یا شیطان خود است. در حالی که نمی‌توان نتیجه را پیش بینی کرد یک چیز قطعی است: اگر چیزی شبیه "پسا انسانیت" به عنوان یک واقعیت جمعی پدیدار شود جهان بینی ما هر سه موضوع تعیین کننده و هم‌پوشاننده خود را از دست خواهد داد: انسانیت، طبیعت، و الوهیت. هویت ما به عنوان انسان تنها در برابر پس زمینه طبیعت غیر قابل نفوذ می‌تواند وجود داشته باشد، اما اگر زندگی به چیزی تبدیل شود که بتوان آن را به طور کامل توسط فناوری دستکاری کرد ویژگی "طبیعی" خود را از دست خواهد داد. وجود کاملا کنترل شده فاقد معناست، چه برسد به خوشبختی. مساله این است آیا ما هوش مصنوعی‌ای که ایجاد کردیم را مورد پرستش قرار خواهیم داد؟

هر دلیلی برای نگرانی وجود دارد که بینش‌های فنی - شناختی جهان پسا بشری، خیال پردازی‌های ایدئولوژیکی هستند که ورطه‌ای را که در انتظار ماست مبهم می‌سازند. نیازی به گفتن نیست که بیش از شش ماه مکث مورد نیاز است تا اطمینان حاصل شود که انسان‌ها در آینده‌ای نه چندان دور بی ربط نشوند و زندگی شان بی معنا نخواهد شد.

۲۲۷۲۲۷

کد خبر 1752307

منبع: خبرآنلاین

کلیدواژه: روباتیک فناوری نوآوری هوش مصنوعی پیش بینی

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.khabaronline.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «خبرآنلاین» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۴۹۳۶۱۵ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

فوران دوباره کوه «روآنگ» در اندونزی

مقامات این سازمان می‌گویند کوه «روآنگ» در استان «سولاوسی شمالی» بامداد امروز (سه‌شنبه) فوران کرد.

به گزارش ایسنا به نقل از ان اچ کی، آن‌ها می‌گویند دیده شده است که از ارتفاع ۱۹ هزار متری این آتشفشان دود بلند می‌شود. مقامات در حال مشاهده تغییرات جزر و مد و سایر پدیده‌های ناشی از فوران بوده‌اند. اما آن‌ها می‌گویند هیچ تغییر قابل‌ملاحظه‌ای در سطوح جزر ومد در داخل و اطراف ژاپن وجود ندارد.

کوه روآنگ قبلا در ۱۷ آوریل فوران کرد و باعث شد که حدود ۸۰۰ نفر از ساکنان به جزیره دیگری پناه ببرند.

مقامات اندونزی بلافاصله پس از فوران روز سه‌شنبه از مردم در حوالی این آتشفشان خواستند که بلافاصله آن محل را ترک کنند. آن‌ها همچنین به ساکنان یک جزیره نزدیک به این محل اعلام کردند که نسبت به احتمال وقوع سونامی هوشیار باشند.

دیگر خبرها

  • چالش‌های زیست‌محیطی در توسعه هوش مصنوعی
  • (ویدئو) چه اتفاقی برای نتانیاهو خواهد افتاد؟
  • دستیار هوشمند خانگی/ هوش مصنوعی چگونه به خانه‌داری کمک می‌کند؟
  • هوش مصنوعی بی طرف نیست ؛ چشم بسته در جنگ شلیک می کند
  • (ویدئو) فوران یک آتشفشان در اندونزی و تخلیه ساکنان
  • فیلم/ فوران آتشفشان در اندونزی
  • هوش مصنوعی چگونه به معماران و طراحان کمک می‌کند؟
  • وضع مقررات برای استفاده تسلیحاتی از هوش مصنوعی
  • فوران دوباره کوه «روآنگ» در اندونزی
  • تحقیقات اتحادیه اروپا از متا بر سر کنترل اطلاعات غلط