استفان هاو کینگ، فیزیکدان سرشناس، نوام چامسکی، فیلسوف، ایلان ماسک تکنولوژیست برجسته و بیش از یکصد کارشناس برجستۀ دنیا در نامهای سرگشاده خواستار ممنوعیت استفاده از «روباتهای قاتل» با هوش مصنوعی شدند.
این نامه سرگشاده قرار است روز چهارشنبه (7 مرداد) در کنفرانس بینالمللی هوش مصنوعی در بوئنسآیرس آرژانتین ارائه شود.
در این نامه آمده است: «تکنولوژی هوش مصنوعی به نقطهای رسیده که توسعه تسلیحات خودمختار عملا نه تا چند دهه٬ که تا چند سال آینده میسر خواهد بود و این میتواند نقطۀ آغاز انقلاب سوم در دنیای تسلیحات باشد.»
استیو وازنیک از بنیانگذاران کمپانی اپل و دمیس هاسابیس، مدیر اجرایی واحد هوش مصنوعی گوگل موسوم به «دیپ مایند» (ذهن عمیق) و تعداد زیادی از چهرههای برجسته دیگر نیز این نامه را امضا کردهاند.
به گفتۀ امضا کنندگان این نامه، استفاده از تسلیحات هوشمند آستانه تحمل برای آغاز جنگ را کم می کند و در نتیجه تلفات انسانی افزایش خواهد یافت.
امضا کنندگان این نامه استدلال میکنند که توسعۀ گستردۀ سیستمهای تسلیحاتی خودکار میتواند به آغاز یک رقابت تسلیحاتی مانند رقابت بر سر بمب اتم بیانجامد با این تفاوت که تولید مواد اولیۀ تکنولوژی هوش مصنوعی مانند بمب اتم سخت نیست.
این کارشناسان برجسته یادآور شدند: «نقطۀ پایانی این مسیر روشن است، تسلیحات مبتنی بر هوش مصنوعی، کلاشنیکفهای آینده خواهند شد. سوال مهم پیش روی بشریت این است که آیا باید مسابقۀ جهانی برای تولید سلاحهای هوش مصنوعی را شروع کند یا اینکه مانع از شروع چنین رقابتی شود.»
این دانشمندان افزودند: «سلاحهای خودمختار برای عملیاتی مثل ترور، بیثبات کردن کشورها، مهار مردم و کشتن گزینشی یک گروه اقلیت، ایدهآل هستند. بنابراین ما معتقدیم مسابقه برای تولید هوش مصنوعی با کاربرد نظامی به نفع بشریت نیست.»
در می 2015 میلادی نیز ایلان ماسک، نابغۀ تاریخساز امریکایی، موسس پروژۀ اسپیس اکس (فناوریهای اکتشاف فضایی)، مدیر شرکت تسلا موتور و یکی از موسسان شرکت پی پال دربارۀ این موضوع ابراز نگرانی کرده بود.
هاوکینگ نیز در سال 2014 میلادی هشدار داده بود که تلاشها برای ساخت ماشینهایی که قادر به تفکر باشند، میتواند عامل نابودی نژاد بشریت شود.
وی گفته بود زمانی که ماشینهای هوشمند به طراحی دوباره خودشان دست بزنند با سرعت روزافزونی توسعه خواهند یافت و انسان به دلیل محدودیتهای بیولوژیکی قادر به رقابت با این ماشینها نخواهد بود.