گروهی از متخصص هوشمصنوعی خواستار منع ساخت روباتهای قاتل شدند.
مجله علمی ایلیاد – بیش از ۱۰۰ کارشناس هوشمصنوعی در نامهای، از سازمان ملل متحد خواستند مانع ساخت و گسترش تکنولوژی رباتهای قاتل شود. نامهی سرگشادهای که توسط مصطفی سلیمان از مدیران ارشد گوگل و ۱۱۴ متخصص رباتیک و هوشمصنوعی امضا شد، از سازمان ملل متحد میخواهد با ممنوعیت توسعهی همه سلاحهای خودکار مهلک از «انقلاب سوم جنگ جهانی» جلوگیری کند.
این نامه، همزمان با بزرگترین کنفرانس جهانی هوشمصنوعی - IJCهوشمصنوعی ۲۰۱۷ که اخیراً در استرالیا برگزار شد، هشدار میدهد که در آیندهی نزدیک، دستگاههای خودکار قادر خواهند بود، علاوه بر دشمنان مبارز خود، انسانهای بیگناه را هم مورد حمله قرار دهند. به نوشتهی کنسرسیوم: «زمانی که این رباتها تولید شدند، محققان، دامنهی اختیارات بسیار گستردهای را در درگیریهای مسلحانه به آنها دادند و درک آنها در زمانبندی سریعتر از انسان است. این رباتها سلاحهایی هستند که حاکمان قدرت و تروریستها از آنها بر ضد افراد بیگناه استفاده میکنند. در واقع، حاکمان قدرتمند جهان این سلاحها را به گونهای هک کردهاند که بهشیوهی نامطلوب رفتار کنند.»
این اولین بار نیست که طرفداران دیدگاه جهانی این صاحبنظران متحد شدهاند تا توجه جهانی را به سمت تهدیدی که سلاحهای خودکار به بشریت دارد، سوق دهند. یکی از این نظریهپردازان که حامی سازمان Open هوشمصنوعی نیز هست ادعا دارد که این سازمان غیرانتفاعی به دنبال پیشرفت تحقیقات علمی اخلاقی است. علیرغم نگرانیهای متخصصان هوشمصنوعی، تاخیرهای مداوم در ایجاد ممنوعیت ساخت سلاحهای خودکار، موجب شد تا عدهای از پیامدهای این تکنولوژی، به خصوص با توجه به سرعت زیاد توسعهی سیستمهای هوشمصنوعی واهمه داشته باشند.
در این نامهی سرگشاده آمده است: «زمان زیادی برای عمل کردن باقی نمانده. زمانی که این درب باز شود، بستن آن دشوار است. باید امروز تصمیم بگیریم و ببینیم که چه آیندهای را میخواهیم.» انقلاب سوم که در ان رباتهای قاتل، جانشین باروت و سلاحهای هستهای هستند، دنیای کنونی را بهتر نکردهاند.
با اینکه این نامه اولین موردی نیست که کارشناسان درمورد رباتهای قاتل هشدار دادهاند، اما اولین باری است که نمایندگان شرکتهای هوشمصنوعی و رباتیک، از ۲۶ کشور جهان، موضع مشترکی در این مورد در پیش گرفتهاند، محققانی همچون استیون هاوکینگ، نوام چامسکی و استیو ووزنیاک، بنیانگذار اپل. «رایان گارپی»، بنیانگذار فناوری رباتیک Clearpath، میگوید: «تعدادی از شرکتهای برجسته و افرادی که این نامه را امضا کردهاند، از اعلام خطر ما حمایت میکنند که نشان میدهد این سناریوی فرضی نیست، بلکه موضوع بسیار واقعی و جدی است که نیاز به اقدام فوری دارد. نباید این واقعیت را نادیده بگیریم که بر خلاف سایر حوزههای بالقوه هوشمصنوعی که هنوز در قلمرو علم تخیلی باقی مانده است، سیستم سلاحهای مستقل در حال توسعه هستند.»
آخرین نکتهای که باید تاکید کرد این است که؛ در حالی که کابوس سیستمهای سلاح مستقل میتواند در آینده جمعیتی با T-800 باشد، واقعیت این است که ماشینهای کشتار مبتنی بر هوشمصنوعی در حال حاضر در حد ایده هستند. قابلیتهای خودکار یا نیمهخودکار در سلاحهایی مانند اسلحه نگهبانی سامسونگ «SGR-A1»، هواپیمای بدون سرنشین «BAE Systems Taranis» و زیردریایی «DARPA's Sea Hunter» ساخته میشود.
به عبارت دیگر، بذر تکنولوژیکی روباتهای قاتل در زمین، دریا و هوا وجود دارد و قوانین موثر برای تنظیم این ماشینهای کُشنده و صنعتی که آنها را میسازد، هنوز نوشته و تصویب نشده است. «توبی والش»، پژوهشگر هوشمصنوعی از UNSW استرالیا، یکی از سازماندهندگان IJC هوشمصنوعی۲۰۱۷، میگوید: «هر فناوری میتواند به نحو صحیح یا غیرصحیح انجام شود و هوشمصنوعی نیز از این قاعده مستثنی نیست.»
وی افزود: «میتوان از این تکنولوژی بهره گرفت تا از پس بسیاری از مشکلات روزافزون جامعه برآمد و یا میتوان در سلاحهای خودکار برای صنعتی شدن جنگ استفاده کرد. امروز باید تصمیم بگیریم که کدامیک از اینها را میخواهیم.»
نوشته: پیتر داکریل
ترجمه: فاطمه علیلو - مجله علمی ایلیاد
ترجمه: فاطمه علیلو - مجله علمی ایلیاد