مایکروسافت خود را به عنوان شرکتی معرفی کرده که هوشمصنوعی را به منظور نزدیک کردن افراد به یکدیگر میسازد و این عالی است که این شرکت به جایگاه گوگل و فیسبوک پا میگذارد تا ابزاری برای تشخیص هوشمصنوعی نامناسب و آموزش دیدهشده ایجاد کند.
اما الگوریتم جدید مایکروسافت برای یافتن الگوریتمهای جهتدار فقط میتواند مشکلات موجود را یافته و بررسی کند. برای مثال، یعنی برنامههایی که میتوانند تعصب فزایندهی پلیس را در پی داشته باشند، همچنان ساخته شده و مورد استفاده قرار خواهند گرفتهاند. برای ساخت هوشمصنوعی که عملکرد منصفانهای داشته و برای همه مفید باشد، باید جانب احتیاط و دقت را بیش از پیش رعایت کرد. یکی از راههای احتمالی که شرکتها میتوانند از آن برای پوششِ جهت و تعصب خود استفاده کنند، از طریق ممیزی شخص ثالث است؛ یعنی شرکت فناوری یک کارشناس خارجی را برای بررسی الگوریتمهایشان و جستجوی نشانههای تعصب در خودِ کد یا دادههای وارد شده میگمارد.
ایدهی ممیزی هوشمصنوعی که در یکی از مقالههای MIT مطرح شد، در جاهای دیگر مورد توجه قرار گرفته است و برخی شرکتهای هوشمصنوعی بازرسهایی را برای بررسی کدشان استخدام کردهاند. اما این مستلزم آن است که هوشمصنوعی تا آنجایی ساده باشد که فرد بتواند وارد آن شده و بتواند مشکل مورد نظر را شناسایی کند. در مورد الگوریتمهای یادگیری پیچیده، شاید چنین امری مقدور نباشد.
پاسخ احتمالی دیگر، آموزش افرادی است که اقدام به ساخت هوشمصنوعی میکنند و بتوانند به شیوهی بهتری تعصبات و عقاید خود را تشخیص دهند و آنها را برای تفسیر توسط الگوریتم نگه دارند. این بدان معنا نیست که رمزگذاران قرار است خواهان ساخت ماشینهای نژادپرست هستند. اما از آنجا که هرکس نوعی تعصب و پیشداوری دارد، دنیای فناوری از اینکه به افراد کمک کند تا دیدگاههای خود را به شیوهی بهتری درک کنند، نفع میبرد. اینها راه حلهای عمدهای هستند که نیازمند تغییر نگرش در نحوهی توسعهی فناوری دارند، حتی در شرکتهایی که میخواهند این فیلترها را برای الگوریتمها توسعه دهند، نشانهی خوبی است که محققان و شرکتها در حال توجه ویژه به این مسئله هستند.
نوشته: دن روبیتسکی ترجمه: منصور نقیلو - مجله علمی ایلیاد