Bloomberg: смена политики Google в сфере военного ИИ грозит эскалацией
Отказ корпорации Google от принципа не использовать технологии искусственного интеллекта (ИИ) для разработки вооружений знаменует «опасное изменение тенденции» и грозит неконтролируемой эскалацией конфликтов по всему миру. Такое мнение высказывается в материале колумниста агентства Bloomberg Парми Олсон.
По ее оценкам, руководство компании отказалось от одной из «важнейших этических позиций». По словам руководителя ИИ-направления Google Демиса Хассабиса, это обусловлено «быстрой эволюцией» технологии и ее «всепроникающим» характером. «Однако представление о том, что этические принципы должны «развиваться» вместе с рынком, неверно. <...> Отказ от кодекса этики ради войны может привести к последствиям, которые выйдут из-под контроля», - подчеркивает колумнист.
По ее мнению, интеграция ИИ в системы вооружений приведет к появлению «автоматов, выдающих ответную реакцию со скоростью, не оставляющей времени на дипломатию». В этой связи существует риск того, что конфликты по всему миру обострятся и станут «более смертоносными». Ключевые риски в этом отношении несет автоматизированное принятие ИИ-системами решений.
В то же время Олсон выражает надежду на то, что изменение политики Google «окажет давление» на правительства стран мира, с тем чтобы они разработали и приняли носящие юридически обязывающий характер правила использования ИИ в сфере военных технологий. Журналист считает необходимым сделать основополагающими фактор человека, контролирующего принятие решений, а также запрет на полностью автономные вооружения, которые могут самостоятельно выбирать цели. Кроме того, по мнению Олсон, страны мира должны договориться о создании международного органа, который обеспечивал бы соблюдение стандартов безопасности в области военного ИИ.
5 февраля Google опубликовала обновленный перечень принципов разработки и применения ИИ-технологий, убрав обещания не использовать соответствующие продукты для разработки вооружений и слежки за людьми.