Google тихо отказалась от обещания не создавать опасный ИИ
NewsMakerТеперь компания готова разрабатывать технологии, способные убивать людей.
Google изменила принципы использования искусственного интеллекта, удалив пункт, в котором компания обещала избегать технологий, способных причинить вред, включая оружие. Согласно скриншотам, ранее на странице присутствовал раздел «Применение ИИ, которого мы не будем преследовать», но теперь он исчез.
В ответ на запрос о комментарии Google сослалась на блог , опубликованный во вторник. В нем старший вице-президент Google Джеймс Маника и глава Google DeepMind Демис Хассабис заявили: «Мы верим, что демократии должны лидировать в разработке ИИ, опираясь на такие ценности, как свобода, равенство и уважение прав человека».
Google также прокомментировала изменения для TechCrunch, отметив , что компания будет работать над «смягчением непреднамеренных или вредоносных последствий и избеганием несправедливых предвзятостей», а также приведением своих технологий в соответствие с «широко признанными принципами международного права и прав человека».
Маргарет Митчелл, бывший сопредседатель команды Google по этике ИИ, а ныне главный специалист по этике в стартапе Hugging Face, считает, что это изменение может повлиять на работу компании. «Удаление этого пункта стирает достижения многих специалистов и активистов в сфере этики ИИ. Это также может означать, что Google теперь готова разрабатывать технологии, способные убивать людей», — заявила она.
Экс-глава направления «Ответственный ИИ» в Google Cloud Трейси Пиццо Фрей отметила, что принципы ИИ помогали её команде анализировать свою работу и повышать качество продуктов. «Ответственный ИИ создает доверие, а без доверия невозможно добиться успеха», — сказала она.
В последние годы Google подвергался критике за сотрудничество с военными США и Израиля, поставляя им облачные вычислительные мощности. Хотя компания заявляет, что ее технологии не используются для нанесения вреда, глава Пентагона по ИИ недавно сообщил TechCrunch, что модели некоторых компаний уже ускоряют процесс принятия решений в «цепочке уничтожения» американской армии.
Изменение политики Google совпадает с общим трендом среди крупных технологических компаний. В январе Meta свернула часть инициатив по диверсификации персонала, отменив обязательные интервью для кандидатов из недостаточно представленных групп. В тот же период Amazon прекратил ряд программ по инклюзивности, назвав их устаревшими.
Внутри Google споры о балансе между этическими принципами и конкурентной гонкой ведутся давно. С момента выхода ChatGPT в 2022 году компания испытывает давление и стремится сохранить лидерство в ИИ. В 2023 году некоторые сотрудники выражали опасения, что ради конкуренции Google идет на компромиссы в этических вопросах.

Google изменила принципы использования искусственного интеллекта, удалив пункт, в котором компания обещала избегать технологий, способных причинить вред, включая оружие. Согласно скриншотам, ранее на странице присутствовал раздел «Применение ИИ, которого мы не будем преследовать», но теперь он исчез.
В ответ на запрос о комментарии Google сослалась на блог , опубликованный во вторник. В нем старший вице-президент Google Джеймс Маника и глава Google DeepMind Демис Хассабис заявили: «Мы верим, что демократии должны лидировать в разработке ИИ, опираясь на такие ценности, как свобода, равенство и уважение прав человека».
Google также прокомментировала изменения для TechCrunch, отметив , что компания будет работать над «смягчением непреднамеренных или вредоносных последствий и избеганием несправедливых предвзятостей», а также приведением своих технологий в соответствие с «широко признанными принципами международного права и прав человека».
Маргарет Митчелл, бывший сопредседатель команды Google по этике ИИ, а ныне главный специалист по этике в стартапе Hugging Face, считает, что это изменение может повлиять на работу компании. «Удаление этого пункта стирает достижения многих специалистов и активистов в сфере этики ИИ. Это также может означать, что Google теперь готова разрабатывать технологии, способные убивать людей», — заявила она.
Экс-глава направления «Ответственный ИИ» в Google Cloud Трейси Пиццо Фрей отметила, что принципы ИИ помогали её команде анализировать свою работу и повышать качество продуктов. «Ответственный ИИ создает доверие, а без доверия невозможно добиться успеха», — сказала она.
В последние годы Google подвергался критике за сотрудничество с военными США и Израиля, поставляя им облачные вычислительные мощности. Хотя компания заявляет, что ее технологии не используются для нанесения вреда, глава Пентагона по ИИ недавно сообщил TechCrunch, что модели некоторых компаний уже ускоряют процесс принятия решений в «цепочке уничтожения» американской армии.
Изменение политики Google совпадает с общим трендом среди крупных технологических компаний. В январе Meta свернула часть инициатив по диверсификации персонала, отменив обязательные интервью для кандидатов из недостаточно представленных групп. В тот же период Amazon прекратил ряд программ по инклюзивности, назвав их устаревшими.
Внутри Google споры о балансе между этическими принципами и конкурентной гонкой ведутся давно. С момента выхода ChatGPT в 2022 году компания испытывает давление и стремится сохранить лидерство в ИИ. В 2023 году некоторые сотрудники выражали опасения, что ради конкуренции Google идет на компромиссы в этических вопросах.