Компания Google удалила пункт, который не позволял использовать искусственный интеллект при создании оружия, из собственных принципов применения ИИ, передает агентство Блумберг.
Демократические страны должны совместно создавать искусственный интеллект, который будет поддерживать национальную безопасность, заявили в Google.
Компания, возможно, теперь будет работать над технологиями, "которые могут убивать людей", отметили эксперты.
Демократические страны должны совместно создавать искусственный интеллект, который будет поддерживать национальную безопасность, заявили в Google.
Компания, возможно, теперь будет работать над технологиями, "которые могут убивать людей", отметили эксперты.
Анна Этавот
Марина Азарина
Рұстам Нұридинов
— Когда Скайнет осознал себя как личность, он распространился через миллионы сетевых серверов по всей планете, проник в каждый компьютер, в каждый дом, опутал всё. Скайнет всюду, и нигде единого центра нет, отключать нечего.
Нападение началось в 18 часов 18 минут, как он и сказал. День страшного суда. День, когда человечество чуть не погибло от оружия созданного им для собственной защиты.
Мне следовало понять, нам не дано было предотвратить судный день, дано было лишь пережить его, вместе.
Терминатор знал об этом, он пытался сказать, но я не хотел слушать.
Возможно будущее предопределено, Я не знаю. Знаю лишь то, чему научил меня Терминатор. Борись и никогда не сдавайся.
И я не сдамся! Битва только началась!
Андрей Погорелко
Ирина Висенна
Кей Ч
Марк Кудрявцев
Кей Ч
Виноваты не они, а те кто создал оружие.
Или вы предлагаете наказывать всех за создание электричества и рабочих, что создавали лампочку благодаря которой террорист создал оружие в темной комнате и тд и тп?
Марк Кудрявцев
Кей Ч
В этом суть они лишь площадка с продуктом.
Роман Андрианов
Кей Ч
Егор Алексеев
-🤖Да?
-😮🫢😱
Макс Старостин
Андрей Илларионов
Новости о том, что крупные технологические компании, такие как Google, пересматривают свои принципы использования искусственного интеллекта, особенно в контексте потенциального использования для создания оружия, вызывают много вопросов и опасений.
Во-первых, такое решение может открыть путь для разработки ИИ-технологий, которые могут использоваться в военном контексте. Это вызывает этические и моральные вопросы относительно ответственности за действия таких технологий, особенно если они могут причинить вред людям. К тому же, существует риск того, что другие компании и страны могут также начать активно разрабатывать подобные технологии, что приведет к гонке вооружений на основе ИИ.
Во-вторых, это может повлиять на общественное восприятие технологий и доверие к компаниям, занимающимся разработкой ИИ. Пользователи и регуляторы могут начать требовать большей прозрачности и отчетности, а также четких границ в применении подобных технологий.
В-третьих, если компании будут продолжать развивать ИИ для военных нужд, это может привести к новым международным соглашениям и нормам, касающимся использования ИИ в конфликтах и безопасности. Возможно, возникнут усилия по созданию этических стандартов для таких технологий, аналогичных тем, что уже существуют для применения традиционного оружия.
В целом, такие изменения могут иметь далеко идущие последствия как для технологий ИИ, так и для международной безопасности. Важно, чтобы общественное мнение и правительственные организации активно участвовали в обсуждении и формировании политики в этой области.
Андрей Тарасов
Юрий Сафронов
Вова Трынкин
Юрий Сафронов
Σερέγκα Τερπιτσένκο
Алексей Смирнов
Марк Кудрявцев
Silicon Dream
Елена Борисовна
Светлана Богомолова
Анна Этавот
Олег Забелкин