Чем опасен искусственный интеллект?. Наука/Прогресс. Новости. Женский журнал Veslo.org
 
Главная
Красота/Здоровье
Личное
Беременность
Дети
Карьера
Кругосветка
Логин:
Пароль:
Регистрация   Забыли пароль?
Видеть и чувствовать - это быть, размышлять - это жить. У. Шекспир
НОВОСТИ
27.08.2019 11:27
Кредитные карты в нашей стране

21.08.2019 12:07
Анализ воздуха в твоей квартире

09.03.2017 17:03
Главный фактор при выборе места для отдыха

09.03.2017 17:01
В Швейцарии представили летающий автомобиль

09.03.2017 16:59
В Мельбурне установили "женские" светофоры

06.03.2017 14:37
Как сделать толпу людей умнее?

06.03.2017 14:36
Пожарным пришлось дважды снимать любопытного хаски с крыши

06.03.2017 14:34
Назван лучший город мира для знакомств

другие новости

РЕЦЕПТ ДНЯ
КАРТОФЕЛЬ БУЛОЧНИКА
Казалось бы, картошка - она и есть картошка. Пюре, жареная, запеченная. Пальцев на руке хватит перечислить вс...
подробнее...
другие рецепты

Чем опасен искусственный интеллект?

Новости
Наука/Прогресс
 
Чем опасен искусственный интеллект?
Верите ли вы в Терминатора, как верят в него Стивен Хокинг, Стив Возняк и Илон Маск? Известный учёный, создатель проекта SpaceX и основатель Apple Inc. и многие другие величайшие умы планеты, бизнесмены, исследователи роботов написали открытое письмо, в котором осуждают создание оружия, в основе которого – искусственный интеллект. Это письмо будет представлено на будущей международной конференции по проблемам развития искусственного интеллекта, которая вскоре состоится в Аргентине. Авторы послания уверены, что человечество вплотную приблизилось к созданию роботов-убийц.

«Автономные системы вооружения – это новый «автомат Калашникова», они стали революционными в военном деле. В отличие от ядерного вооружения, эти технологии нельзя будет проконтролировать, потому как они не требуют дорогого сырья. Уже совсем скоро с развитием технологий, они могут появиться на чёрном рынке. Диктаторы, террористы и наркобароны возьмут их к себе на вооружение.

Мы не уменьшаем пользу робототехники и искусственного интеллекта для человечества, но гонка вооружения сводит всю пользу на нет. Потому мы выступаем за запрет на создание систем вооружения на базе искусственного интеллекта» — говорится в письме. Эта тема уже не раз поднималась бизнесменами и ведущими специалистами в области робототехники. Так, в прошлом году тот же Илон Маск вызвал резонанс, сравнив использование искусственного интеллекта и сатанинский ритуал.

«С использованием искусственного интеллекта мы вызываем демонов. Только в этом случае волшебники со святой водой ничего не смогут поделать, потому что в реальности это не сработает. С ИИ надо быть предельно осторожным. Я уверен, что в плохих руках он может стать угрозой человечеству» — заявил Маск. В июне предостерёг от использования ИИ Стив Возняк. Он уверен, что вскоре искусственный интеллект без проблем превзойдёт своего создателя-человека.

«Мы живём в мире современных технологий и привыкли, чтобы за нас всё делали, мы даже думать разучились. Если вдруг он начнёт думать з нас, то это ненадолго вызовет удивление, но мы же привыкли занимать позицию домашнего животного, хотим, чтобы о нас заботились постоянно, так что человечество быстро сдастся» — сказал основатель Apple Inc.

Источник: Starslife.ru
Фото: discoversciencemagazine.com

Ключевые слова:

искусственный интеллект, оружие, ИИ, технологии, Стивен Хокинг


Если Вы обнаружили в тексте статьи ошибку, выделите ее, пожалуйста, мышкой и нажмите Ctrl+Enter


Вставить в блог Обсудить (0)
 Google научится записывать воспоминания из жизни Таблетка вместо зарядки? 
Загрузка...


 
Красота / Здоровье
Лицо
Тело
Волосы
Ногти
Диеты
Спорт
Стиль
Восточная медицина
Здоровье
Дети
Все о детях
Здоровый малыш
Игры
Многодетное счастье
Личное
Мужчина с веслом
В одной лодке
Секс
Дела домашние
Не лодкой единой
Все о подарках
Беременность
Я буду мамой
Я - мама
Бесплодие

Карьера
Аудиториум
Заметки соискателя
Рабочий сектор
Информация
Кругосветка
Города и страны
Обычаи и традиции
Знаменитые женщины
Полезная информация
О журнале :: Контакты :: Ссылки :: Реклама на сайте
Veslo.org: Женский портал. | Copyright © 1998 - 2022 <META> Все права защищены.