Существует риск того, что вычислительные машины обзаведутся интеллектом и установят господство над людьми, которые не смогут составить им конкуренцию, считает известный астрофизик

Известный астрофизик Стивен Хокинг опасается, что искусственный интеллект (ИИ) может вскоре оказаться угрозой для существования человечества, пишет Financial Times.

По словам Хокинга, методы генной инженерии вскоре позволят вносить изменения в ДНК человека для "улучшения человеческого рода", однако результаты этого процесса смогут проявиться лишь через какое-то время. "Компьютеры же, напротив, по закону Мура увеличивают свою производительность вдвое каждые полтора года. Существует риск, что вычислительные машины обзаведутся интеллектом и установят господство над людьми, которые не смогут составить им конкуренцию", - сказал он.

Ранее о необходимости установить жесткий контроль над разработками в сфере создания ИИ заявляли сооснователь платежной системы PayPal Питер Тиль и глава производителя электромобилей Tesla Илон Маск.

Вместе с тем Хокинг отметил и положительные стороны развития ИИ: практически полностью парализованный ученый продемонстрировал улучшения в системе, которая позволяет ему общаться с миром.

Система, разработанная Intel совместно с британским стартапом SwiftKey, теперь может печатать слова и произносить их в два раза быстрее благодаря новому алгоритму, анализирующему особенности речи ученого и предсказывающему слова по первым буквам. Самыми популярными словами в лексиконе физика-теоретика стали "дыры", "космология", "горизонт" и почему-то "перец".

Астрофизик настоял на том, чтобы при применении улучшений разработчики сохранили его узнаваемый компьютерный голос, отмечает Financial Times. Сам Хокинг ранее говорил, что голос и инвалидная коляска делают его идеальной кандидатурой на роль главного злодея фильма про Джеймса Бонда, и он был бы не против сняться в очередном кинофильме про агента 007.

Помимо искусственного интеллекта, по мнению Хокинга, у человечества существует множество других угроз. "Существует множество рисков - от ядерной войны до глобального потепления и мутирующих вирусов. Число угроз постоянно растет, и вероятность катастрофического события на земле в ближайшие 1-10 тыс. лет является почти стопроцентной", - сказал Хокинг.

"Нам нужно раздвинуть наши горизонты за пределы планеты Земля, чтобы катастрофа на Земле не означала конец человечества, - заявил астрофизик. - Мы должны создавать колонии на других планетах, способные к полному самообеспечению. Сейчас это сложно, но с развитием технологий такая задача упростится".