Работу над обеспечением безопасности искусственного интеллекта необходимо начинать уже сегодня

I В недавней моей статье по поводу рисков, связанных с ИИ, один из комментаторов попросил меня вкратце сформулировать аргументы, доказывающие серьёзность ситуации. Я написал нечто вроде такого: 1. Если человечество не самоуничтожится, то в конце концов мы создадим ИИ человеческого уровня.2. Если человечество сможет создать ИИ человеческого уровня, то прогресс продолжится, и в итоге мы придём […]