«Центр безопасности искусственного интеллекта» (Center for AI Safety) опубликовал заявление об опасностях искусственного интеллекта (ИИ), который, по мнению организации, может стать причиной исчезновения человечества.
«Уменьшение риска исчезновения (человечества) из-за искусственного интеллекта должно стать глобальным приоритетом наряду с другими рисками, грозящими всему обществу, такими как пандемии и ядерная война», — говорится в заявлении находящегося в Сан-Франциско центра.
Свои подписи под ним поставили журналисты, ученые, предприниматели и программисты, в том числе глава компании OpenAI Сэм Олтмен и «крестный отец ИИ», британский ученый Джеффри Хинтон.
На сайте центра подробно рассказывается о рисках, которые, по его мнению, связаны с искусственным интеллектом. «Хотя у ИИ есть множество полезных применений, он может быть использован, чтобы привести в действие автономное оружие, продвигать дезинформацию и совершать кибератаки. Хотя системы ИИ работают с участием человека, агенты ИИ становятся все более способны наносить вред сами по себе», — считают в центре. Если ИИ будет и дальше развиваться, это потенциально грозит катастрофическими рисками и может стать угрозой существованию, предупреждают в центре.
Это не первое обращение за последнее время, авторы которого говорят о возможных угрозах ИИ. В марте глава SpaceX, Tesla и Twitter Илон Маск, сооснователь Apple Стив Возняк и более 1000 экспертов и руководителей отрасли по развитию искусственного интеллекта подписали открытое письмо с призывом приостановить разработку продвинутого ИИ до тех пор, пока не будут созданы, внедрены и проверены независимыми экспертами общие протоколы безопасности. «Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски — управляемыми», — говорится в документе, разработанном Институтом будущего жизни (Future of Life Institute).
В мае сооснователь Apple, один из пионеров в области компьютерных технологий Стив Возняк также предупредил, что искусственный интеллект может оказаться полезным для злоумышленников, а созданные с его помощью мошеннические схемы будет сложнее распознать. Возняк отметил, что созданный ИИ контент должен был четко маркирован.