arXiv: ИИ не сможет представлять угрозы, так как он подконтролен человеку
Фото: Stock-Asso / Shutterstock / Fotodom
Международный коллектив ученых оценил вероятность того, что искусственный интеллект (ИИ) может в будущем стать опасным для человечества. Результаты исследования опубликованы на сервере препринтов arXiv.
По словам ученых Университета Бата (Великобритания) и Технического университета Дармштадта (Германия), большие языковые модели (LLM) показали, что способны самообучаться и осваивать новые навыки. Однако они все равно остаются предсказуемыми и их достаточно просто контролировать.
В ходе исследования под руководством профессора Ирины Гуревич LLM заставили выполнять незнакомые им действия. Оказалось, что ИИ наиболее эффективны, когда выполняют задачи на основе предоставленных примеров. По словам Гуревич, модели следуют инструкциям и четко выполняют указания, однако они не способны отклоняться от основного плана. В этой связи специалисты заявили, что вероятность выхода ИИ из-под контроля является низкой.
Несмотря на отсутствие экзистенциальной угрозы, ученые признали, что ИИ можно использовать в преступных целях — например, для создания фейков или содействия мошенничеству. Специалисты подчеркнули, что языковые модели должны иметь конкретные примеры и четкие инструкции.
В мае ученые назвали искусственный интеллект возможной угрозой для разумной жизни во Вселенной. По их мнению, быстрое развитие технологий ИИ может совпасть со временем перехода цивилизации от однопланетного существования к многопланетному.