Новое исследование показало, что ИИ не обладает навыком самообучения и не представляет экзистенциальной угрозы
Новое исследование, опубликованное на 62-й ежегодной конференции Ассоциации компьютерной лингвистики (ACL 2024), показало, что большие языковые модели (LLM), такие как ChatGPT, не могут учиться самостоятельно и не представляют экзистенциальной угрозы.
Что известно
Исследование подчеркивает, что, хотя LLM могут генерировать сложный язык, они не способны приобретать новые навыки без четких инструкций, что делает их предсказуемыми и контролируемыми. Доктор Хариш Тайяр Мадабуши (Dr Harish Tayyar Madabushi) из Университета Бата отметил, что преобладающее мнение о том, что ИИ представляет угрозу для человечества, отвлекает внимание от реальных проблем.
Профессор Ирина Гуревич добавила, что, хотя ИИ не представляет экзистенциальной угрозы, его потенциальное неправомерное использование, например, для создания фейковых новостей, требует внимания. Исследование развеивает опасения по поводу того, что ИИ может развить способности к сложному мышлению, и подчеркивает необходимость сосредоточиться на других рисках, связанных с использованием ИИ.
Источник: Neuroscience