Эксперты предупредили, что в будущем ИИ будет генерировать мусорную информацию
По мнению ученых из Кембриджского университета, нейросети могут оказаться абсолютно бессмысленным

Инструменты на основе искусственного интеллекта становятся все популярнее. Илон Маск, Стив Возняк и еще 22 000 экспертов даже призывают компании приостановить обучение нейросетей, а автор книги «Создание дружественного ИИ» предупреждает о том, что ИИ может уничтожить человечество.
Несмотря на опасения специалистов, ИИ-технологии стремительно развиваются: если ранее ChatGPT, Stable Diffusion или Midjourney обучали на материалах, созданных человеком, то постепенно нейросети начинают обучаться на результатах, выданных ИИ. Такая ситуация возникает, поскольку интернет – главный источник информации для нейросетей – активно заполняется ими же сгенерированными данными.
Ученые из Кембриджского университета считают, что уже через несколько поколений ИИ будет генерировать «мусор». По их словам, проблема деградации моделей (model collapse) связана с тем, что ИИ неверно воспринимает вероятности. Поскольку нейросети не способны оценить правдивость информации в интернете, со временем они будут выдавать все больше ошибок и бессмысленных результатов.