AI на старом железе
Mar. 25th, 2025 08:33 am![[personal profile]](https://www.dreamwidth.org/img/silk/identity/user.png)
Я тут когда-то писал, что современные LLM имеют ба-а-альшие резервы для оптимизации на уровне алгоритмов. То есть можно заставить их работать на куда более слабом железе, чем используется сейчас.
Вот накпример, такой пример - запустили llama2 на макбуке 20-летней давности (2005 года!) с процессором PowerPC 1.5ГГц и всего 1Гб памяти.
Так что я думаю мы еще увидим вполне юзабельные LLM на смартфонах 2022 года.