Project "Silicon Frankenstein": Как накарахме 9-годишен MacBook да мисли (Local AI с 8GB RAM)

В предишната тема Аутопсия на един провал попитахме: "Трябва ли ни хардуер за 5000 лв., за да имаме собствен AI?".Отговорът е пред вас.
Запознайте се с пациента.Това е MacBook Air от 2017. Двуядрен процесор. 8GB RAM. Вградено видео. Според NVIDIA и OpenAI, тази машина е "електронен отпадък" за целите на Изкуствения интелект.

Днес този отпадък проговори.
Етап 1: Отхвърлянето
Започнахме по лесния начин – свалихме официалното приложение. Лаптопът буквално ни се изсмя.Операционната система (macOS Monterey) е твърде стара. Процесорът е Intel, а не M1. Получихме това:

Повечето хора щяха да се откажат тук. Ние отворихме Терминала.
Етап 2: Ритуалът по съживяване
Щом не става през вратата, влязохме през комина. Използвахме Homebrew, за да компилираме AI софтуера (Ollama) директно върху процесора.
Това беше напрегнат момент.Вижте тази снимка. Процесът ld използва 192% CPU.

Двуядреният i5 работеше на ръба на стопяването. RAM паметта беше запълнена до 7.3GB от 8GB налични. Лаптопът виеше като прахосмукачка, но не заби.
Етап 3: "Той е жив!"
След 38 минути компилиране и една грешка със сървъра, която оправихме ръчно, написахме заветната команда: ollama run tinyllama.
И ето го резултата. Локален, нецензуриран, частен AI, който работи офлайн на машина от 2017-та година:

Забележка: Както виждате, TinyLlama говори български като древен философ, препил с ракия ("Уже да станате, чичо!"). Това е нормално за модел с размер само 600MB. Целта тук не е перфектен превод, а доказателство, че машината работи. (За перфектен български на тази машина препоръчвам модела gemma:2b, който ще тестваме в следваща тема).
В следващия епизод: Ще сменим "мозъка" на Франкенщайн с Google Gemma 2B, за да видим дали можем да го научим да говори правилен български, без да взривим лаптопа.
Натиснете Watch Thread, за да не изпуснете ъпгрейда!
Автор: Тони Ангелчовски | Ексклузивно за DTGaraGe
Копирането и препубликуването без разрешение не е позволено
Подкрепи проекта: https://dtgarage.eu/donate

В предишната тема Аутопсия на един провал попитахме: "Трябва ли ни хардуер за 5000 лв., за да имаме собствен AI?".Отговорът е пред вас.
Запознайте се с пациента.Това е MacBook Air от 2017. Двуядрен процесор. 8GB RAM. Вградено видео. Според NVIDIA и OpenAI, тази машина е "електронен отпадък" за целите на Изкуствения интелект.

Днес този отпадък проговори.
Етап 1: Отхвърлянето
Започнахме по лесния начин – свалихме официалното приложение. Лаптопът буквално ни се изсмя.Операционната система (macOS Monterey) е твърде стара. Процесорът е Intel, а не M1. Получихме това:
Повечето хора щяха да се откажат тук. Ние отворихме Терминала.
Етап 2: Ритуалът по съживяване
Щом не става през вратата, влязохме през комина. Използвахме Homebrew, за да компилираме AI софтуера (Ollama) директно върху процесора.Това беше напрегнат момент.Вижте тази снимка. Процесът ld използва 192% CPU.

Двуядреният i5 работеше на ръба на стопяването. RAM паметта беше запълнена до 7.3GB от 8GB налични. Лаптопът виеше като прахосмукачка, но не заби.
Етап 3: "Той е жив!"
След 38 минути компилиране и една грешка със сървъра, която оправихме ръчно, написахме заветната команда: ollama run tinyllama.И ето го резултата. Локален, нецензуриран, частен AI, който работи офлайн на машина от 2017-та година:

Забележка: Както виждате, TinyLlama говори български като древен философ, препил с ракия ("Уже да станате, чичо!"). Това е нормално за модел с размер само 600MB. Целта тук не е перфектен превод, а доказателство, че машината работи. (За перфектен български на тази машина препоръчвам модела gemma:2b, който ще тестваме в следваща тема).
Как да го направите и вие? (Рецептата)
Ако имате стар Mac или слаб лаптоп, не го изхвърляйте. Ето точните команди, с които заобиколихме защитите на Apple:Стъпка 1: Инсталиране на Homebrew (ако го нямате):/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
Стъпка 2: Инсталиране на Ollama:brew install ollama
Стъпка 3: Стартиране на сървъра (Ключов момент!):brew services start ollama
Стъпка 4: Изтегляне на лекия модел:ollama run tinyllama
Заключение
Проект "Силициевият Франкенщайн" е успешен.Доказахме, че бариерата за вход в AI не е вашият портфейл. Тя е вашето любопитство.В следващия епизод: Ще сменим "мозъка" на Франкенщайн с Google Gemma 2B, за да видим дали можем да го научим да говори правилен български, без да взривим лаптопа.
Натиснете Watch Thread, за да не изпуснете ъпгрейда!
Last edited by a moderator: