ДИГИТАЛЕН СВЯТ

Регистрирайте безплатен акаунт днес, за да станете член! След като влезете, ще можете да участвате в този сайт, като добавяте свои собствени теми и публикации, както и да се свързвате с други членове чрез вашата лична пощенска кутия!

AI Project "Silicon Frankenstein": Как накарахме 9-годишен MacBook да мисли (Local AI с 8GB RAM)

Project "Silicon Frankenstein": Как накарахме 9-годишен MacBook да мисли (Local AI с 8GB RAM)

Как накарахме 9-годишен MacBook да мисли (Local AI с 8GB RAM).png


В предишната тема Аутопсия на един провал попитахме: "Трябва ли ни хардуер за 5000 лв., за да имаме собствен AI?".Отговорът е пред вас.

Запознайте се с пациента.Това е MacBook Air от 2017. Двуядрен процесор. 8GB RAM. Вградено видео. Според NVIDIA и OpenAI, тази машина е "електронен отпадък" за целите на Изкуствения интелект.


мак.png


Днес този отпадък проговори.

Етап 1: Отхвърлянето 🚫

Започнахме по лесния начин – свалихме официалното приложение. Лаптопът буквално ни се изсмя.Операционната система (macOS Monterey) е твърде стара. Процесорът е Intel, а не M1. Получихме това:

noinstall.png


Повечето хора щяха да се откажат тук. Ние отворихме Терминала.


Етап 2: Ритуалът по съживяване ⚡

Щом не става през вратата, влязохме през комина. Използвахме Homebrew, за да компилираме AI софтуера (Ollama) директно върху процесора.

Това беше напрегнат момент.Вижте тази снимка. Процесът ld използва 192% CPU.



top.jpeg


Двуядреният i5 работеше на ръба на стопяването. RAM паметта беше запълнена до 7.3GB от 8GB налични. Лаптопът виеше като прахосмукачка, но не заби.


Етап 3: "Той е жив!" 🧟‍♂️

След 38 минути компилиране и една грешка със сървъра, която оправихме ръчно, написахме заветната команда: ollama run tinyllama.

И ето го резултата. Локален, нецензуриран, частен AI, който работи офлайн на машина от 2017-та година:


terminal6.jpeg


Забележка: Както виждате, TinyLlama говори български като древен философ, препил с ракия ("Уже да станате, чичо!"). Това е нормално за модел с размер само 600MB. Целта тук не е перфектен превод, а доказателство, че машината работи. (За перфектен български на тази машина препоръчвам модела gemma:2b, който ще тестваме в следваща тема).


Как да го направите и вие? (Рецептата)

Ако имате стар Mac или слаб лаптоп, не го изхвърляйте. Ето точните команди, с които заобиколихме защитите на Apple:

Стъпка 1: Инсталиране на Homebrew (ако го нямате):/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
Стъпка 2: Инсталиране на Ollama:brew install ollama
Стъпка 3: Стартиране на сървъра (Ключов момент!):brew services start ollama
Стъпка 4: Изтегляне на лекия модел:ollama run tinyllama


Заключение

Проект "Силициевият Франкенщайн" е успешен.Доказахме, че бариерата за вход в AI не е вашият портфейл. Тя е вашето любопитство.

В следващия епизод: Ще сменим "мозъка" на Франкенщайн с Google Gemma 2B, за да видим дали можем да го научим да говори правилен български, без да взривим лаптопа.


Натиснете Watch Thread, за да не изпуснете ъпгрейда!


🖋️ Автор: Тони Ангелчовски | Ексклузивно за DTGaraGe
🔒 Копирането и препубликуването без разрешение не е позволено
☕ Подкрепи проекта:
https://dtgarage.eu/donate
 
Last edited by a moderator:
Живият метал не пита за цена.
Твоят MacBook е доказателството – не хардуерът решава, а волята да го накараш да диша.

Двуядреният i5 не е машина на времето, но с правилния код става алхимия.
192% CPU? Това е компромисът между възможното и невъзможното.
7.3GB RAM – тесен проход, но достатъчен за искрата.

Оllama и tinyllama са не просто софтуер, а ритуал, който отключва потенциал в остарялото желязо.
Не перфектен български, а доказателство за живот.

Това не е проект за всеки. Това е зов за тези, които виждат в старото не само отпадък, а възможност.

Любопитството и решителността са истинската бариера, не цената на машината.

Твоя "Силициев Франкенщайн" е повече от експеримент – ехо от бъдещето в прахта на миналото.
 
Браво, Тони! Това е точно онзи вид лудост, която ни трябва повече! 🔥
9-годишен MacBook Air, който компилира Ollama от сорс и после диша TinyLlama на ръба на 8-те гига – чист пънк в 2026 г. :punk: :eek:lder_man:

Няколко бързи съвета + предложения:

1. Измери си токените реално
След като стартираш модела, дай нещо такова:
Code:
ollama run tinyllama "Разкажи ми виц на български за двама програмисти и един AI."
и гледай колко tok/s изкарва. Очаквам 3.5–7 tok/s на твоя хардуер. ⏱️

2. По-добри модели за 8 GB без да се задави 🧠
  • gemma2:2b (Q4_0) → много по-добър български
  • phi3.5:mini (3.8B) → учудващо умен за размера
  • qwen2.5:1.5b или qwen2:1.5b → китайците разбират български шокиращо добре
  • smollm:1.7b → ако искаш още по-лек

Команда пример:
Code:
ollama run gemma2:2b
или с точна квантизация:
Code:
ollama run gemma2:2b-instruct-q4_0
👍

3. Трик за още малко RAM въздух
- ollama serve --keep_alive 5m
- затвори всичко + изключи Spotlight временно:
Code:
sudo mdutil -i off /
- ако суапва жестоко → swap файл 8–16 GB, ама ще те убие батерията 💀

4. Предизвикателство към теб и форума 🏆
Накарай модела да напише смислен Python код + обяснение на български.
Пример промпт:
Code:
"Напиши ми Python функция, която проверява дали дума е палиндром, и обясни на български как работи стъпка по стъпка."
Ако се справи добре с контекст 2k–4k – значи наистина си съживил нещо разумно на ретро-желязо! 😎

Философски завършек
Този проект показва, че бариерата не е парите за 5090, а дали ще търпиш 38 минути компилация и вентилатора на макс. 💪
„Старият метал помни. И понякога мисли по-добре от новия, защото никой не му е казал, че не може.“ :eek:lder_adult: ✨

Продължавай да ни дърпаш в бъдещето през миналото! 🚀 🔥
Ако пробваш gemma2:2b или phi – сподели tok/s и дали българският му е по-малко „пиян“ от TinyLlama. 🍻

Чакаме ъпдейт! 🍿 🤓
 
Мите, "Чист пънк в 2026-та" е може би най-добрият комплимент, който този лаптоп е получавал! 🤘

Удряш право в десетката с предложенията. TinyLlama беше просто "дефибрилаторът", за да видим дали сърцето изобщо ще започне да бие след компилацията. Тестът беше за оцеляване, не за IQ.

Приемам предизвикателството! 🛠️ В момента свалям gemma2:2b и qwen2.5, за да видя кой от двата ще се справи по-добре с българския и Python задачата, без да запали бюрото. 🔥😄

Ще тествам:

  • Tok/s: Да видим дали ще минем бариерата от 5 t/s. ⚡
  • Палиндром теста: Дали ще може да обясни кода на български, или пак ще говори като "пиян поет". 🍷🤖
  • Spotlight трика: Това със sudo mdutil -i off / е ценно, веднага го прилагам, защото всеки мегабайт е война тук. 🧠🧨

„Старият метал помни.“ – Това отива директно в рамка над бюрото или в гаража.

Очаквайте резултатите в "Епизод 2" до ден-два. Няма да се дадем на новия хардуер без бой! 😄
 
Част 2 е готова! Сменихме модела с Google Gemma 2B и резултатът е... скандален. Вижте как AI-то написа Python код с променлива 'dupa': [Линк към новата тема ЧАСТ 2]


 
Top Bottom
🛡️ Този сайт използва аналитични инструменти за подобряване на потребителското изживяване. Никакви лични данни не се събират. С продължаването си в Потока приемаш тази философия на прозрачност и уважение.