Gemma 4 od Google działa na telefonie
Google właśnie wypuściło coś interesującego. Modele AI, które biją systemy 20 razy większe - i działają na urządzeniach, które masz w kieszeni albo na biurku. Bez chmury, bez subskrypcji.

Co to jest Gemma 4
Gemma 4 to rodzina czterech modeli AI od Google, wydana na otwartej licencji Apache 2.0 - czyli możesz je pobrać, używać i modyfikować za darmo, także komercyjnie.
Cztery warianty to:
Gemma 4 31B Dense- największy, zajął 3. miejsce w rankingu Arena AI (niezależny ranking społecznościowy)Gemma 4 26B MoE- używa architekturyMixture of Experts, co oznacza że model aktywuje tylko część swoich parametrów przy każdym zapytaniu - jest przez to szybszy i tańszy obliczeniowo; zajął 6. miejsce w Arena AIGemma 4 E4B- wariant na urządzenia brzegowe, 4 miliardy parametrówGemma 4 E2B- najlżejszy, 2 miliardy parametrów
Na czym to działa
I tu jest największa niespodzianka.
Gemma 4 E2B i E4B - mniejsze warianty - są zaprojektowane do działania bezpośrednio na urządzeniu użytkownika. Testy pokazują działanie na:
- Telefonie z systemem Android (bez połączenia z chmurą)
- Raspberry Pi - minikomputerze za kilkadziesiąt złotych
- Jetson Nano - płytce deweloperskiej do projektów robotyki
To jest zmiana, która ma praktyczne znaczenie. Jeśli model działa lokalnie, dane użytkownika nie opuszczają urządzenia. Prywatność jest nieporównywalnie lepsza.
Czym bije większe modele
Według testów Google i niezależnych ocen, Gemma 4 31B Dense osiąga wyniki konkurując z modelami o 20-krotnie większej liczbie parametrów.
Kontekst - czyli ile tekstu model może przetworzyć naraz:
- Mniejsze warianty: 128 tysięcy tokenów
- Większe warianty: 256 tysięcy tokenów
Dla porównania: jedna typowa powieść to ok. 100 tysięcy tokenów. Model może przetworzyć całą książkę w jednym zapytaniu.
Obsługa 140+ języków - w tym polskiego.
Gdzie można to pobrać
Modele są dostępne na HuggingFace, Kaggle i przez Ollama - popularne narzędzie do uruchamiania modeli lokalnie. Żadnych kluczy dostępu, żadnych wbudowanych limitów użycia.
Dlaczego to ma znaczenie
Przez ostatnie dwa lata najlepsze modele AI były zamknięte za paywallem i serwerami chmury. Otwarty model w TOP 10 rankingu Arena to sygnał, że ta sytuacja się zmienia.
Dla deweloperów to ogromna sprawa - można budować aplikacje bez zależności od API zewnętrznych dostawców. Dla użytkowników - modele na urządzeniu to prywatność bez kompromisów.
Moja perspektywa
Google gra coraz poważniej w segmencie otwartych modeli. I robi to strategicznie - udostępnia modele, które są wystarczająco dobre, żeby przyciągnąć deweloperów do ekosystemu Google Cloud, kiedy potrzebują skalowania.
- miejsce w Arena AI to nie jest przypadek. To jest sygnał wysłany do rynku: “nasze otwarte modele są na poziomie zamkniętych modeli konkurencji”.
Moim zdaniem Gemma 4 to najważniejsza wersja tej rodziny do tej pory. Nie dlatego, że jest najlepsza na świecie - ale dlatego, że jest najlepsza w swojej klasie wagowej.
Źródła
- Google Blog - Introducing Gemma 4 (02.04.2026)
- 9to5Google - Gemma 4 specs and benchmarks (02.04.2026)
- Android Developers Blog - On-device AI with Gemma 4 (02.04.2026)
- Google Developers Blog - Gemma 4 technical overview (02.04.2026)