Polacy kształtują przyszłość AI
Sztuczna inteligencja to temat stary jak świat komputerów. Choć wydaje nam się, że żyjemy w erze bezprecedensowej rewolucji technologicznej, prawda jest bardziej złożona. Nagroda Nobla z fizyki dla Geoffrey'a Hintona i Johna Hopfielda za badania nad sieciami neuronowymi z lat osiemdziesiątych ubiegłego wieku przypomina nam, że fundamenty dzisiejszego boomu AI położono dekady temu. To nie przypadek – to dowód na to, że prawdziwe przełomy technologiczne dojrzewają latami.
Korzenie rewolucji sięgają głęboko
Cofnijmy się jeszcze dalej. ELIZA – program komputerowy stworzony przez Josepha Weizenbauma w 1966 roku – był jednym z pierwszych chatbotów w historii. Ta cyfrowa terapeutka, operująca według schematu rogerowskiego, potrafiła prowadzić zaskakująco przekonujące rozmowy z ludźmi. Niedawno przywrócona do życia i dostępna online, ELIZA pozostaje fascynującym świadectwem tego, jak dawno temu zaczęliśmy marzyć o maszynach rozumiejących ludzki język. Sieci neuronowe lat 70. i 80., systemy ekspertowe lat 90. – wszystko to były kolejne kroki na drodze do dzisiejszych osiągnięć.
Punkt zwrotny: era Muska i OpenAI
Prawdziwa zmiana nastąpiła, gdy sztuczną inteligencją dogłębniej zainteresował się Elon Musk. Wizjoner ten dostrzegł potencjał, którego większość branży jeszcze nie widziała. W 2015 roku współzałożył OpenAI, stawiając na jej czele Sama Altmana i mobilizując wsparcie technologicznych gigantów, w tym Microsoftu. To, co nastąpiło później, przeszło do historii jako jedna z największych rewolucji technologicznych naszych czasów.
Publikacja ChatGPT w listopadzie 2022 roku wywołała sensację na skalę globalną. W ciągu zaledwie pięciu dni serwis zdobył milion użytkowników, ustanawiając rekord najszybciej rosnącej aplikacji w historii. Świat się zmienił, a podłogi w siedzibie Google'a zadrżały – nagle wszystkie asystenci głosowi w stylu "OK, Google" wydawały się prehistoryczne. Odpowiedź musiała być natychmiastowa. Tak narodził się Gemini, flagowy model językowy Google'a.
Globalny wyścig zbrojeń
Amazon, trzeci z wielkich graczy świata IT, również nie mógł pozostać obojętny. Anthropic, firma stojąca za modelem Claude, otrzymała miliardowe wsparcie od giganta e-commerce. Ale to dopiero początek globalnego wyścigu.
Francja postawiła na Mistral AI – startup, który w rekordowym tempie wyrósł na jednego z najpoważniejszych graczy na rynku LLM-ów. Mistral, tworzony całkowicie od podstaw, udowodnił, że Europa może konkurować z Silicon Valley. Chiny odpowiedziały własnymi modelami – Baidu ze swoim Ernie Bot, Alibaba z Tongyi Qianwen. Meta wypuściła serię modeli LLaMA w duchu open source, demokratyzując dostęp do technologii.
Elon Musk ponownie postanowił pokazać, kto tu rządzi. Wykorzystując strategiczną przewagę, jaką dało mu przejęcie Twittera, stworzył xAI i wypuścił model Grok – zintegrowany bezpośrednio z platformą X, mający dostęp do ogromnego strumienia danych w czasie rzeczywistym.
Prawdziwym trzęsieniem ziemi okazało się pojawienie się chińskiego DeepSeek. Firma ta zakwestionowała dotychczasowe przekonania o kosztach tworzenia dużych modeli językowych, twierdząc, że znalazła sposób na znacznie bardziej efektywne trenowanie LLM-ów. Choć wielu ekspertów pozostaje sceptycznych, sam fakt, że DeepSeek zdołał osiągnąć konkurencyjne wyniki przy ułamku kosztów, zmusza branżę do przemyślenia dotychczasowych strategii.
Polska odpowiedź: Bielik wzlatuje
I tu dochodzimy do sedna sprawy – Polacy rzeczywiście “nie są gęsi” i swoje AI także mają. Najbardziej rozpoznawalną inicjatywą jest projekt Bielik, rozwijany w modelu open source przez społeczność programistów i naukowców. To fascynujące przedsięwzięcie łączy w sobie polską myśl techniczną z ideą otwartego dostępu do technologii. Bielik ma ambicję stać się pierwszym w pełni polskim dużym modelem językowym, trenowanym od zera na polskich tekstach.
Równolegle rozwija się projekt PLLuM (Polish Large Language Universal Model) – inicjatywa państwowa finansowana przez Ministerstwo Cyfryzacji kwotą ponad 14,5 miliona złotych. Umowa na realizację tego ambitnego przedsięwzięcia została podpisana w styczniu 2024 roku, a jego celem jest stworzenie "odpowiedzialnego, otwartego dużego modelu językowego" wspierającego sektor publiczny i gospodarczy.
Polski ekosystem AI: więcej niż LLM-y
Oprócz flagowych projektów tworzonych od podstaw, w Polsce dynamicznie rozwija się ekosystem rozwiązań opartych na technologii RAG (Retrieval-Augmented Generation). To inteligentne nadbudówki wykorzystujące istniejące silniki AI, wzbogacone o specjalistyczne dane.
Świetnym przykładem jest Pewnik.ai – chatbot odpowiadający na pytania wyłącznie na podstawie zweryfikowanych źródeł książkowych, znacząco redukując problem halucynacji AI. Co ciekawe, Pewnik.ai oferuje także innowacyjną funkcję edukacyjną – personalizowane feedy przypominające media społecznościowe, gdzie zamiast rozrywki użytkownik otrzymuje spersonalizowany strumień treści edukacyjnych. System uczy się preferencji, dostosowując format przekazu – od fiszek przez pytania otwarte po filmy i podcasty.
Nie można zapomnieć o ElevenLabs – choć firma działa globalnie, jej korzenie są głęboko polskie. Specjalizując się w syntezie mowy przy użyciu AI, ElevenLabs stała się jednym z liderów w swojej niszy.
Edukacja przyszłości już dziś
Historia sztucznej inteligencji pokazuje, że to, co dziś wydaje się rewolucyjne, często ma swoje korzenie w pracach sprzed dekad. Nagroda Nobla dla Hintona i Hopfielda jest tego najlepszym dowodem. Jednocześnie tempo obecnych zmian nie ma precedensu. Polska, z projektami takimi jak Bielik czy PLLuM, pokazuje, że nie zamierza być jedynie biernym konsumentem technologii tworzonych gdzie indziej. Mamy ambicję, wiedzę i coraz więcej narzędzi, by aktywnie uczestniczyć w kształtowaniu przyszłości AI. I choć droga przed nami jeszcze długa, jedno jest pewne – Polacy rzeczywiście nie są gęsi i swoje AI już mają!