Czy Polska będzie miała swojego ChataGPT? To rozwiązanie może dać nam przewagę
Czy Polska może mieć własnego ChataGPT? Nie takiego jak ten z Doliny Krzemowej, ale działającego lokalnie, bezpiecznie i w zgodzie z naszym językiem oraz prawem. W administracji już testowane są pierwsze modele, które mogą zrewolucjonizować kontakt obywatela z państwem o czym opowiedziała mi dr Agnieszka Karlińska z NASK i prelegentka na konferencji Infoshare w Gdańsku w dniach 27-28 maja.

Sztuczna inteligencja coraz odważniej wchodzi w nasze codzienne życie - generuje teksty, tłumaczy, pomaga studentom w notatkach, a urzędnikom w przetwarzaniu dokumentów. Coraz więcej osób zadaje sobie pytanie: czy Polska może mieć własny odpowiednik ChatGPT? I czy taki model będzie bezpieczny, skuteczny i użyteczny w administracji publicznej?
Dr Agnieszka Karlińska z NASK, kierowniczka projektu HIVE AI, który stanowi kontynuację projektu PLLuM i którego celem jest wdrażanie polskich modeli językowych w administracji publicznej, przekonuje, że to możliwe - choć nie w takiej formie, jaką narzucają globalne porównania. - Obecnie nie jesteśmy w stanie stworzyć modelu od zera, osiągając wyniki porównywalne do globalnych gigantów, takich jak OpenAI czy Anthropic, w szerokim zestawie zadań. Brakuje nam przede wszystkim wystarczająco dużych, wielojęzycznych zbiorów danych (mowa tutaj o bilionach słów). Nie dysponujemy też analogicznym budżetem - wyjaśnia.
To jednak nie znaczy, że polskie modele są skazane na porażkę. Wręcz przeciwnie. Tam, gdzie potrzeba precyzji językowej, rozumienia lokalnych kontekstów kulturowych, historii czy prawa, właśnie one mają przewagę. - Skupiamy się na adaptacji językowej otwartych modeli wielojęzycznych, bazując na wysokiej jakości polskich tekstach oraz oryginalnych polskojęzycznych zbiorach danych do dostrajania modeli. Dzięki temu wygrywamy w znajomości języka polskiego, historii, kultury. Modele douczane na polskich danych wypadają lepiej w benchmarkach mierzących znajomość kontekstu lokalnego niż nawet bardzo znane modele zagraniczne - podkreśla Karlińska.
Przykładem takiego sukcesu jest nowy model PLLuM o 24 miliardach parametrów, który w testach polskich kompetencji kulturowych pokonał DeepSeek V3 - chiński otwarty model językowy, który kilka miesięcy temu szturmem zdobył uwagę międzynarodowej społeczności AI ze względu na jakość generowanych odpowiedzi. To pokazuje, że adaptacja zagranicznych modeli do lokalnych warunków może dać świetne efekty, szczególnie gdy celem są zastosowania w edukacji czy administracji. A tych przybywa.
Polskie modele językowe pomogą w urzędach. Będzie łatwiej zrozumieć urzędowe pisma i przepisy prawa
W ramach projektu PLLuM powstał prototyp inteligentnego asystenta obywatelskiego, który miałby wspierać użytkowników w załatwianiu spraw urzędowych. - System ten działa w oparciu o tak zwaną architekturę RAG - wyszukuje dokumenty z konkretnej bazy wiedzy, w tym przypadku z domeny gov.pl, i na ich podstawie tworzy zrozumiałe odpowiedzi na pytania, takie jak "jak wyrobić dowód osobisty"- tłumaczy dr Karlińska. Co istotne, odpowiedzi są nie tylko syntetyczne i napisane językiem naturalnym, ale też zawierają odniesienia do konkretnych źródeł.
Takie narzędzia mają dwie ogromne zalety. Po pierwsze - można je stale aktualizować, w przeciwieństwie do modeli uczonych raz na kilka miesięcy. Po drugie - minimalizują ryzyko tzw. halucynacji, czyli generowania fałszywych informacji. To kluczowe tam, gdzie stawką jest zaufanie obywatela do państwa. A stawka jest wysoka. - Jeśli model będzie halucynował, a urzędnik nie sprawdzi wygenerowanych treści, może to prowadzić do poważnych konsekwencji i osłabienia zaufania do instytucji publicznych - ostrzega ekspertka.
Właśnie dlatego coraz więcej mówi się o potrzebie tworzenia lokalnych, bezpiecznych modeli językowych, które można uruchamiać na serwerach danego urzędu, bez ryzyka wycieku danych osobowych. Zainteresowanie administracji publicznej rośnie z miesiąca na miesiąc - również dzięki temu, że świadomość zagrożeń i potencjału tych narzędzi staje się coraz powszechniejsza.
W najbliższym czasie modele PLLuM zostaną zintegrowane z aplikacją mObywatel, jako chatbot do kontaktu z obywatelami. Nad tym rozwiązaniem pracuje Centralny Ośrodek Informatyki, a zespół projektu HIVE AI odpowiada za dostosowanie modeli językowych i wsparcie przy wdrożeniu. Celem jest stworzenie narzędzia, które pomoże użytkownikom w załatwianiu najczęstszych spraw urzędowych w sposób szybki, bezpieczny i zrozumiały. Równolegle trwają prace nad implementacją modeli PLLuM w wybranych ministerstwach i urzędach.
Jednym z ciekawszych zastosowań, o których mówi badaczka, jest upraszczanie języka urzędowego - tzw. plain language. W Polsce temat ten zyskuje na znaczeniu, a modele językowe mogą w tym realnie pomóc: przekształcając skomplikowany, prawniczy tekst na taki, który zrozumie przeciętny obywatel. To jedno z wielu konkretnych zadań, do których polskie modele są adaptowane. - Uczymy je tworzenia maili, pism urzędowych, parafrazowania tekstów, tłumaczenia i streszczania dokumentów, a także wielu innych zadań - dodaje dr Agnieszka Karlińska.
O wykorzystaniu PLLuM w administracji Agnieszka Karlińska będzie opowiadała także na konferencji Infoshare w Gdańsku w dniach 27-28 maja.
Sztuczna inteligencja może posłużyć nie tylko to informowania, ale też dezinformacji
Mimo rosnącego entuzjazmu, nadal potrzebna jest ostrożność - szczególnie w kontekście dezinformacji. Modele językowe mogą być wykorzystywane do masowego tworzenia fake newsów, co budzi niepokój zarówno wśród badaczy, jak i instytucji publicznych. Choć popularne modele, takie jak ChatGPT, są wyposażone w mechanizmy zabezpieczające (np. filtrowanie treści), nadal możliwe jest ich dostosowanie do nielegalnych celów. - Treści generowane przez AI coraz trudniej odróżnić od prawdziwych. To nie są już sztucznie brzmiące teksty - to są pełnoprawne, spójne komunikaty, które mogą być wykorzystywane do manipulacji - mówi ekspertka z NASK. - Zaletą lokalnych modeli, takich jak PLLuM, jest pełna kontrola nad każdym etapem ich budowy. Dzięki temu możliwe jest identyfikowanie potencjalnych luk czy zagrożeń i wprowadzenie mechanizmów zabezpieczających - dodaje.
W tym kontekście kluczowe staje się nie tylko odpowiednie zabezpieczenie modeli, ale i edukacja użytkowników.
Tymczasem w Polsce temat AI wciąż raczkuje w programach edukacyjnych. Brakuje warsztatów, przedmiotów i kursów na poziomie szkół i uczelni. - Na studiach nie ma zajęć z korzystania z generatywnej sztucznej inteligencji, nie uczymy promptowania. Nawet studenci kierunków humanistycznych, które wymagają bardzo szerokiej pracy z tekstem, rzadko wykorzystują potencjał narzędzi takich jak ChatGPT. A przecież mogliby, chociażby do korekty tekstów, robienia notatek czy streszczeń - zauważa badaczka.
Choć więc Polska nie stworzy dziś ChatGPT od zera, może zbudować coś innego - własne, dostosowane do lokalnych potrzeb narzędzia AI, które będą bezpieczne, skuteczne i osadzone w polskiej kulturze i języku. To właśnie taki kierunek przyjęto w projektach PLLuM i HIVE AI. Zespół dr Karlińskiej nie ściga się z OpenAI, Google czy Anthropic. Zamiast tego skupia się na praktycznych wdrożeniach. I właśnie to jest jego mocną stroną.