Polska AI już dostępna dla wszystkich. Co potrafi?
2025-02-25 14:25:51(ost. akt: 2025-02-25 14:26:31)
PLLuM to model językowy stworzony dla administracji, firm i naukowców; każdy obywatel może skorzystać z czatbotu - przekazał wicepremier i minister cyfryzacji Krzysztof Gawkowski. Resort powołał konsorcjum HIVE, które ma wdrażać modeli AI w mObywatelu i urzędach - dodał wiceminister Dariusz Standerski.
"PLUuM to model zaufany, który ma wzmacniać polską suwerenność cyfrową; jeżeli skupimy się tylko na firmach zagranicznych, amerykańskich konsorcjach, to wszyscy będziemy błądzili. Amerykańskie firmy i ich parametry to nie jest ziemia obiecana" - stwierdził wicepremier Gawkowski podczas konferencji prasowej.
Jak przekazał wiceminister cyfryzacji Dariusz Standerski, PLLuM został udostępniony na Hugging Face w formie 18 modeli, które wykorzystują od 8 do 70 miliardów parametrów.
Modele występują w dwóch wariantach: komercyjnych i niekomercyjnych, czyli naukowych - dodał dr inż. Jan Kocoń, kierownik naukowy projektu PLLuM. "Im większy model, tym mądrzejszy, ale za to bardziej "zasobożerny"; po modelach komercyjnych można spodziewać się odrobinę gorszej jakości, ale za to można je stosować w firmach; dostosowywać je do swoich potrzeb" - wyjaśnił Kocoń.
Model został też udostępniony w formie przeglądarkowej na http://pllum.clarin-pl.eu/, gdzie każdy może go przetestować - wskazali przedstawiciele resortu podczas konferencji.
"PLLuM to model oparty na autorskich polskich danych, zbudowany na jednym z największych korpusów tekstowych w kraju, ponad 100 mld słów" - podkreślił dr inż. Kocoń. Jest dostosowany do specyfiki języka polskiego oraz terminologii administracji publicznej - dodali.
Jak wskazali, projekt realizowany jest na zlecenie Ministerstwa Cyfryzacji, które jest właścicielem wyników i kontroluje rozwój PLLuM. Do tej pory w skład konsorcjum wchodziły: Politechnika Wrocławska, która była liderem projektu, Instytut Podstaw Informatyki PAN, Instytut Slawistyki PAN, Naukowa i Akademicka Sieć Komputerowa (NASK-PIB), Ośrodek Przetwarzania Informacji (OPI-PIB) oraz Uniwersytet Łódzki.
HIVE
Jak przekazał Standerski w miejsce konsorcjum PLLuM resort cyfryzacji powołał konsorcjum HIVE, do którego dołączą dwa nowe podmioty: Centralny Ośrodek Informatyki (COI) oraz Cyfronet AGH, który dysponuje najszybszym superkomputerem w Polsce. Liderem projektu został NASK - PIB - dodał.
Jak przekazał Standerski w miejsce konsorcjum PLLuM resort cyfryzacji powołał konsorcjum HIVE, do którego dołączą dwa nowe podmioty: Centralny Ośrodek Informatyki (COI) oraz Cyfronet AGH, który dysponuje najszybszym superkomputerem w Polsce. Liderem projektu został NASK - PIB - dodał.
Do zadań HIVE należeć będzie wdrożenie wirtualnego asystenta opartego o PLLuM w mObywatelu, czym ma się zająć COI oraz wdrożeniem inteligentnego asystenta w urzędach, który ma ograniczyć biurokrację i uprościć pracę urzędników - wyjaśnił wiceminister.
"Zwiększamy finansowanie (na konsorcjum- PAP) z 14 mln w roku 2024 do 19 milionów złotych w roku 2025" - wskazał Standerski.
Rozwój PLLuM to szansa na wzmocnienie konkurencyjności Polski w sektorze IT i całej gospodarce; inwestycje w sztuczną inteligencję przyczyniają się do powstawania nowych firm i produktów opartych na AI, napędzając wzrost gospodarczy - ocenili przedstawiciele resortu.
Wskazali, że dane, na których trenowany był PLLuM, zostały pozyskane w spoób etycznych; wykorzystują teksty pozyskane od właścicieli, którzy udzielili licencji konsorcjum, a także zasoby, które, zgodnie z ustawą o prawie autorskim i prawach pokrewnych oraz przepisami UE, mogą być wykorzystane do budowy w pełni otwartego modelu.
Dane w ramach konsorcjum PLLuM zbierane były od lutego 2024 r.; trenowanie modelu trwało od czerwca do września ub. r.; w październiku model był douczany, a w listopadzie optymalizowany; według pierwotnych planów miał zostać opublikowany w grudniu ub. r. (PAP)
Komentarze (0) pokaż wszystkie komentarze w serwisie
Komentarze dostępne tylko dla zalogowanych użytkowników. Zaloguj się.
Zaloguj się lub wejdź przez