Wartość dodana z ze stosowania LLM w organizacji i jak się do tego przygotować od strony danych. Co można, a czego nie można tutaj zautomatyzować.
Duże Modele Językowe, czyli Large Language Models (LLM) rozpalają wyobraźnię opinii publicznej. Dlaczego? Bo swoim działaniem najbardziej przypominają sposób działania człowieka. O ile uczenie maszynowe jest stosowane od dekad w przemyśle, czy analizie dużych zbiorów danych i nie budzi takich emocji, to możliwość komunikacji z komputerem językiem naturalnym jest spełnieniem marzeń z filmów science-fiction.
Wymyślony w latach 50. ubiegłego wieku słynny test Turinga miał zweryfikować zdolność maszyn do „myślenia” w sposób podobny do ludzkiego. Jeżeli człowiek nie był w stanie rozpoznać, że prowadzi konwersację z maszyną, miało to oznaczać, że działa ona w sposób podobny do ludzkiego, czyli potrafi się sprawnie posługiwać językiem naturalnym. Z punktu widzenia świata technologii sprzed 70 lat było to bardzo trudne zadanie. I faktycznie, dojście do takiego poziomu zaawansowania zajęło kilka dekad. Dzisiejsze LLM-y radzą sobie z testem Turinga bezproblemowo, ale trzeba przyznać, że dopiero trzecia dekada XXI wieku przyniosła taki poziom zaawansowania.
Widząc niesamowity potencjał w takich narzędziach jak np. ChatGPT, Claude, czy Gemini organizacje coraz chętniej je wdrażają. Co więcej, bywa tak, że pracownicy sami sięgają po ich konsumenckie wersje, a wtedy służby IT nawet nie wiedzą, że AI już działa w ich organizacji. Stopień zaawansowania LLM powoduje, że wdrażający stają przed zupełnie nowymi wyzwaniami z obszaru data governance i data management. O tych wyzwaniach i o tym jak sobie z nimi radzić będziemy rozmawiać podczas wrześniowego spotkania CDO Forum Club.