
Photo by Google DeepMind on Unsplash
Cztery dni temu został opublikowany raport Google Cloud „Future of AI: Perspectives for Startups 2025", który daje wgląd w nadchodzące trendy AI. Dotyczy on głównie rynku amerykańskiego, ale trzeba przyznać, że trendy amerykańskie bardzo szybko i łatwo przenoszą się do Polski. Sztuczna inteligencja może zrewolucjonizować nie tylko istniejące modele biznesowe - wspomniane w raporcie - ale także zająć się kwestiami społecznymi, które są kluczowe dla rozwoju społeczeństwa.
Myśląc o innowacjach, należy dostrzegać korzyści nie tylko w relacji produkt–konsument, ale również w zastosowaniu AI w sektorze publicznym, co ma wpływ na poprawę jakości życia obywateli.
Według specjalistów z Google Cloud, modele AI mogą wkrótce ewoluować i silniej oddziaływać na świat fizyczny. Raviraj Jain z Lightspeed Venture Partners przewiduje, że „najbardziej znaczące zmiany technologiczne będą zachodzić w interakcji modeli AI ze światem fizycznym, szczególnie w robotyce". Raport nie wymienia wielu konkretnych rozwiązań poza robotyką, jednak potencjał jest ogromny. Najbardziej istotnym społecznie zastosowaniem robotyki mogłaby być branża budowlana, a zwłaszcza budowa tańszych domów i mieszkań - obszar, który obecnie jest mocno zaniedbywany w Polsce.
Przełomowy okres w budownictwie tanich mieszkań przypadł na lata 70. w Polsce, czyli epokę Edwarda Gierka. Wcześniejsze inwestycje z lat 60. w budowę fabryk domów, a także technologia mieszkań modularnych, czyli składanych z gotowych części (tzw. technologia wielkopłytowa - budowa mieszkań z prefabrykowanych elementów), standaryzacja konstrukcji i budowy w całym kraju pozwoliły na osiągnięcie znacznej efektywności. Dzięki temu powstały mieszkania, z których do dziś korzystają miliony Polaków.
Integracja AI z robotyką budowlaną mogłaby np. monitorować postępy prac, automatyzować procesy budowlane przez roboty sterowane AI, które pracują 24/7 bez przerw, zmęczenia czy wypadków. Sztuczna inteligencja mogłaby optymalizować zużycie materiałów, projektować budynki z większą efektywnością energetyczną oraz skrócić czas budowy. Dla społeczeństwa oznaczałoby to jedno: tańsze mieszkania, lepszą jakość wykonania i większą dostępność - co bezpośrednio adresuje jeden z głównych problemów społecznych w Polsce.
Obecnie brzmi to dość nierealne, ale w ciągu następnych 10 lat infrastruktura technologiczna będzie nierozpoznawalna w porównaniu z tym, co mamy dzisiaj. Nie chodzi mi tylko o szybsze procesory czy większą pamięć w komputerach, ale przede wszystkim o postęp w tworzeniu modeli AI. Amin Vahdat, wiceprezes Google Cloud ds. ML, systemów i AI, przewiduje, że modele takie jak Gemini 2.0 będą natywnie multimodalne — będą potrafiły jednocześnie przetwarzać tekst, obrazy, dźwięk i wideo, a ich kontekst obejmie do 2 milionów tokenów. To jak przejście od notatnika do pełnej biblioteki w jednym zapytaniu.
Nastąpić mają też znaczące zmiany w infrastrukturze systemów. Raport wskazuje na wykorzystanie sprzętu dedykowanego do AI, co pozwoli osiągnąć 10-krotnie większą wydajność. Standardowe protokoły do wymiany plików i komunikacji sieciowej (jak Samba, SFTP, NFS, TCP/UDP, HTTP) zostaną zastąpione nowymi rozwiązaniami. Raport podkreśla także rosnące znaczenie pamięci HBM (high-bandwidth memory), przejście z powietrznego na cieczowe chłodzenie układów scalonych oraz gruntowne przeprojektowanie centrów danych. Te zmiany mają potencjalnie obniżyć koszty obliczeń od 10 do nawet 100 razy, a to jest aktualnie jedną z wielu barier implementacji sztucznej inteligencji.
Niedawna premiera polskiego modelu PLLuM dowodzi, że rząd w końcu naprawia błędy i inwestuje w tego typu rozwiązania. Obecnie model jest przeznaczony do wsparcia administracji publicznej, co stanowi rozwiązanie konkretnego problemu. Pracownicy często spędzają średnio 20% czasu na szukaniu, strukturyzowaniu i podsumowywaniu istniejących informacji - a modele LLM mogą im zdecydowanie pomóc, skracając czas i automatyzując powtarzalne zadania.
Jest to szczególnie ważne w kontekście istniejącej biurokracji, która działa powoli - dokumenty, e-maile i notatki są nieustrukturyzowane. Co gdyby zastosować bazy wektorowe i semantyczne, które nie tylko umożliwiłyby szybsze wyszukiwanie informacji, ale także wyszukiwanie po ogólnym kontekście/znaczeniu, a nie tylko po słowach kluczowych, jak dzieje się obecnie?
Przyszedł mi do głowy również pomysł wyszukiwania semantycznego w bazach danych z wieloma milionami rekordów. Aktualnie optymalizacja operacji na takich bazach odbywa się najczęściej poprzez indeksowanie tabeli, FTS (Full Text Search) - jak ma to miejsce w silnikach Elasticsearch czy Meilisearch - lub zawężanie zapytań przez dodawanie warunków do zapytań SQL.
Muszę też przyznać jedno - Polska jest krajem, w którym sztuczna inteligencja gwałtownie zyskała popularność w mainstreamie. Niestety, wraz z tym boom pojawia się masa pseudoekspertów, którzy jedynie opanowali Midjourney i ChatGPT, potrafią tworzyć prompty i już uważają się za specjalistów. Niektórzy z nich są nawet zapraszani na kongresy, jak ten niedawny Kanału Zero, gdzie występują w roli ekspertów - czego przykładem była niedawna prezentacja dr hab. Aleksandry Przegalińskiej, która wyraźnie obnażyła swoje braki w wiedzy. W swoim wystąpieniu stwierdziła między innymi, że:
- „chce po drodze naprawiać to, co nie zadziałało w AI na warstwie agenta"
- „rok 2025 to rok agentów AI" oraz opisała je jako „wypuszczane w internet jako nadzorcy"
- „ostrożnie podchodzimy do tematu agentów AI"
- „mamy w Polsce 3 modele językowe, a niektórzy nie mają wcale"
Poniżej zamieszczę wyjaśnienie dla osób niezaznajomionych z AI:
- Nie można badać ukrytych warstw sieci neuronowej, a „działanie AI” nie opiera się na agencie - jest on jedynie interfejsem użytkownika dla API, które z kolei jest interfejsem dla modelu.
- Agenci AI nie są autonomicznymi bytami „wypuszczanymi" w internet - to tylko programowe nakładki, bądź zautomatyzowane workflowy kontaktujące się z API. Błędne jest traktowanie agenta jako osoby fizycznej zamiast oprogramowania.
- Trudno mówić o „ostrożnym podejściu", gdy tworzy się coraz więcej agentów AI - takich jak niedawne rozwiązania Thunderlink czy T3 Chat autorstwa Theo Browne'a. Agentów jest obecnie mnóstwo, a ich rozwój ułatwiło udostępnianie gotowych usług, np. Amazon Q, Azure czy Google AI Studio.
- W rzeczywistości Polska nie posiadała w momencie jej zaproszenia jako eksperta żadnego własnego, oryginalnego i publicznie dostępnego modelu językowego.
Łukasz Olejnik jest kolejnym przykładem osoby, która kreuje się na eksperta od sztucznej inteligencji, choć jego wypowiedzi na platformie X wskazują na brak merytorycznego przygotowania. Między innymi w swoim wpisie dotyczącym modelu LLama 3.3 błędnie określa „otwarte wagi" jako model open-source.
Kolejne braki merytoryczne widać w felietonie opublikowanym w „Dzienniku Gazecie Prawnej", gdzie stwierdza, że „po 1945 r. odeszło się od terminu wojna". Łukasz jest nie tylko przykładem osoby, która kreuje się na eksperta w sprawach AI, ale też cyberbezpieczeństwa.
Nawiązując do tego, co napisałem wcześniej, raport Google Cloud przytacza trafną wypowiedź Yoava Shohama, współzałożyciela AI21 Labs i profesora Uniwersytetu Stanford, który stwierdza: „Wczesne dni podejścia 'prompt and pray' w AI — po prostu karmienia modelu językowego promptem i liczenia na dobry wynik — już się kończą". To doskonale oddaje to, co od dawna podkreślam na różnych grupach dyskusyjnych i w przekazach publicznych: prawdziwa wartość powstaje, gdy budujesz kompletne „systemy AI", które orkiestrują wiele modeli i narzędzi, rozwijasz architekturę lub ją ulepszasz, wzbogacasz nowymi danymi i przeprowadzasz wyspecjalizowany fine-tuning albo tworzysz modele do konkretnych zastosowań.
Niestety rośnie nam liczba ekspertów od sztucznej inteligencji zajmujących się jej etyką, podczas gdy brakuje specjalistów z wiedzą techniczną. Co więcej, ani Polska, ani Unia Europejska nie mają znaczących osiągnięć w dziedzinie sztucznej inteligencji, a mimo to powstała już cała domena „nadzorowania i etyki sztucznej inteligencji". Paradoksalnie, nie mamy jeszcze czego nadzorować - najpierw musimy coś stworzyć.
Wraz z rozwojem AI oczywiście pojawiają się pytania o etykę i wpływ na rynek pracy, jednak nie musi to prowadzić do tworzenia kolejnej dziedziny „nadzoru i etyki sztucznej inteligencji”… Wbrew obawom, AI nie oznacza masowego bezrobocia - zamiast tego prawdopodobnie doprowadzi do transformacji charakteru pracy. Rutynowe, powtarzalne zadania zostaną zautomatyzowane, a w ich miejsce pojawią się nowe role wymagające kreatywności, empatii i krytycznego myślenia. Proces ten będzie wymagał wysiłku ze strony pracowników, którzy będą musieli stopniowo się przekwalifikowywać.
Raport wymienia wiele innowacji, które nas czekają lub dzieją się już teraz. Jest ich niezwykle dużo, więc wymienię tylko te najciekawsze. David Friedberg, CEO Ohalo Genetics, wskazuje, że „modele językowe genomu będą w stanie przewidzieć dokładną sekwencję DNA potrzebną dla dowolnej pożądanej cechy rośliny lub leku biologicznego, rewolucjonizując rolnictwo i zdrowie człowieka".
"Za 100 lat ludzie nie będą przyklejeni do ekranów. AI nas wyzwoli" - przewiduje Apoorv Agrawal z Altimeter Capital. Połączenie głosu, wzroku i naturalnego języka sprawi, że interakcja z technologią stanie się znacznie bardziej intuicyjna.
Matthieu Rouif, współzałożyciel Photoroom, zauważa trend: "AI pozwoli na dzielenie się znacznie większą liczbą unikalnych historii przez każdego i z każdego miejsca" Twórcy, którzy kiedyś potrzebowali wydawców, producentów i promotorów, teraz mogą wykorzystać AI jako partnera kreatywnego.
Podziel się swoją opinią!
Pamiętaj o tym, by zachować się kulturalnie dyskutując z innymi czytelnikami.
0 Komentarzy
Bądź pierwszy! Zostaw swój komentarz pod tym artykułem.