- Rozmawiamy o sztucznej inteligencji z Panią, bo niedawno obroniła Pani doktorat związany właśnie z nią. Czego dotyczył dokładnie?
- 2 października 2024 roku obroniłam moją rozprawę doktorską na Uniwersytecie Ekonomicznym we Wrocławiu pod pt.: "Transformacja danych we wspomaganiu podejmowania decyzji z wykorzystaniem głębokiego uczenia" z wyróżnieniem. Moim promotorem był dr hab. inż. Marcin Hernes, prof. Uniwersytetu Ekonomicznego we Wrocławiu (UEW), a promotorem pomocniczym dr, prof. UEW Artur Rot.
- Nawet tematu pani pracy nie jestem w stanie w pełni zrozumieć, a za chwilę w naszej rozmowie pewnie będzie jeszcze gorzej. Wróćmy jednak na chwilę do początków pani edukacji w Oławie...
(25).jpg)
Agata Kozina ze swoim doktoratem
- Gdzie się uczyłam? Chodziłam do Szkoły Podstawowej numer 5 w Oławie, bo tu mieszkam, potem do Gimnazjum nr 1 i do Liceum Ogólnokształcącego nr I im. Jana III Sobieskiego. Potem studiowałam na Uniwersytecie Ekonomicznym. Moja praca inżynierska i magisterska zostały wyróżnione, a promotor mojej magisterki zaproponował mi doktorat. Doktorat zrobiłam z innej tematyki niż praca inżynierska i magisterska, bo one dotyczyły doskonalenia procesu produkcji z wykorzystaniem narzędzi jakościowych i wykorzystania aplikacji mobilnych w zarządzaniu standardami jakości. Od zawsze interesowałam się sztuczną inteligencją, sama nauczyłam się programować. Byłam też na studiach podyplomowych na Uniwersytecie Ekonomicznym we Wrocławiu z Data Science. W 2019 roku, czyli od razu po zakończeniu studiów magisterskich złożyłam konspekt badawczy (czyli projekt indywidualnego programu badawczego moich badań doktorskich). Zostałam zaproszona na rozmowę rekrutacyjną na UEW i dostałam się do pierwszej edycji Szkoły Doktorskiej w 2019 roku na Wydziale Zarządzania w dyscyplinie: Nauki o Zarządzaniu i Jakości. Jestem autorką 30 publikacji naukowych. Teraz otrzymałam awans naukowy, więc zaraz ruszy oferta mojego seminarium. Zapraszam wszystkich studentów, którzy mają podobne do mnie zainteresowania. Chcę się dalej rozwijać naukowo i planuję robić habilitację, już zbieram nowe aktywności i piszę nowe publikacje w tym celu.
- Nie ma dnia, aby nie bombardowano nas informacjami o sztucznej inteligencji. To obecnie jeden z dyżurnych codziennych tematów, wywołujących skrajne emocje. Spróbujmy zdefiniować, czym w ogóle jest inteligencja. A czym sztuczna inteligencja. Proszę to wytłumaczyć humaniście.
- Zarówno pojęcie inteligencji jak i sztucznej inteligencji są definiowane na wiele sposobów. Dla mnie inteligencja to zdolność do rozumienia, uczenia się, rozwiązywania problemów i adaptacji do nowych sytuacji. Jest ona umiejętnością myślenia, podejmowania decyzji i wyciągania wniosków.
Sztuczna inteligencja (artificial intelligence - czyli AI) to systemy komputerowe, które naśladują ludzką inteligencję, np. uczą się na podstawie danych, rozpoznają wzorce, podejmują decyzje czy generują teksty i obrazy. AI nie myśli, jak człowiek, ale potrafi wykonywać zadania wymagające inteligencji, np. tłumaczenie języków czy analiza zdjęć, prognozy finansowe, ogólnie stanowi wsparcie podejmowania decyzji.
AI to narzędzie i swego rodzaju rewolucja, natomiast trzeba być świadomym, że to model matematyczny. Roger Penrose twierdzi, że prawdziwa inteligencja wymaga świadomości, której komputery, będące jedynie maszynami obliczeniowymi, nie posiadają. Komputery opierają się na matematyce obliczeniowej, która jest tylko jednym z wielu aspektów matematyki. Z tego powodu nie wierzy, że maszyny kiedykolwiek staną się świadome, ponieważ świadomość nie jest czymś, co można zredukować do procesów obliczeniowych. Sztuczna inteligencja, choć wykonuje złożone obliczenia, nie "rozumie" tego, co robi - działa tylko na danych, nie mając żadnej świadomości tego, czym są.
- Jaka jest różnica między uczeniem maszynowym a uczeniem głębokim? Gdzie w tym wszystkim jest popularny Chat GPT, z którego - według najnowszych danych - korzysta już polowa Polaków.
- W kontekście sztucznej inteligencji ważne są pojęcia uczenia maszynowego i uczenia głębokiego. Uczenie maszynowe (machine learning (ML)) i uczenie głębokie (deep learning (DL)) są kluczowe w SI, ponieważ pozwalają systemom samodzielnie uczyć się z danych i doskonalić swoje działanie bez potrzeby programowania każdej reguły. ChatGPT głównie wykorzystuje uczenie głębokie, które jest zaawansowaną formą uczenia maszynowego, a to z kolei jest częścią sztucznej inteligencji. Działa to w następujący sposób: model językowy został wytrenowany na ogromnych zbiorach tekstu, analizując, jakie słowa pojawiają się razem. Używa sieci neuronowych, które rozumieją kontekst i generują odpowiedzi podobne do ludzkich. Nie myśli ani nie rozumie jak człowiek, ale przewiduje najbardziej prawdopodobne słowa w odpowiedzi, bazując na wcześniejszym tekście. To dlatego ChatGPT sprawia wrażenie inteligentnego, ale w rzeczywistości to statystyka i wzorce, a nie myślenie. Został wytrenowany na ogromnych zbiorach tekstu, takich jak książki, artykuły i strony internetowe, które były publicznie dostępne do momentu zakończenia jego treningu. Podczas działania przewiduje kolejne słowa na podstawie wzorców, które zapamiętał w trakcie treningu. Wykorzystuje do tego zaawansowane sieci neuronowe, które analizują kontekst rozmowy i generują odpowiedzi najbardziej pasujące do wcześniejszego tekstu. ChatGPT nie uczy się na bieżąco z rozmów i nie zapamiętuje nowych informacji po zakończeniu sesji. Każda interakcja zaczyna się "od zera", więc jeśli ktoś wskaże błąd, model nie zapisze tej poprawki na przyszłość. Jego wiedza pochodzi wyłącznie z treningu na dużych zbiorach danych, a aktualizacje jego wiedzy wymagają ponownego przeszkolenia modelu przez OpenAI. Dlatego może wielokrotnie popełniać te same błędy, jeśli nie zostały one poprawione w procesie jego treningu. Oczywiście trwają prace nad ulepszeniem modeli SI, aby lepiej radziły sobie z błędami. Jak to się robi? Za pomocą wielu działań. Jakich?
Dodatkowy trening - gdy eksperci zauważą, że model często się myli, uczą go na nowych przykładach, żeby lepiej rozumiał dany temat.
Poprawianie odpowiedzi - jeśli wiele osób zgłasza, że odpowiedź jest błędna, twórcy modelu analizują problem i wprowadzają poprawki w kolejnych wersjach,
Łączenie z aktualnymi danymi - zamiast polegać tylko na wiedzy, którą miał podczas treningu, ChatGPT może korzystać z najnowszych informacji z internetu (np. przez wyszukiwarkę).
Lepsze rozumienie rozmowy - naukowcy pracują nad tym, aby model lepiej "słuchał" użytkownika i nie powtarzał tych samych błędów w dłuższej rozmowie.
- Pani praca doktorska dotyczyła transformacja danych we wspomaganiu podejmowania decyzji z wykorzystaniem głębokiego uczenia. O co chodzi z tą transformacją danych?
Napisz komentarz
Komentarze