08:50–09:00 — Otwarcie konferencji, Aula A1
dr hab. Andrzej Dąbrowski, prof. UKEN
dr hab. Michał Rogoż, prof. UKEN
09:00–10:00 — Prof. dr hab. Włodzisław Duch (UMK) Wielkie modele AI - coraz bliżej ludzkiego umysłu
10:00–11:15 (3 wystąpienia, każde 25 min)
Moderator: Marcin Urbaniak
10:00–10:25 — Robert Poczobut (Uniwersytet w Białymstoku)
Problem świadomości maszynowej: Czy możliwe są odczuwające roboty?
Abstrakt
Dynamiczny rozwój sztucznej inteligencji i robotyki rodzi pytanie, czy zaawansowane systemy mogą posiadać zdolność subiektywnego doświadczania, czy też jedynie symulują procesy poznawczo-emocjonalne. Problem „odczuwających robotów” dotyczy nie tylko aspektów technicznych, jak implementacja modeli percepcji, emocji czy pamięci, ale przede wszystkim zagadnień filozoficznych i etycznych. Kluczowe pozostaje rozróżnienie między zachowaniami funkcjonalnie przypominającymi świadomość a faktycznym istnieniem fenomenalnych qualiów. W literaturze wskazuje się na konieczność interdyscyplinarnego podejścia: z jednej strony rozwijane są modele teoretyczne (IIT, GWT, GNWT, HOT), z drugiej – podkreśla się odpowiedzialność badaczy i projektantów wobec potencjalnych implikacji moralnych i prawnych. Celem wystąpienia jest analiza najnowszych stanowisk dotyczących możliwości istnienia świadomości maszynowej (zwłaszcza w odniesieniu do tzw. odczuwających robotów) oraz refleksja nad konsekwencjami przypisywania robotom zdolności odczuwania dla nauki, prawa i społeczeństwa.
10:25–10:50 — Jakub Socha (Uniwersytet Jagielloński)
Świadomość sztucznej inteligencji: możliwości i konsekwencje
Abstrakt
Dynamiczny rozwój sztucznej inteligencji – zwłaszcza dużych modeli językowych – oraz pojawienie się u nich nowych, niespodziewanych zdolności, w połączeniu z rosnącym wpływem SI na nasz świat, sprawiają, że coraz większej mocy nabierają pytania o możliwość uzyskania przez nią świadomości. Choć obecna nauka o świadomości nie daje definitywnych odpowiedzi w tej kwestii, to analiza wskazywanych przez nią problemów i szans, może pomóc w przewidywaniu dalszego rozwoju SI, oraz lepiej przygotować się na związane z nim wyzwania moralne.
Celem wystąpienia jest uporządkowane przedstawienie zagadnienia świadomości SI: rozważam wybrane z literatury zagrożenia i szanse dla możliwości posiadania świadomości przez obecną i przyszłą SI, a także wskazuję na wyłaniające się z tej dyskusji wyzwania etyczne. Przedstawiam wskazywane w teoriach świadomości potencjalne problemy dotyczące budowy inteligentnych maszyn i sposobów przetwarzania przez nie informacji. Szczególną uwagę poświęcam dużym modelom językowym i ograniczeniom ich obecnej architektury. Jednocześnie wskazuję szanse dla powstania świadomej SI: poprzez samoistną emergencję lub celowe zaprojektowanie.
W dalszej części rozważam innego rodzaju pytania, dotyczące kwestii rozpoznawania świadomości u SI. SI posiadającej świadomość należy się inny status moralny niż pozbawionym jej systemom. Niepewność oceny, czy dane SI posiadają świadomość, grozi zarówno ich niewłaściwym traktowaniem, jak i powstawaniem poważnych podziałów społecznych.
10:50-11:30 Dłuższa przerwa kawowa
11:30–12:45 (3 wystąpienia, każde 25 min)
Moderator: Stanisław Ruczaj
11:30–11:55 — Mateusz Penczek (Uniwersytet Śląski)
Zagrożenia dla autonomii decyzji związane ze sztuczną inteligencją
Abstrakt
Zgodnie z klasycznym już ujęciem decyzja autonomiczna to decyzja podjęta intencjonalnie, świadomie i bez wpływu czynników ograniczających jej dobrowolność. Inaczej mówiąc, jest to decyzja podjęta przez człowieka umyślnie, w warunkach dostępu do wszystkich informacji mających znaczenie dla treści tej decyzji oraz bez wpływu na jej treść takich czynników jak przymus, manipulacja, czy nadmierna perswazja. Nie ulega wątpliwości, że sztuczna inteligencja może wspomagać autonomiczne podejmowanie decyzji, np. ułatwiając dostęp do informacji ważnych dla podejmowanej decyzji, a także ułatwiając właściwe ich rozumienie. Jednocześnie jednak wskutek swojej selektywności, a także podatności na błędy i uproszczenia może nam ona ten dostęp do informacji i ich właściwe rozumienie istotnie ograniczać. Co więcej, może ona także służyć jako narzędzie wpływania na treść decyzji drogą manipulacji lub perswazji. Dzięki swoim wadom może więc ona ułatwiać nieuprawnionym do tego podmiotom dokonywanie etycznie nieusprawiedliwionych paternalistycznych ingerencji w nasze wybory. Celem wystąpienia będzie analiza wskazanych właśnie zagrożeń dla autonomicznego podejmowania decyzji.
11:55–12:20 — Michał Dawid Żmuda (Uniwersytet Rzeszowski)
A-hermeneutyczne modele językowe: dekonstrukcja pisma i człowieka
Abstrakt
Stawiam tezę, że duże modele językowe przyśpieszają rozpad hermeneutycznej episteme, która rozdzielała rozumny umysł od bezrozumnego automatu. Moja metoda badawcza wywodzi się z prac M. Foucaulta, F. Kittlera, B. Siegerta i analizuje materialność mediów jako czynnik współtworzący wiedzę i dyskursy. Porównuję techniczne aspekty wielkich modeli językowych do innych projektów technicznych: krosna żakardowego, telegrafu, tabulatora elektrycznego. Schemat działania tych urządzeń objaśnia ideowe założenia współczesnych modeli językowych: wszystkie „tną” wprowadzony materiał tekstowy i przekładają go na maszynową dyskretyzację (np. kart perforowanych lub ektromagnetycznych sygnałów), zmieniając logikę pisma ludzkiego na logikę maszyny. Kluczowym dla zrozumienia tego procesu jest dla mnie artykuł R. V. L. Hartleya „Transmission of Information”, w którym inżynier dowodzi, że przetwarzanie tekstu przez maszyny jest procesem bezrozumnym. Postuluje on tym samym: „zignorujmy problem interpretacji”, redefiniując komunikację jako proces a-hermeneutyczny. Ten projekt epistemiczny funkcjonuje do dziś (m.in. za sprawą teorii Claude’a Shannona) i funduje konstrukcję dużych modeli językowych. Twierdzę więc, że pojawianie się sztucznej inteligencji związane jest z dekonstrukcję kultury, w której pismo było ściśle powiązane z kategorią ludzkiego umysłu. Ta dekonstrukcja prowadzi do redefinicji takich kategorii jak człowiek i rozumienie. Staną się one niepewne, najpewniej będą wymagały porzucenia.
12:20-12:45 — Klaudia Jurkowska (Instytut Psychologii, UJ / Instytut Religioznawstwa, UJ)
Efekt Elizy – czyli o tym, jak ewolucja nie przygotowała nas na spotkanie z AI
Abstrakt
Efekt Elizy jest zjawiskiem psychologicznym, które polega na tym, że ludzie przypisują programom komputerowym inteligencję, zrozumienie czy intencje, mimo że te systemy działają w rzeczywistości na bardzo prostych zasadach. Efekt Elizy ujawnia naturalną tendencję ludzi do antropomorfizacji poprzez traktowanie maszyn tak, jakby miały ludzkie cechy. Wyjaśnienia można szukać w procesie ewolucji człowieka. Ludzki mózg został ukształtowany w świecie, gdzie rozmówcą zawsze był inny człowiek, dlatego łatwo dajemy się zwieść powierzchownym oznakom „rozmowy”. Istnienie AI jest typowo współczesnym zjawiskiem, dlatego umysł nie jest jeszcze przygotowany ewolucyjnie na kontakt z sztuczną inteligencją.
Pewne mechanizmy poznawcze, np. heurystyki, teoria umysłu czy przypisywanie intencjonalności, sprawiają, że w pewnych kontekstach, człowiek podatny jest na iluzje rozmowy z sztuczną inteligencją. Doskonale to ilustruje to test Turinga, którego celem jest sprawdzenie, czy AI potrafi tak dobrze naśladować rozmowę człowieka, że nie da się jej od niego odróżnić.
Celem referatu jest refleksja nad tym, w jaki sposób ewolucja i procesy poznawcze wpływają na postrzeganie i praktyki komunikacyjne w relacji z AI. Poruszony zostanie temat psychologicznych konsekwencji szybkiego rozwoju AI i chatbotów. Analiza zawiera też omówienie tego, czy w ogóle i jak można wykształcić w sobie nowe kompetencje poznawcze, które pozwolą świadomie rozmawiać z AI, wiedząc że ona nam nigdy ,,świadomie’’ nie odpowie.
12:45-13:45 Przerwa obiadowa
13:45-15:25 (4 wystąpienia, każde 25 min)
Moderator: Anna Sarosz-Kaszbulasz
13:45–14:10 — Filip Stawski (Uniwersytet Kazimierza Wielkiego w Bydgoszczy)
Sztuczna inteligencja w diagnostyce – narzędzie przyszłości czy złudzenie obiektywności?
Abstrakt
Celem referatu jest analiza ograniczeń związanych z wykorzystaniem sztucznej inteligencji w diagnostyce psychologicznej. Na styku nauki oraz praktyki psychologicznej i psychiatrycznej coraz częściej rozwijane są projekty, których ambicją jest doskonalenie metod diagnostycznych z użyciem algorytmów uczenia maszynowego. Rozwiązania te wykazują potencjał w zakresie wczesnego wykrywania zaburzeń, identyfikacji rzadkich jednostek klinicznych czy uwzględniania zmiennych trudnych do uchwycenia w standardowej praktyce diagnostycznej. Ich zastosowanie zakłada jednak istnienie obiektywnego, mierzalnego stanu psychofizjologicznego, który mógłby pełnić rolę markera zaburzenia. Tymczasem natura zaburzeń psychicznych ma charakter szczególny – ich rozpoznanie i przebieg są silnie powiązane z kontekstem środowiskowym, który współtworzy mechanizmy leżące u podstaw zaburzenia. Intensywność objawów, dynamika oraz samo istnienie zaburzenia są w znacznym stopniu uwarunkowane czynnikami społecznymi i kulturowymi. To właśnie ta zależność, a nie ograniczenia technologiczne, stanowi główną barierę dla jednoznacznego i obiektywnego zastosowania sztucznej inteligencji w diagnostyce psychologicznej. Referat ma na celu krytyczną refleksję nad tym napięciem, wskazując zarówno na możliwości, jak i fundamentalne ograniczenia technologii w kontekście złożonej ontologii zaburzeń psychicznych.
14:10–14:35 — Tomasz Walczyk (Uniwersytet Marii Curie-Skłodowskiej)
Granice automatyzacji poznania – epistemologiczne wyzwania generatywnej sztucznej inteligencji
Abstrakt
Rozwój generatywnej sztucznej inteligencji otwiera nowe perspektywy dla automatyzacji procesów poznawczych, a zarazem skłania do stawiania pytań o daleko idące modyfikacje w obrębie ludzkiego poznania. Zjawiska takie jak halucynacje modeli językowych, brak transparentności mechanizmów decyzyjnych i danych treningowych czy łatwość cyfrowej reprodukcji dezinformacji mogą skutecznie podważać rzetelność procesów generowania i pozyskiwania informacji oraz utrudniać ocenę ich wiarygodności. Wystąpienie podejmuje problem automatyzacji poznania w kontekście rosnącego znaczenia algorytmów. Analiza zostanie osadzona w perspektywie reliabilizmu i epistemologii rozszerzonej, które dostarczają użytecznych narzędzi do refleksji nad wskazanymi wyzwaniami. Złożoność i dynamika współczesnej infosfery wymagają wypracowania skutecznych metod gwarantujących przejrzystość stosowanych narzędzi oraz wytycznych dotyczących odpowiedzialnego korzystania z generatywnej sztucznej inteligencji.
14:35–15:00 — Bartosz Danisiewicz (Uniwersytet Warszawski, Kolegium MISH UW)
Algorytm zamiast empatii – szanse i zagrożenia używania AI w zdrowiu psychicznym
Abstrakt
Rosnące zapotrzebowanie na specjalistów w zakresie zdrowia psychicznego sprawia, że nawet 70% osób potrzebujących pomocy nie otrzymuje jej wcale (WHO, 2021). W tej luce coraz częściej pojawiają się narzędzia oparte na sztucznej inteligencji – chatboty i duże modele językowe – które zaczynają pełnić rolę terapeutów na zawołanie. Badania pokazują, że generowane przez nie wypowiedzi bywają oceniane jako bardziej wspierające niż odpowiedzi profesjonalnych terapeutów (Hatch i in., 2025), a aplikacje takie jak Wysa czy MoodFit mogą realnie zmniejszać objawy depresyjne (Inkster i in., 2018). Jednak entuzjazm miesza się z pytaniami z zakresu etyki, neurobiologii i filozofii. Czy AI potrafi stawiać poprawne diagnozy? Czy nadmierne użycie i zaufanie do sztucznej inteligencji prowadzi do zjawiska samodiagnozy (Vimbarti, Kairupan, & Tallei, 2024)? Czy algorytmy nie pogłębiają uprzedzeń wobec mniejszości (Bouguettaya, Stuart, & Aboujaoude, 2025)? I przede wszystkim czy maszyna jest w stanie zastąpić empatyczny kontakt „Ja–Ty”, o którym pisał Buber (1958)? Podczas wystąpienia przedstawię zarówno szansę, jak i zagrożenia wykorzystania AI w psychoterapii, od etycznych i prawnych wyzwań, po pytanie o granice symulacji empatii.
15:00–15:25 — Mateusz Tofilski (Uniwersytet Śląski w Katowicach)
AI i technologie cyfrowe jako elementy środowiska edukacyjnego – perspektywa enaktywistyczna
Abstrakt
Jednym z istotnych wymiarów współczesnej debaty o społecznych konsekwencjach rozwoju technologii — w szczególności sztucznej inteligencji (AI) — jest pytanie o jej miejsce i rosnącą rolę w edukacji. Referat stanowi próbę analizy tego zjawiska w nurcie tzw. edukacji ucieleśnionej. Jest to podejście podkreślające rolę środowiska w kształceniu i traktujące edukację jako proces kształtowania pola potencjalnych interakcji uczniów z ich otoczeniem (również cyfrowym). Zgodnie z myślą Lawrence’a Shapiro, iż „nauczanie w stylu starej szkoły [...] powinno zostać zastąpione metodą nauczania, która uznaje i wykorzystuje wpływ ciała i środowiska na procesy poznawcze” (Shapiro, 2022: IX). W ramach wystąpienia zarysowane zostaną teoretyczne różnice pomiędzy interpretacją omawianego zjawiska z perspektywy radykalnego ucieleśnienia i enaktywizmu, w którym AI staje się istotnym elementem środowiska cyfrowego i procesu sensotwórczości w interakcji z agentem, od idei umysłu rozszerzonego, która w swoich funkcjonalistycznych założeniach bywa łączona z bardziej transhumanistyczną wizją przyszłości. Na bazie tak zarysowanych ram teoretycznych, zaprezentowane zostaną realne oraz potencjalne konsekwencje rozwoju AI w kontekście procesu kształcenia. Referat będzie opierał się na filozoficznej analizie opisywanego zjawiska oraz rzeczywistych przykładach wykorzystania narzędzi cyfrowych opartych o sztuczną inteligencję w edukacji, zarówno stacjonarnej jak i zdalnej.
15:25–15:40 — krótka przerwa kawowa
15:40–17:45 (5 wystąpień, każde 25 min)
Moderator: Tomasz Roman Tarnawski
15:40–16:05 — Adam Trybus (Instytut Filozofii, Uniwersytet Jagielloński)
Czy czat może być racjonalny? Systemy LLM a logika
Abstrakt
Od mniej więcej dwóch lat na całym świecie trwają gorączkowe prace nad tak zwanymi modelami rozumującymi (reasoning models), które mają za zadanie usprawnić spójność i jakość odpowiedzi podawanych przez wcześniejsze iteracje takich systemów. Pozostaje kwestią otwartą, czy nowe systemy w pełni rozwiązują raportowane problemy modeli wcześniejszych, niezaprzeczalnie jednak jakość odpowiedzi generowanych przez modele rozumujące jest dużo wyższa. Co to jednak znaczy, że model rozumuje? Najczęściej „trenuje się” model, by wykorzystywał technikę chain-of-thought (znaną z dobrych praktyk w prompt engineering). Dodatkowo wzmacnia się również wykorzystanie zwrotów, które i my, ludzie wykorzystujemy podczas praktyk tak zwanego analitycznego i krytycznego myślenia. Te proste, wydawałoby się, tricki w połączeniu z ciągłym poszerzaniem bazy treningowej tych systemów pozwalają na przeskok jakościowy w generowanych odpowiedziach. Po dwóch latach wysiłków nad stworzeniem modeli rozumujących, pomimo niezaprzeczalnych osiągnięć, widać wciąż jednak wiele niedociągnięć, szczególnie z punktu widzenia nauki o rozumowaniu, w tym logiki formalnej. W prezentacji przedstawię proces trenowania w rozumowaniu Bielika, jednego z polskich systemów LLM. Punktem skupienia będą prace nad benchmarkiem dla tego systemu, którego celem końcowym jest stworzenie nowej wersji, lepiej rozumującego Bielika-R.
16:05–16:30 — Agnieszka Pastuła (Centrum Innowacji i Badań Prozdrowotnej i Bezpiecznej Żywności, UR Kraków)
Inteligentna onkologia – nadzieją na usprawnioną diagnostykę i leczenie nowotworów
Abstrakt
Sztuczna inteligencja (AI) może zrewolucjonizować medycynę. Celem niniejszej pracy jest przegląd literatury na temat potencjalnej roli AI w onkologii (tzw. inteligentna onkologia). Badania wykazały, iż AI może służyć jako narzędzie do diagnostyki nowotworów (np. nowotworów prostaty), narzędzie monitorujące w chirurgii robotycznej oraz narzędzie uzupełniające w obrazowaniu ultrasonograficznym (USG) w onkologii ginekologicznej. Ponadto, AI oferuje wsparcie lekarzy przy projektowaniu i prowadzeniu badań klinicznych. Poza tym, AI może odciążyć lekarzy w zadaniach administracyjnych, a zaoszczędzony czas umożliwi lekarzowi poświęcenie większej ilości czasu na jednego pacjenta lub przyjęcie większej liczby pacjentów. Wyzwania w zastosowaniu AI w onkologii obejmują m. in. ograniczenia operacyjne i techniczne narzędzi AI oraz kwestia bezpieczeństwa danych medycznych. Jednym z wyzwań jest również ograniczona różnorodność zbiorów danych (np. grupy etniczne), które są używane do trenowania modeli AI, co utrudnia zastosowanie AI u pacjentów z grup niedostatecznie reprezentowanych. Podsumowując, badania wskazują, iż wdrożenie AI do onkologii umożliwiłoby dokładniejszą diagnostykę, bardziej precyzyjne procedury w chirurgii robotycznej i ułatwiłoby badania kliniczne. Dzięki AI opieka onkologiczna może być dostępna dla szerszego grona ludzi.
16:30–16:55 — Adam Tyska (student UKEN)
Rozumowania logiczne w LLM
Abstrakt
Celem badania było sprawdzenie, w jaki sposób różne duże modele językowe (LLM) radzą sobie z wnioskowaniem warunkowym w kontekście wielojęzycznym. Analizie poddano pięć modeli: ChatGPT-4.0, ChatGPT-4.0 Mini, Claude Sonnet 3.5, Gemini 1.5 Flash oraz DeepSeek v3. Modele otrzymały zestaw pytań logicznych obejmujących m.in. modus ponens, modus tollens, sylogizmy rozłączające i inne typy rozumowań, przygotowanych w czterech językach: angielskim, polskim, niemieckim i włoskim. Odpowiedzi ograniczono do formatu „tak/nie”, co pozwoliło na jednoznaczną ocenę poprawności. Wyniki wskazują na istotne różnice zarówno między modelami, jak i językami. Najlepszą skuteczność osiągnął Claude Sonnet 3.5 (100%), a najniższą Gemini 1.5 Flash (87,14%), co pokazuje rozpiętość wyników na poziomie 12,86 punktów procentowych. Z perspektywy językowej najdokładniejsze były odpowiedzi w języku angielskim (97,50%), a najsłabsze we włoskim (89,64%). Zaobserwowano także pojedyncze anomalie, np. lepsze wyniki ChatGPT-4.0 Mini niż pełnej wersji w języku niemieckim czy tendencję Geminiego do generowania rozwiniętych wyjaśnień mimo instrukcji. Badanie wpisuje się w rozwijającą się dziedzinę psychologii maszynowej, koncentrującą się na obserwowalnym zachowaniu modeli. Uzyskane wyniki podkreślają znaczenie języka w ocenie zdolności logicznego rozumowania LLM oraz wskazują na potrzebę dalszych badań porównawczych, również z udziałem ludzi, w celu pełniejszego zrozumienia ich ograniczeń i możliwości.
16:55–17:20 — Barbara Sitko (Uniwersytet Papieski Jana Pawła II w Krakowie) & Przemysław Pawelec (Uniwersytet Rzeszowski)
Definiowanie w procesie badawczym w aspekcie AI i Human-in-the-Loop. Zarys problematyki
Abstrakt
Sztuczna inteligencja w coraz szerszym zakresie wykorzystywana jest w procesach badawczych prowadzonych m.in. w ramach nauk społecznych. Przykładowo, definiowanie dokonywane jest w oparciu o treści generowane przez AI, a nie jest tworzone przez rzeczywistych badaczy. Ma to istotne znaczenie, ponieważ, dla przykładu, nauki społeczne nie opierają się jedynie na danych liczbowych, lecz także uwzględniają podejście jakościowe zwierające tzw. ,,pierwiastek humanistyczny”. Schemat procesu badawczego zaproponowany przez Earla Bubbie’go a wykorzystywany w naukach społecznych zwraca uwagę na rolę kontekstu przyjętych pojęć w rozwiązywaniu i wyjaśnianiu problemów badawczych. Akcentowana jest zatem rola badacza jako ,,osoby rozumiejącej” zachodzące procesy i brzmienie towarzyszących im pojęć, w przeciwieństwie do AI, takiej umiejętności nie posiadającej. Stąd też istotnym pozostaje problem jej roli na tak wczesnych etapach wspomnianego procesu. Celem niniejszego referatu jest wskazanie elementów obecnej w literaturze przedmiotu koncepcji Human-in-the-Loop, charakteryzującej się tworzeniem ,,współpracy” pomiędzy człowiekiem a maszyną. Przeprowadzona charakterystyka skupiać się będzie na wspomnianym wcześniej definiowaniu przedmiotu badania.
17:20-17:45 — Jakub Figura (Uniwersytet Jagielloński)
W poszukiwaniu ram prawnych dla problemu halucynacji dużych modeli językowych
Abstrakt
Wystąpienie będzie poświęcone problemowi halucynacji dużych modeli językowych (ang. large language model, dalej LLM) w perspektywie prawnej. Na początku przybliżę możliwe przyczyny tego zjawiska oraz wskażę na możliwe technologiczne sposoby jego ograniczania. Następnie przedstawię analizę trzech przypadków, które będą mogły zostać poddane odmiennym standardom prawnej ewaluacji. Celem analizy będzie przedstawienie w jakich sytuacjach i na kim ciążą obowiązki minimalizowania ryzyka związanego z halucynacjami. Pierwszy przypadek będzie dotyczyć zastosowania LLMów przez podmioty profesjonalne. Przybliżę w tym zakresie rozwiązanie normatywne dotyczące przesłanek zastosowania sztucznej inteligencji przez lekarzy oraz rekomendację stworzone przez Krajową Izbę Radców Prawnych, a także orzeczenie Mata v. Avianca. Drugi przypadek będzie dotyczyć występowania błędów chatbotów stosowanych w ramach narzędzi wspierających obsługę klienta w serwisach internetowych. Argumentacja prawna będzie opierać się na wnioskach z orzeczenia Moffatt v Air Canada. Ostatni przypadek będzie dotyczyć analizy obowiązków dostawców systemów AI w sytuacji, w której LLM w wyniku halucynacji doprowadził do zagrożenia życia i zdrowia człowieka. Punktem odniesienie będzie tutaj AI Act. Na tej podstawię zrekonstruowane zostaną proponowane ramy prawne ograniczania ryzykownych zdarzeń związanych z halucynacjami LLMów.
17:45–18:00 — krótka przerwa kawowa
18:00–19:00
Moderator: dr Justyna Kopczyńska
uczestnicy dyskusji "Sztuczna inteligencja a przyszłość społeczeństwa"
prof. dr hab. Włodzisław Duch, prof. dr hab. Piotr Durka
19:00–19:15