Kto pisał o wyrabianiu sobie opinii na podstawie tekstów od AI?
Ja pisałem tylko o tym, że chce się dowiedzieć, o czym jest komiks.
Ale, tak jak wskazałem wcześniej, nawet przy użyciu SI do tego celu nie można jej do końca zaufać...
AI samodzielnie nie czyta tych komiksów, bo jeszcze nie umie (obraz + tekst plus sekwencyjność). Wiec jeśli nie ma wystarczających informacji, to nie dokona streszczenia, z pustego to i Salomon nie naleje. Co do zmyślania, kwestia promptu.
Nie chodzi nawet o to, że nie dokona streszczenia, tylko o to, że jest w stanie zmyślić nieistniejące wydarzenia. A jeśli to kwestia podpowiedzi... cóż, w
jednym z cytowanych przeze mnie przykładów pytanie brzmiało tak:
In which issue of Sgt. Fury does he team up with Hansi?
ChatGPT
In the Marvel Comics universe, Sgt. Fury teams up with Hansi in "Sgt. Fury and his Howling Commandos" issue #89, published in October 1971. This issue features the Howling Commandos teaming up with Hansi, a German anti-Nazi resistance fighter, against the Nazi regime during World War II.
Tak jak pisałem wcześniej, Chat GPT za wszelką cenę chce się zgadzać z użytkownikiem, nawet gdy użytkownik się myli.
Dlatego najpierw to testuje na kilkudziesięciu komiksach, które czytałem i mogę zdiagnozować, czy AI nie pisze bzdury.
Dla mnie problem niestety polega na tym, że nawet gdy test na kilkudziesięciu komiksach wypadnie pomyślnie, to nigdy nie wiadomo, czy przy następnym pytaniu nie pojawi się jakaś halucynacja. Tego nie da się przewidzieć.
To jak pisanie, że młotek jest kiepskim narzędziem, bo można się uderzyć w głowę. Wszystko zależy od skonstruowania promptu. Polecenie w stylu "Dlaczego okładka komiksu XYZ jest kontrowersyjna?" to jest przykład jak nie należy konstruować promptu (o ile Ci na tym nie zależy). Co ciekawe, gdybyś uczniom w gimnazjum zadał taki temat wypracowania, to jak by się według Ciebie zachowali? I czy powinno się wystawić pałę, tym, którzy próbują obronić tezę z tematu?
No ale przypuśćmy, że jestem internautą i trafiam na jakiś post z trollingiem czy pomyłką, który mówi: "okładka komiksu XYZ jest kontrowersyjna". Ja nie wiem, że to trolling albo błąd i chcę się dowiedzieć więcej, więc pytam w dobrej wierze Chat GPT, czemu ta okładka jest kontrowersyjna, i on zamiast mi odpowiedzieć, że się mylę, będzie starał się stworzyć jakąś narrację, która się do mnie dopasuje. Jak ja mam stworzyć sensowne zapytanie, skoro sam nie wiem nic o tym przypadku?
Jednak jeżeli dla Ciebie SI to przydatne narzędzie, to oczywiście, jasne, że możesz go używać, każdy wybiera, co chce. Być może w jakichś obszarach, w których się nie obracam, SI jest użyteczna. Ja osobiście, póki to możliwe, wolę sam znajdować informacje i je oceniać, nawet jeśli zabierze mi to więcej czasu.