Kilka tygodni temu „Presserwis” opublikował informację o eksperymencie ze sztuczną inteligencją, która czyta biuletyn informacyjny o wojnie w Ukrainie głosem Jarosława Kuźniara. Kuźniar mówił nam wtedy o szczegółach projektu i o konieczności oznaczania takich materiałów sygnaturą potwierdzającą, że zostały stworzone z pomocą AI.
„AI poradziła sobie świetnie”
Podobną opinię wyraża Bolesław Breczko z Wyborcza.biz, który opublikował tekst stworzony przez AI. „Nie chciałem nikogo wprowadzać w błąd, oszukać, uważam, że teksty pisane przez AI powinny być wyraźnie oznaczane. Tylko w ten sposób mogłem sprawdzić, czy ktoś rozpozna, że materiał nie jest stworzony przez człowieka” – napisał w poniedziałek, objaśniając szczegóły swojego eksperymentu.
Jego koledzy redaktorzy, przez których ręce tekst przeszedł, stwierdzili, że całość była zachowawcza i napisana w stylu studenta I roku dziennikarstwa. Tekst był jednak poprawny i jako taki przeszedł pozytywnie redaktorską weryfikację.
– Wykorzystuję AI do różnych celów, ale korzystam z komercyjnej wersji, która nie ma skłonności do konfabulacji – mówi poznański dziennikarz Krzysztof M. Kaźmierczak, członek rady programowej PAP. – Przyznam, że jestem pod wielkim wrażeniem wersji GPT-4, czyli komercyjnej. Sprawdza się w wielu zastosowaniach, także dziennikarskich. Jest świetna do opracowań, porównań, tłumaczeń, z którymi radzi sobie lepiej niż translator Google, korekty błędów.
Kilka dni temu Kaźmierczak spytał ChatGPT-4 o zestawienie 10 najlepszych filmów sf. – Gdybym o to samo spytał Google, dostałbym linki do istniejących i dość sztampowych rankingów. AI poradziła sobie świetnie, porównując wszystkie istniejące bazy filmowe – podkreśla.
Dodaje też, że AI dobrze sprawdza się przy przeszukiwaniu archiwaliów, z którymi on sam pracuje. – Uważam, że niebawem będzie to narzędzie, z którego wszyscy będziemy korzystać, narzędzie wspomagające m.in. research.
Problem ze sztuczną inteligencją w dziennikarstwie
Kaźmierczak dodaje, że obecnie pracuje nad wykorzystaniem AI w serwisie poświęconym sprawie zabójstwa poznańskiego dziennikarza Jarosława Ziętary.
O własnych doświadczeniach z AI opowiada też Jarosław Rybak, pisarz i dziennikarz zajmujący się tematyką militarną, któremu ChatGPT wygenerował biogram zupełnie niezgodny z rzeczywistością. – Ta powszechnie dostępna, bezpłatna wersja na razie nie nadaje się do zbierania czy weryfikacji danych. Wpisałem kilka nazwisk znajomych z dorobkiem naukowym i licznymi publikacjami. To powinno ułatwić AI zbieranie informacji. W każdym wypadku błędy były poważne. W skrajnym – osobie o niepowtarzalnym, dwuczłonowym nazwisku całkowicie zmieniono obszar zainteresowań (z archeologii na chemię), dorobek, tytuł naukowy i miejsce pracy.
Paweł Nowacki, niezależny ekspert rynku mediów, uważa, że problemu ze sztuczną inteligencją w dziennikarstwie nie ma, dopóki nie dojdzie się do kwestii praw autorskich i odpowiedzialności za opublikowane treści.
Kaźmierczak: – Jeżeli „Wyborcza” opublikowała na swoich stronach tekst stworzony przez AI, to wiadomo – AI za tekst pozwać nie można. Natomiast za samą publikację, zgodnie z prawem prasowym, odpowiada redaktor naczelny i wydawcy, więc jest kogo pozywać. Nie da się zasłonić tym, że tekst stworzyła sztuczna inteligencja.
Za treści odpowiadają dziennikarz i redakcja
Mecenas Michał Kibil z kancelarii DGTL, specjalizujący się w prawnych kwestiach zastosowania sztucznej inteligencji, rozwija temat.
– Dopóki pod maszynowo wyprodukowanym tekstem podpisuje się dziennikarz, to on ponosi odpowiedzialność za efekt pracy. Możemy to porównać z dowolnym narzędziem, które pozwoli nam na wygenerowanie czegoś niezgodnego z prawem – mówi Kibil, podając przykład pistoletu wydrukowanego na drukarce 3D, którego można użyć jak regularnej broni.
– To nie ściąga z nas odpowiedzialności. Każdy mógłby się tłumaczyć, że nie jest producentem broni, a samą broń wydrukowała drukarka. Tak samo jest z tekstem wygenerowanym przez AI. Jeżeli taki tekst naruszałby czyjeś prawa autorskie, był nierzetelny w rozumieniu prawa prasowego, to za treść będą odpowiadali dziennikarz i redakcja, która go opublikuje.
Michał Kibil przypomina, że w polskich przepisach przyjmuje się, że utwór może być wytworzony tylko przez człowieka.