Czy ludzie chcą czytać nudne artykuły? Tak sądzą twórcy Boring Report

Serwis informacyjny Boring Report korzysta z sztucznej inteligencji, aby zmienić sposób, w jaki ludzie odbierają wiadomości. Zgodnie z nazwą i dosłownie staje się nużący, unikając sensacyjności.

Boring Report angażuje sztuczną inteligencję do przepisywania nagłówków wiadomości i streszczania tych historii. Wszystko po to, by ludzie znów wierzyli w newsy - pisze magazyn Fortune. 

Amerykanie coraz mniej ufają mediom, a połowa z nich twierdzi, że krajowe źródła informacji mają zamiar wprowadzać w błąd lub oszukiwać - wynika z badania przeprowadzonego przez Gallup i Knight Foundation w lutym.

Czy sensacyjne nagłówki znikną?

Ostatnio wprowadzony serwis informacyjny, Boring Report, uważa, że znalazł antidotum na to sceptyczne podejście, angażując sztuczną inteligencję do przepisywania nagłówków wiadomości i streszczania tych historii. Dostawcy usługi twierdzą, że używa ona technologii do "gromadzenia, przekształcania i prezentowania informacji" w sposób jak najbardziej faktograficzny, bez żadnej sensacyjności ani stronniczości.

Reklama

Zdaniem przedstawicieli BR, obecny krajobraz mediów i model reklamowy zachęcają wydawnictwa do stosowania sensacyjnego języka w celu generowania ruchu. To wpływa na czytelnika, ponieważ musi przebrnąć przez emocjonalnie naładowany, alarmujący język, zanim dotrze do podstawowych faktów na temat samego wydarzenia.

Na swojej stronie internetowej Boring Report zestawił ze sobą fikcyjny i hiperboliczny nagłówek "Nadchodzi inwazja obcych: Ziemia skazana na zagładę" z takim, jaki sam by napisał, czyli "Eksperci dyskutują o możliwości istnienia istot pozaziemskich i potencjalnym wpływie na Ziemię".

Niebawem artykuły przestaną być stronnicze?

Boring Report nie twierdzi, że całkowicie usuwa stronniczość, bo jego celem jest na razie wykorzystanie sztucznej inteligencji do informowania czytelników w sposób pozbawiony "sensacyjnego języka". Platforma korzysta z oprogramowania firmy OpenAI. - W przyszłości zamierzamy zmierzyć się z stronniczością, łącząc artykuły z różnych wydawnictw w pojedyncze streszczenie - twierdzą przedstawiciele  Boring Report.

Boring Report, uruchomiony w marcu, został stworzony przez dwóch inżynierów z Nowego Jorku - Vasishta Kalinadhabhotla i Akshith Ramadugu. Darmowa usługa jest także wspierana przez dotacje i niedawno znalazła się wśród pięciu najczęściej pobieranych aplikacji w sekcji Magazyny i Gazety w Apple App Store. Przedstawiciele Boring Report odmówili podania szczegółów dotyczących liczby użytkowników, ale powiedzieli magazynowi Fortune, że planują w przyszłości wprowadzenie wersji płatnej.

AI zastąpi ludzi w najmniej kreatywnej pracy?

Narzędzia takie jak ChatGPT coraz częściej są wykorzystywane w różnych branżach do wykonywania zadań, które kiedyś były wykonywane wyłącznie przez ludzi. Niektóre firmy medialne, znajdujące się pod ogromną presją finansową, szukają możliwości wykorzystania sztucznej inteligencji w celu odciążenia części pracy i zwiększenia efektywności. - W pewnym sensie praca, którą wykonywano w zakresie optymalizacji SEO i tworzenia popularnych treści była robotyczna - powiedziała S. Mitra Kalita, była pracownica CNN i współzałożycielka dwóch innych startupów medialnych, w wywiadzie dla Axios w lutym na temat tego, jak redakcje używają technologii do identyfikowania szeroko omawianych tematów w internecie i skupiania na nich swoich historii. - W efekcie cały internet robił podobny - dodała.

Redakcje już eksperymentują z wykorzystaniem sztucznej inteligencji. Na przykład, BuzzFeed ogłosił w lutym, że będzie używać sztucznej inteligencji do tworzenia quizów i innych treści dla swoich użytkowników w bardziej ukierunkowany sposób.

Fałszywe informacje problemem

Nie wszystkie eksperymenty mediów z wykorzystaniem sztucznej inteligencji zakończyły się sukcesem. Na przykład niektóre artykuły opublikowane przez witrynę technologiczną CNET, wykorzystujące sztuczną inteligencję zawierały nieścisłości.

Podobnie było z informacjami ze strony celebritiesdeaths.com. Niedawno pojawiła się tam informacja, że prezydent Joe Biden nie żyje. Strona wyjaśniła, że Joe Biden "spokojnie zmarł we śnie", a Kamala Harris przejmuje obowiązki. Jednak w tekście znalazło się dość dziwne oświadczenie: "Przepraszam, nie mogę ukończyć tego polecenia, ponieważ jest sprzeczne z polityką użycia OpenAI dotyczącą generowania wprowadzających w błąd treści".

Celebritiesdeaths.com znajduje się wśród 49 stron informacyjnych, które NewsGuard, organizacja śledząca dezinformację, zidentyfikowała jako "prawie w całości pisane przez oprogramowanie sztucznej inteligencji". Według raportu, strony publikują nawet setki artykułów dziennie, z czego wiele zawiera oznaki treści generowanych przez AI, takie jak sztywny język i  powtarzające się zwroty.

Trudno sobie wyobrazić, że ktoś mógłby naprawdę w doniesienie o śmierci Joe Bidena - gdyby to była prawda, zapewne doniósłby o tym New York Times. Jednak problemem jest to, że fałszywe informacje na tych stronach mogą stanowić podstawę dla przyszłych treści generowanych przez AI, tworząc błędne koło fake newsów.

Krzysztof Maciejewski

INTERIA.PL
Dowiedz się więcej na temat: openAI | ChatGPT
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy
Finanse / Giełda / Podatki
Bądź na bieżąco!
Odblokuj reklamy i zyskaj nieograniczony dostęp do wszystkich treści w naszym serwisie.
Dzięki wyświetlanym reklamom korzystasz z naszego serwisu całkowicie bezpłatnie, a my możemy spełniać Twoje oczekiwania rozwijając się i poprawiając jakość naszych usług.
Odblokuj biznes.interia.pl lub zobacz instrukcję »
Nie, dziękuję. Wchodzę na Interię »