StoryEditorOCM
BiznisRIZIČNA STRATEGIJA

Google uvodi novu mogućnost u pretraživanje koja je mnoge prestravila: ‘Ovo je opasno, suludo!‘

Piše L.G./jl
28. svibnja 2024. - 17:24
Gosti na inauguraciji središta Googleove umjetne inteligencije (AI) u Parizu 15. veljače 2024. Alain Jocard/Afp

Google je za stotine milijuna korisnika uveo najnoviju eksperimentalnu značajku pretraživanja na Chromeu, Firefoxu i pregledniku aplikacije Google. Kako prenosi portal Science Alert, riječ je o tzv. "AI pregledima", koji vam, objašnjeno je, koristeći generativnu umjetnu inteligenciju štede klikanje na veze. Ista tehnologija pokreće i konkurentski ChatGPT.

Tako ćete, primjerice, na pitanje "kako banane što duže zadržati svježima" dobiti korisne savjete tipa "čuvajte ih na hladnom i tamnom mjestu te dalje od drugog voća poput jabuka".

No postavite li neko "škakljivo" pitanje, rezultati bi mogli biti katastrofalni ili čak opasni.

Iz Googlea kažu kako te probleme trenutačno pokušavaju riješiti jedan po jedan.

"AI pregledi" (izvorno "AI Overviews") objasnit će vam da su "astronauti susreli mačke na Mjesecu, s njima su se igrali i brinuli se za njih". Ako vam ovo djeluje zbunjujuće, to baš i nije neki (pre)veliki problem jer bi vas neke druge stvari mogle ozbiljno zabrinuti. Jedna od njih je preporuka da "trebate pojesti barem jedan mali kamen na dan" jer je "kamenje vitalan izvor minerala i vitamina". Osim toga, "AI pregledi" predložit će vam i stavljanje ljepila u umak za pizzu.

No zašto se ovo uopće događa? Temeljni problem je u tome što generativni AI alati ne znaju što je istina, oni su sposobni prepoznati samo ono što je popularno. A na webu, složit ćete se, nema puno članaka o jedenju kamenja jer je to samo po sebi loša ideja. Ali zato u bespućima interneta zbilja postoji vrlo čitan satirični članak upravo o jedenju kamenja, koji je objavio portal The Onion, a kao što smo već rekli, Googleov AI svoj sažetak temelji na onome što je popularno, a ne na onome što je istina.

image

Temeljni problem je u tome što generativni AI alati ne znaju što je istina, oni su sposobni prepoznati samo ono što je popularno (ILUSTRACIJA)

Shutterstock

Drugi problem leži u tome što generativni AI alati nemaju iste vrijednosti koje imamo mi, ljudi.

Što se tiče budućnosti pretraživanja na internetu, jasno je da tu ima još jako puno posla, a Google, naravno, pokušava uhvatiti korak s OpenAI-jem i Microsoftom.

"Želimo biti iznimno oprezni. Postoje područja u kojima smo odlučili ne biti prvi koji će na tržište izbaciti određeni proizvod. Uspostavili smo dobre strukture oko odgovorne umjetne inteligencije. I dalje ćete nas vidjeti kako se ne žurimo", izjavio je 2023. Sundar Pichai, glavni izvršni direktor Googlea. No čini se da njegove riječi više baš i ne drže vodu jer je Google u međuvremenu odlučio energično odgovoriti na brojne kritike da je postao "velik i letargičan konkurent".

Ipak, nova strategija za Google prilično je upitna. Tvrtka, naime, riskira gubitak povjerenja javnosti u Google kao mjesto na kojem se mogu pronaći točni odgovori na brojna pitanja. A tu je i problem potkopavanja vlastitog poslovnog modela vrijednog milijarde dolara - jer ako se umjesto klikanja na veze počne samo čitati njihov sažetak, kako Google misli nastaviti zarađivati?

Science Alert piše kako ovi rizici nisu ograničeni samo na Google. Upotreba umjetne inteligencije mogla bi biti štetna i za šire društvo. Tko zna što nas čeka za desetak godina? Možda ćemo se na 2024. osvrnuti kao na zlatno doba weba, kad je isti nudio kvalitetan sadržaj koji su stvorili ljudi, prije nego što su botovi preuzeli vlast i ispunili web sintetičkim sadržajem sve niže kvalitete.

Na globalnoj razini, svaki dan se u umjetnu inteligenciju ulaže više od 400 milijuna američkih dolara. A vlade diljem svijeta tek sad počinju shvaćati da bi nam možda trebale "zaštitne ograde" i propisi kako bi se osiguralo odgovorno korištenje AI-ja. Ako farmaceutske tvrtke ne smiju u promet puštati lijekove koji su štetni, ni tehnološkim kompanijama ne bi smjelo biti dopušteno raditi što žele.

 

Želite li dopuniti temu ili prijaviti pogrešku u tekstu?
23. studeni 2024 16:00