Filter koji zna da prepozna ironiju

Eksplodirala je vest. Važna, goruća i već se širi mrežama. U samo nekoliko minuta, ispod teksta nastaje poplava komentara. Nisu to samo čitaoci sa mišljenjem, već i botovi sa agendom, trolovi u niskom letu i anonimni hejteri sa brzim prstima. Moderator otvara platformu i dočekuje ga haos. Sistem uklanja očigledne psovke, ali šta sa komentarima koji „na fin način“ šire mržnju ili izvrću činjenice? Vremena je malo, komentari moraju brzo da se pojave ispod teksta, a rizik od greške je ogroman. 

Upravo iz tog haosa nastao je Sentiment Scope, alat koji moderaciju komentara podiže na novi nivo. Alat razlikuje sarkazam od ironije, aluziju od uvrede, citat od napada. Za razliku od rešenja koja vide samo listu zabranjenih reči, njihov AI model čita ton i nameru, razume kontekst u kojem je komentar ostavljen. Analiza se odvija u realnom vremenu, sa preciznošću koja prelazi 80%. Tako se greške svode na minimum, a moderatorima se štedi dragoceno vreme. 

Zato Sentiment Scope nije još jedan filter, već sloj poverenja između redakcije i publike: smanjuje ljudsku pristrasnost, čuva doslednost pravila, skraćuje vreme reakcije i oslobađa urednike da bi se bavio suštinom, a to su sadržaj i zajednica.

Kako je ideja o alatu za moderaciju komentara na medijskim portalima nastala, gde su sve prepoznali probleme i u kojim industrijama vide prostor za rast pitali smo Filipa Ivanovića iz crnogorskog startapa Sentiment Scope. Njihovi odgovori otkrivaju koliko jedan algoritam može promeniti način na koji komuniciramo u onlajn svetu.

1. Zamislite da je vaš softver osoba i da postaje novi član redakcije. Kako biste ga predstavili kolegama?

Ćao ekipa, ovo je naš novi kolega, Sentiment Scope (Peitho). Ima dosta iskustva u automatizaciji dosadnog i „fizičkog“ dijela novinarskog posla: analiza komentara, moderacija, pisanje i dopunjavanje članaka. Doveli smo ga da vas oslobodi mehaničkog posla koji ne zahtijeva kreativnost, kako biste se mogli posvetiti kreativnijem i kvalitetnijem radu. Peitho pomaže svakome posebno i prilagođava se vašem stilu pisanja praktično kao da imate ličnog asistenta (koji jedino ne kuva kafu). 

2. Na osnovu čega ste znali da je jedan ovakav alat potreban medijima i da trenutna rešenja nisu dovoljna?

Najviše iz iskustva rada u glavnom i najvećem mediju u Crnoj Gori — Vijestima. Nakon toga smo uradili validaciju na tržištima Srbije i Hrvatske i vidjeli da sve redakcije, bez obzira na veličinu, imaju iste probleme sa moderacijom komentara i analizom. Trenutna rješenja su dosta ograničena i uglavnom se svode na listu zabranjenih riječi, bez konteksta i dublje analize cijelog komentara i članka. Mi to radimo sa preciznošću koja već prelazi 80%. 

3. Kako u budućnosti vidite ovaj alat, u kojim industrijama sem u medijskoj može biti primenjen?

Već smo krenuli sa razvojem novih modula za analizu sentimenta, grafike i marketinške komunikacije, kao i za političke partije kroz analizu diskursa i emocija na zadate teme. Cilj nam je da razvijemo module i za influensere, kako bi i oni mogli da automatizuju moderaciju komentara i unaprijede community management

4. Vaš model trenutno ima preciznost od preko 80%. Šta je potrebno da bude još bolji i koje su to „sive zone“ koje je najteže automatizovati?

Što više datasetova, to bolje. Softver je napravljen tako da uči „u hodu“ i prilagođava se tonu i kontekstu svakog klijenta. Najveće ograničenje trenutno je to što na njemu radi samo jedan programer, i to part-time, pa su tehničke mogućnosti limitirane. Takođe, i dalje tražimo načine kako da na što lakši i transparentniji način, uz saglasnost, scrapujemo komentare sa portala i mreža. 

5. Na koji način vaš model napravi razliku između štetnog komentara i oštre kritike? Kako rešavate situacije u kojima nije jasan kontekst?

Model analizira kontekst samog komentara, ali i članka na koji se odnosi, a do sada je „naučen“ na više od milion komentara. Fokus nam je na našem jeziku zbog svih nijansi i šarenolikosti koje ga čine izazovnijim od drugih. Trenutno mapiramo tri kategorije komentara: odobren, neodobren i razmotriti. 

Upravo ta treća kategorija predstavlja sivu zonu. Situacije u kojima sistem nije 100% siguran i tu moderator uskače sa dodatnom analizom i označavanjem. Pored osnovnih score-ova, dodajemo i dodatne oznake (npr. govor mržnje, mržnja po političkoj osnovi itd.), u saradnji sa profesionalnom lingvistkinjom, kako bi sistem što preciznije tumačio i analizirao podatke i kontekst teksta. 

6. Kako vaš model uspeva da održi balans između „slobode izražavanja“ i „održavanja sigurnog online prostora“?

Naš model održava balans tako što ne podliježe dvjema ključnim stvarima koje prate ljudske moderatore, a to su pristrasnost u analizi i greške zbog brzine rada. Sistem nastoji da ostane objektivan, bez emocija, i vodi se isključivo etičkim i jasno definisanim pravilima komentarisanja na portalima. Takođe, da bismo bili sigurniji u ranoj fazi rada, namjerno propuštamo veći broj komentara na dodatne analize, kako ne bi došlo do pogrešnog tumačenja ili različitog pristupa u odnosu na ljudskog moderatora. 

7. Kada bi vaš AI model mogao da ostavi komentar ispod ovog intervjua šta bi nam poručio?

Odličan intervju. Natjerao me da razmišljam o svom proizvodu na novi način i da uočim neke nove stvari. Takođe, može da nam posluži i za finalni pitch, jer ovdje pristupamo analizi iz treće perspektive i samim tim sagledavamo situaciju nepristrasnije. Sjajan posao!

Od haosa do dijaloga

Razgovor sa Filipom pokazuje da Sentiment Scope nije samo još jedan filter u nizu. Njihov pristup moderaciji zasniva se na ideji da komentari ne moraju da budu haos koji guši, već prostor u kojem može da nastane dijalog. Ako u tome istraju, možda ćemo jednog dana ispod vesti o politici ili sportu ređe nailaziti na uvrede, a češće na razgovore koji podsećaju da internet može biti i zajednica, a ne samo ring.

Podeli:

Facebook
Twitter
LinkedIn
Email
WhatsApp

univerzum.info

Uspešno ste poslali prijavu

kontaktiraćemo vas nakon provere