Polscy badacze pokazują, jak nauczyć sztuczną inteligencję wrażliwości użytkownika

Każdy człowiek ma inną poczucie humoru i wrażliwość, w tym na prezentowane mu treści. Polski zespół pokazuje, jak nauczyć sztuczną inteligencję (AI) wrażliwości konkretnego użytkownika.

Pavel Danilyuk/ Pexels

Zespół naukowców z Politechniki Wrocławskiej prowadzi pionierskie badania nad zastosowaniem głębokich modeli językowych do oceny zadań subiektywnych. Wyniki publikowane były w renomowanych czasopismach naukowych: „Information Fusion”, „Information Processing & Management” oraz omawiane na konferencji ICDM.

Asystent czy ChatGPT wydają się mądre, ale nie są błyskotliwe. Kiedy prosimy je o opowiedzenie żartu, te nie śmieszą. I nie chodzi tu wcale o wbudowaną poprawność polityczną. Prawdopodobnie dlatego, że sztuczna inteligencja uznaje na razie za śmieszne to, co za śmieszne może uznać większość osób, a nie konkretny użytkownik. A do rozpuku śmiejemy się raczej, gdy coś specyficznie nas zaskoczy i trafi w nasz gust, który nie musi być statystyczny.

Zobacz również:

  • Copilot znaczy po polsku wsparcie
  • Informatycy z Polski nagrodzeni za rozwiązanie problemu logiki algorytmów

W przetwarzaniu języka naturalnego na ogół ważne było dotąd uczenie algorytmów pewnych ogólnych, dających się obiektywnie stwierdzić zasad. Tak jest chociażby w przypadku znaczenia słów, poprawności językowej, rozpoznawania pisma odręcznego, rozpoznawania języka tekstu.

Przyjęło się więc, że aby nauczyć algorytmy tych obiektywnych reguł, trzeba dostarczyć spójnych danych. Np. daje się jakieś zadanie językowe do wykonania wielu ludziom (tzw. anotatorom) i odpowiedź, którą większość z nich oceniła jako prawdziwą - przekazuje do nauki algorytmom. Zadania, w których jest spora rozbieżność zdań, na ogół są na wstępie odrzucane i nie służą algorytmom do nauki.

Są jednak zjawiska językowe, których ocena nie jest – i nie może być - obiektywna. To choćby zjawiska związane z emocjami. Czy dany tekst cię śmieszy? Jakie budzi emocje? Na te pytania nie ma jednej, poprawnej odpowiedzi, tak jak nie istnieje coś takiego jak jedyna słuszna wrażliwość. Oczywiście, na nasze reakcje wpływ mają różne czynniki, jak wiek, płeć, narodowość, pochodzenie społeczne, habitat, poziom inteligencji, a czasem nawet okres naszego życia. Co więc powinny sądzić o tych treściach algorytmy, skoro ludzie nie są zgodni co do ich oceny?

Zdaniem dr. Jana Koconia z Politechniki Wrocławskiej powinniśmy wiedzieć, jak nauczyć algorytmy, że dany użytkownik nie życzy sobie takich a takich treści, jakieś inne treści uważa za szczególnie zabawne, a inne wywołują w nim smutek. „Kiedyś zwrócili się do mnie studenci, którzy chcieli opracować filtr do rozpoznawania mowy nienawiści. Jednak nie ma uniwersalnej definicji, co to jest mowa nienawiści. Każdego z nas obrażają nieco inne treści. Nawet jeśli wiemy, jak odsiewać treści niewątpliwie niezgodne z prawem i opracujemy globalny filtr, to i tak znajdą się osoby, które w treściach znajdą coś, czego nie życzą sobie widzieć” - mówi dr Kocoń w rozmowie z serwisem PAP – Nauka w Polsce.

Stąd pomysł, żeby nauczyć sztuczną inteligencję subiektywnych ocen. W czasie uczenia języka algorytm analizowałby nie tyle decyzję większości badanych, ale odpowiedzi poszczególnych anotatorów i poszukiwałby na tej podstawie spersonalizowanych zależności. W ten sposób uczyłby się, jak przewidywać, które treści spodobają się jednym osobom, a innym - nie.

Jeśli użytkownicy mogliby potem wskazywać algorytmowi, które napotkane treści im się podobają, a które nie - model uczyłby się wrażliwości danego użytkownika.

„Ten pomysł nie jest zupełnie nowy. System rekomendacji YouTube czy Facebooka działa na podobnej zasadzie: znając historię decyzji użytkownika, portale proponują treści, które spodobały się podobnym użytkownikom. Nasz model odnosi się jednak nie tylko do analizy podobieństwa zachowań użytkowników, ale i zjawisk językowych - do analizy reprezentacji ocenianych treści” - opisuje dr Kocoń.

Zdaniem naukowca, wiedza o subiektywnych ocenach przyda się w usprawnieniu komunikacji na linii komputer-człowiek. „Społeczeństwo się starzeje. Możemy sobie wyobrazić, że w przyszłości będą istniały roboty do opieki nad osobami starszymi, z którymi będzie się można porozumieć językiem naturalnym”. Dodaje, że jeśli komunikacja ma przebiegać sprawnie, algorytmy powinny umieć dostosować się swoją wrażliwością do potrzeb konkretnego użytkownika.

Źródło: PAP – Nauka w Polsce.

W celu komercyjnej reprodukcji treści Computerworld należy zakupić licencję. Skontaktuj się z naszym partnerem, YGS Group, pod adresem [email protected]

TOP 200