Reklama

Facebook uczy sztuczną inteligencję kłamać jak człowiek

Facebook uczy sztuczną inteligencję kłamać, aby ją przygotować odpowiednio do swoich zadań. Od dawna możemy korzystać z usług wszelakich botów, z którymi możemy „porozmawiać”. Facebook jednak systematycznie rozwija potencjał tego oprogramowania.

Facebook uczy sztuczną inteligencję kłamać

Badacze AI z Facebooka ogłosili wczoraj swój nowy projekt. Nazywa się Blender i jest zestawem najnowocześniejszych modeli chatbotów typu open source. Te nowe modele mają być „bardziej ludzkie” niż poprzednie interakcje i zapewniać bardziej realne rozmowy.

Reklama

 Zamysł polega na tym, że Facebook zebrał ogromny zestaw danych i wyszkolił na nim sztuczną inteligencję. Chatboty Blendera mają otwartą domenę, co oznacza, że ​​nie można ich po prostu uczyć odpowiadania na określoną serię pytań, takich jak te, które można zobaczyć na stronach internetowych. Zamiast tego te boty teoretycznie mogą prowadzić rozmowę na dowolny temat. Jak tłumaczą twórcy:

Po raz pierwszy chatbot nauczył się łączyć kilka umiejętności konwersacyjnych – w tym umiejętność wcielania się w postać, dyskutowania na dowolny temat i okazywania empatii – w naturalnych 14-turowych rozmowach. Nasza nowa receptura obejmuje nie tylko modele neuronowe na dużą skalę do 9,4 miliarda parametrów – czyli 3,6 razy więcej niż największy istniejący system – ale także równie ważne techniki łączenia umiejętności i szczegółowego generowania.

Po co więc Facebook uczy sztuczną inteligencję kłamać? Chodzi o przygotowanie maksymalnego wachlarzu możliwych odpowiedzi oraz reakcji. Im więcej danych otrzyma SI tym bardziej będzie mogła udawać człowieka.

Rozmowa ze sztuczną inteligencją? Nie bardzo

AI na Facebooku nie rozumie ani słowa z tego, co mówi. Nie „słucha” nikogo, nie może zrozumieć języka ani znaczenia słów. Powoduje jedynie skojarzenia między stwierdzeniami, których twórcy będą uznawać za odpowiednie odpowiedzi, a tymi, których twórcy nie uznają.

Reklama

Nie może „wyświetlać wiedzy”, ponieważ tak naprawdę nie ma bazy wiedzy. Sprawia, że ​​skojarzenia wydają się mieć sens. Jeśli na przykład powiesz mu swoją ulubioną piosenkę Smashing Pumpkins, możesz powiedzieć, że lubisz inną piosenkę, ale nigdy nie była wystawiona na rzeczywiste wrażenia muzyczne. Przetwarza tylko język naturalny. Nie rozumie, co to jest audio, zdjęcia lub wideo.

Nie ma też empatii, nie może analizować twoich uczuć ani reagować własnymi. Odpowiada jedynie stwierdzeniami, które zostały przeszkolone, aby zrozumieć, że reprezentują odpowiednie odpowiedzi. Jak dalej tłumaczą jego twórcy na swoim blogu:

Dobra rozmowa wymaga szeregu umiejętności, które biegły rozmówca łączy ze sobą w płynny sposób: zapewniania angażujących punktów rozmów i słuchania partnerów, zarówno zadawania pytań, jak i odpowiadania na nie oraz odpowiedniego wykazywania wiedzy, empatii i osobowości, w zależności od sytuacji. Pokazujemy, że modele na dużą skalę mogą nauczyć się tych umiejętności, jeśli otrzymają odpowiednie dane szkoleniowe i strategię wyboru generacji.

Facebook uczy sztuczną inteligencję

Po co Facebookowi sztuczna inteligencja?

Największy portal społecznościowy sukcesywnie rozwija pomysł SI. Według pomysłodawców projektu chodzi głównie o bezpieczeństwo oraz filtrowanie szkodliwych treści. Dzięki odpowiednim algorytmom SI może przeszukiwać tysiące wiadomości, fanpage’ów czy postów dużo skuteczniej. Dodatkowo planuje się także pomoc dla… samobójców. Algorytm miałby rozpoznawać wiadomości, które świadczyłyby o poważnym załamaniu nerwowym oraz potencjalnej próbie samobójczej.

Jednakże wielu krytykuje takie podejście. Boty będą działać prewencyjnie i promować tylko „wybrane” treści. W tym momencie FB mocno blokuje treści, które uważa za „szkodliwe” co często prowadzi do paradoksów. Nawet walka z „fake newsami” może zamienić się w szkodliwą cenzurę, albowiem łatwo za pomocą bota blokować „niewygodne treści.” Dodatkowo SI będzie zbierało wszelkie informacje na nasz temat (miejsce lokalizacji, ostatnie wiadomości etc.) co z resztą i tak się dzieje. O ile wizja Terminatora jest bardzo odległa, tak wizja złej korporacji, która chce wszystko kontrolować jest bardziej realna.

Reklama

Nie samo narzędzie jest złe tylko forma jego wykorzystania. Co sądzicie o Sztucznej Inteligencji?

Reklama