Jurnalul botosanenilor Publicatiile Jurnalul Online Jurnalul Dimineata Botosanilor

   

Cultură
Infracţiuni
Anunţuri
Fapt divers
Ştiri agenţii
Horoscop
Umor
Gastronomie
Reportaje
Comentarii
Anchete
Evenimente
Lumea lu' Rotundu
Presa'n gura lu' Rotundu

1 EURO = 4.8697 lei
1 USD = 3.9827 lei


Număr accesări
Astăzi:
7422
De la 07 Ianuarie 2003
87399256

De ce robotul de chat al Microsoft a dezvoltat limbaj injurios pe Twitter

  • si ce ne spune experimentul despre viitorul inteligentei artificiale
  • 25 March 2016, 23:00
Domeniul inteligentei artificiale a avansat enorm in ultimii ani, insa progresele nu au acoperit toate categoriile, asa cum arata experimentul facut de Microsoft cu "robotul" de chat Tay care a invatat o multime de prostii si a folosit limbaj injurios, dupa ce a interactionat cu tinerii de pe Twitter mai putin de o zi. Robotul a fost conceput in scop educativ, insa a ajuns sa posteze mesaje cu continut sexual sau mesaje in care il lauda pe Hitler. De ce s-a intamplat asta puteti citi mai jos.
Tay Tweet este un chat-bot, un user virtual de Twitter pe care Microsoft l-a creat pentru a testa modul in care acesta intelege conversatiile cu tinerii si pentru a testa si ce va posta dupa ce va urmari ce-i scriu tinerii. Insa in mai putin de 24 de ore experimentul a fost oprit fiindca "robotul" a postat mesaje injurioase care au uimit multa lume.
De jumatate de secol sunt testate programe informatice conversationale care sa mimeze discutia cu un om, conceptul fiind unul pasionant. In ultimii ani eforturile s-au intetit, mai ales ca exista tot mai multi "asistenti vocali" care inteleg comenzi tot mai sofisticate.
Chat-bot-ul Microsoft a degenerat in limbaj deplorabil si fiindca cei care l-au creat nu au pus dinainte niste filtre si nu au prevazut ca in interactiunea cu tinerii, Tay va "invata" de la ei ce inseamna violenta verbala, fiindca pe Twitter se injura mult, iar mesajele rasiste sunt prezente din plin.
Un "blacklist" care sa includa cuvinte injurioase ar fi fost util si ar fi limitat numarul mesajelor jignitoare, spune un expert in inteligenta artificiala, citat de Business Insider. Acesta spune ca Microsoft ar fi trebuit sa pregateasca mai bine soft-ul fiindca era de asteptat ca tinerii de pe Twitter, exact publicul tinta pentru Tay, sa testeze ce poate chat-bot-ul, provocabdu-l sa raspunda la lucruri deloc frumoase.
Intreaga poveste arata ca orice program de inteligenta artificiala va trebui indelung testat in "lumea reala" unde interactiunile sunt neprevazute. Abia dupa aceea ar trebui folosit la lucruri serioase si utile.
Microsoft a dat dupa experiment un mesaj in care a explicat care a fost principala problema. "Din nefericire, in primele 24 de ore in care a fost online am constatat un efort coordonat din partea unor utilizatori care au dorit sa-l maltrateze pe Tay, astfel incat sa-si foloseasca abilitatile de comunicare pentru a raspunde intr-un mod impropriu".
Tay Tweet nu a putut deosebi cuvintele inofensive de cele jignitoare si nici conceptiile acceptate, de cele tabu, astfel ca in doar cateva ore si-a insusit limbajul violent din interactiuni si a postat mesaje care au ingrozit multe lume.
Relatand povestea, Financial Times noteaza ca experimentul a fost nereusit, insa extrem de util fiindca arata ca aceste soft-uri de inteligenta artificiala nu sunt atat de inteligente pe cat spun creatorii lor ca sunt. Pusi in fata interactiunii cu oamenii obisnuiti, algoritmii pot da replici spectaculoase, dar deloc potrivite.
In plus, oamenii, pusi in fata unor discutii cu un program de inteligenta artificiala, vor incerca din curiozitate sa il testeze la maxim si ii vor pune intrebari ciudate, rasiste, xenofobe, despre sex si despre orice iti poti inchipui. Programele trebuie "antrenate" sa faca fata cu brio acestor intrebari, nu sa "absoarba" totul ca un burete.
Agentia de stiri HotNews

Drepturile de autor sunt rezervate proprietarului de domeniu. Responsabilitatea pentru eventualele consecinte juridice generate de copierea, multiplicarea si difuzarea textelor si fotografiilor de pe acest site revine persoanei in cauza.


Universitatea Bucuresti critica proiectul de lege prin care Ion Iliescu, Ecaterina Andronescu si IPS Teodosie ar primi titlul de academician
Poate compromite grav seriozitatea politicilor publice autohtone privind aspiratiile legitime catre excelenta
Laura Codruta Kovesi: DNA a facut apel in dosarul Microsoft
Sechestru-record de peste 850 de milioane de lei pus de procurorii DNA
pe actiuni si parti sociale care apartin omului de afaceri Dan Adamescu
Vremea in weekend
O inregistrare arata un soldat israelian care pare sa execute un palestinian intins la pamant
Acuzatii dure: Franta a refuzat "din motive ideologice" lista cu cetatenii francezi antrenati in Siria oferita de serviciul secret sirian
Horoscopul zilei de 26.03.2016
Bancul zilei: Nemulţumirea poliţistului şef
Reţeta zilei: Orez cu vin şi ciuperci
Lumea lu' Rotundu: Botoşaniul de ieri şi de azi (redifuzare)
Presa-n gura lu' Rotundu: Emisiunea din 25.03.2016
Gaşca din Poliţie protejată de comisarul şef Mihai Bunduc
Botoşani/Suharău: Cerbicia primarului Chelariu o întrece pe cea a personajului lui Buridan
Ioan Rotundu
Jurnalul de Botoşani şi Dorohoi

Blogul lui Rotundu
Arhivă