Post a Comment Print Share on Facebook

reads.

Diffidare di robot emozioni; 'simulato l'amore non è amore

Quando un robot "muore" non è triste? Per molte persone, la risposta è "sì" — e che ci dice qualcosa di importante e potenzialmente preoccupante, sulle nostre risposte emotive alle macchine sociali che stanno iniziando a muoversi nella nostra vita.

Per Christal White, 42 anni, di marketing e di customer service director a Bedford, Texas, quel momento è venuto, alcuni mesi fa, con il simpatico, cordiale Jibo robot arroccato nel suo ufficio a casa. Dopo più di due anni, nella sua casa, il piede-alto umanoide e la sua invitante, schermo tondo "faccia", aveva iniziato a griglia su di lei. Certo, è ballato e giocato divertenti giochi di parole con i suoi bambini, ma anche a volte interrotto durante le chiamate in conferenza.

Bianco e suo marito Peter aveva già cominciato a parlare di movimento Jibo vuoto camere da letto al piano di sopra. Poi hanno sentito parlare di "sentenza di morte" Jibo il creatore aveva prelevato il prodotto della propria attività, è crollato. È arrivata la notizia via Jibo stesso, che ha detto i suoi server sarebbe arresto, in modo efficace lobotomizing.

"il Mio cuore si è rotto", ha detto. "E' stato come un fastidioso cane che non ti piace perché è tuo marito cane. Ma poi ti rendi conto che in realtà amava."

I Bianchi sono lontano dal primo di provare questo sentimento. La gente ha preso per i social media di quest'anno per dire le lacrime agli addii per il Mars rover Opportunity quando la NASA ha perso il contatto con il 15-year-old robot. Un paio di anni fa, lontana interessati commentatori pesato su un video di dimostrazione dal robotica società di Boston Dynamics, in cui i dipendenti hanno preso a calci un cane robot per dimostrare la sua stabilità.

Smart robot come Jibo, ovviamente, non sono vivi, ma questo non ci impedirà di agire come se fossero. La ricerca ha dimostrato che le persone hanno la tendenza a proiettare tratti umani in robot, soprattutto quando si sposta o si legge anche vagamente umano, come modi.

Designer utente riconosce che tali caratteristiche possono essere potenti strumenti per la connessione e la manipolazione. Che potrebbe essere, soprattutto, un acuto problema di come i robot di muoversi nelle nostre case, soprattutto se, come molti altri dispositivi di casa, anche i conduttori per i dati raccolti sui loro proprietari.

"Quando abbiamo interagire con un altro essere umano, cane, o la macchina, il modo in cui trattiamo è influenzato da che tipo di mente pensiamo", ha detto Jonathan Gratch, professore presso la University of Southern California che studia virtuale interazioni umane. "Quando si sente qualcosa è emozione, ora meriti di protezione dal male."

Il modo in cui i robot sono progettati possono influenzare la tendenza persone hanno per progetto di narrazioni e sentimenti su oggetti meccanici, ha detto Julie Falegname, un ricercatore che studia l'interazione delle persone con le nuove tecnologie. Soprattutto se un robot è qualcosa di simile a un volto, il suo corpo è simile a quelli degli esseri umani o animali, o comunque non si auto-diretto, come un Roomba robot aspirapolvere.

"Anche se si conosce un robot ha poca autonomia, quando qualcosa si muove nel vostro spazio e sembra avere un senso di scopo, che noi associamo con qualcosa che hanno una consapevolezza interiore o obiettivi," ha detto.

Tali decisioni di progettazione sono anche pratici, ha detto. Le nostre case sono costruite per gli esseri umani e gli animali domestici, i robot che appaiono e si muovono come gli esseri umani o gli animali si adattano più facilmente.

Alcuni ricercatori, tuttavia, la preoccupazione che i progettisti stanno sottovalutando i pericoli connessi con l'attaccamento alla sempre più la vita-come i robot.

di Lunga data AI ricercatore e professore del MIT di Sherry Turkle, per esempio, è preoccupato che spunti di design può ingannare nel pensare che alcuni robot sono esprimere l'emozione torna verso di noi. Alcuni sistemi di intelligenza artificiale, già presente come socialmente ed emotivamente consapevole, ma queste reazioni sono spesso script, rendendo la macchina sembra "più intelligente" di quello che è realmente.

"Le prestazioni di empatia non è empatia," ha detto. "Simulato il pensiero potrebbe pensare, ma simulata sensazione è mai sentire. Simulato l'amore non è mai amore."

Designer robotica startup insistere che umanizzare elementi sono fondamentali come l'uso del robot si espande. "C'è bisogno di placare il pubblico, per mostrare che non sono di disturbo per la cultura pubblica," ha detto Gadi Amit, presidente di NewDealDesign a San Francisco.

la Sua agenzia ha recentemente lavorato sulla progettazione di un nuovo robot per Postmates — a quattro ruote, secchio a forma di oggetto con un simpatico, se astratta, faccia; spigoli arrotondati; e le spie che indicano in che modo è di andare a girare.

ci vorrà tempo per gli esseri umani e robot per stabilire un linguaggio comune, come si muovono in tutto il mondo insieme, ha detto Amit. Ma egli si aspetta di accadere nei prossimi decenni.

Ma che cosa circa i robot che lavorano con i bambini? Nel 2016, Dallas-a base di avvio RoboKind introdotto un robot chiamato Milo progettato specificamente per aiutare a insegnare i comportamenti sociali per i bambini che hanno l'autismo. Il meccanismo, che assomiglia a un giovane ragazzo, è ora in circa 400 scuole e ha lavorato con migliaia di bambini.

e ' pensato per connettersi emotivamente con i bambini, a un certo livello, ma RoboKind co-fondatore Richard Margolin dice che l'azienda è sensibile alle preoccupazioni che i bambini potrebbero rimanere troppo attaccato al robot, che le caratteristiche umane, come il riconoscimento vocale e le espressioni facciali.

Così RoboKind suggerisce limiti nel suo curriculum, sia per tenere Milo interessante e per assicurarsi che i bambini sono in grado di trasferire le abilità per la vita reale. I bambini sono consigliati solo per soddisfare con Milo, da tre a cinque volte alla settimana per 30 minuti ogni volta.

Avatar
Your Name
Post a Comment
Characters Left:
Your comment has been forwarded to the administrator for approval.×
Warning! Will constitute a criminal offense, illegal, threatening, offensive, insulting and swearing, derogatory, defamatory, vulgar, pornographic, indecent, personality rights, damaging or similar nature in the nature of all kinds of financial content, legal, criminal and administrative responsibility for the content of the sender member / members are belong.