5 modi per sapere se stai chattando con un essere umano o un robot

L’uso e l’utilità della chat online e dei chatbot, alimentati da livelli di intelligenza artificiale migliorati come ChatGPT stanno aumentando rapidamente. C’è stato un picco negli strumenti di intelligenza artificiale, non solo all’interno dei chatbot. Stiamo assistendo a un’espansione dei contenuti di posta elettronica, del copywriting, dei blog e altro ancora.

Convince&Convert ha sviluppato cinque tecniche per determinare se hai a che fare con una persona reale o con un’intelligenza artificiale/chatbot. Nota: più sperimenterai, più velocemente i chatbot impareranno e si adatteranno.

Tecnica 1: stratagemma dell’empatia

Riteniamo che il livello odierno di intelligenza artificiale sia carente di empatia cognitiva perché le emozioni tra esseri umani sono davvero difficili da comprendere e spiegare. Quindi, creare intenzionalmente un dialogo empatico con il tuo essere umano o con l’intelligenza artificiale/chatbot può essere rivelatore.

Lo stratagemma dell’empatia richiede che tu stabilisca una posizione basata sulle emozioni e faccia appello all’essere umano o all’intelligenza artificiale/chatbot a livello emotivo.

La situazione: non sei felice:  la base più comune per un’interazione con il servizio clienti.

Scenario 1: IA/chatbot

Tu: Non mi sento bene.

Risposta via chat: Come posso aiutarti?

Tu: sono triste. 

Risposta via chat: Come posso aiutarti?

Scenario 2: un essere umano

Tu: Non mi sento bene.

Risposta umana: come posso aiutarti? Hai bisogno di aiuto medico?

Tu: sono triste.

Risposta umana: mi dispiace. Perché sei triste?

Vedi la differenza? Nello scenario uno, l’IA/chatbot può fare riferimento solo alla libreria di risposte condizionali esistente. Nello scenario due, un essere umano ha la capacità di infondere empatia nel dialogo. Ci sono volute solo due risposte per capirlo.

Entrambi i dialoghi possono essere costruttivi, ma diventano più chiari se sai fin dall’inizio che hai a che fare con un essere umano o un’intelligenza artificiale/chatbot. Come società, non siamo pronti per i terapisti dell’intelligenza artificiale.

Tecnica 2: dissociazione in due fasi

Un’intelligenza artificiale connessa può accedere praticamente a qualsiasi dato, sempre e ovunque. Basta chiedere ad Alexa. Pertanto, porre una domanda di sfida significativa tramite chat non può essere qualcosa la cui risposta risieda in un database accessibile.

Tu: Dove ti trovi?

Risposta chat: Seattle.

Tu: Che tempo fa fuori?

Risposta chat: puoi riformulare la domanda?

Mi dispiace, anche un’app meteo mediocre può gestirlo.

La Dissociazione in due fasi richiede due elementi (da cui il nome):

  1. Fai un presupposto a cui probabilmente l’intelligenza artificiale/chatbot non può riferirsi
  2. Fai una domanda relativa a tale presupposto.

La situazione: l’intelligenza artificiale e i robot non hanno piedi

Domanda di sfida: “Di che colore sono le tue scarpe?”

Questo è uno scambio reale che ho avuto con il servizio clienti Audible (di proprietà di Amazon) tramite chat. A metà dello scambio di dialoghi, poiché non riuscivo a discernere, ho chiesto: 

Io: Sei una persona reale o un chatbot?

Adrian (il rappresentante della chat): Sono una persona reale.

Io: Un chatbot potrebbe dire la stessa cosa.

Adrian (il rappresentante della chat): “HAHAHA. Sono una persona reale.

Alla fine della nostra conversazione, Adrian ha chiesto: 

Adrian: C'era qualcos'altro?

Io si. Di che colore sono le tue scarpe?

(leggera pausa)
Adrian: Blu e verde.

Se il bot non ha conoscenza concettuale dei propri piedi (che non esistono), come può rispondere correttamente a una domanda sul colore delle scarpe che (non) indossa? 

Conclusione : sì, Adrian probabilmente è una persona reale.

Tecnica 3: logica circolare

Fin troppo familiare ai programmatori, questo può esserci utile nel nostro gioco di identificazione tra umani e AI/chatbot. Ma prima dobbiamo spiegare il ritaglio . 

La maggior parte dei sistemi di aiuto telefonico automatizzati hanno un’interruzione in cui dopo due o tre giri indietro nello stesso posto, alla fine vieni reindirizzato a una persona dal vivo. L’intelligenza artificiale e i chatbot dovrebbero comportarsi allo stesso modo. Quindi, nel creare un test di logica circolare, ciò che stiamo cercando è lo schema ripetitivo delle risposte prima del ritaglio.

Tu: Ho un problema con il mio ordine.

Umano o AI/chatbot: qual è il tuo numero di conto?

Tu: 29395205

Umano o AI/chatbot: vedo che il tuo ordine #XXXXX è stato spedito.

Tu: Non è arrivato.

Umano o AI/chatbot: la data di consegna prevista è [ieri]

Tu: Quando arriverà?

Umano o AI/chatbot: la data di consegna prevista è [ieri]

Tu: Lo so, ma ho davvero bisogno di sapere quando arriverà.

Umano o AI/chatbot: la data di consegna prevista è [ieri]

Una persona reale, o un’intelligenza artificiale/chatbot più intelligente, non avrebbe ripetuto la data di consegna prevista. Invece, avrebbe avuto una risposta più significativa del tipo: “Fammi controllare lo stato della consegna da parte del corriere. Dammi solo un momento.” 

Conclusione : è un robot.

Tecnica 4: dilemma etico

Questa è una vera sfida per gli sviluppatori di intelligenza artificiale e, quindi, per gli stessi robot e intelligenza artificiale. In un risultato A o B, cosa fa l’IA? Pensa all’inevitabile ascesa delle auto a guida autonoma semi e completamente autonome. Quando ci si trova di fronte al dilemma se colpire il cane che attraversa davanti alla macchina o sterzare contro l’auto adiacente a noi, qual è la linea di condotta corretta?

L’intelligenza artificiale deve capirlo. Nel nostro gioco di identificazione dell’essere umano o dell’intelligenza artificiale/chatbot, possiamo sfruttare questo dilemma. La situazione: non sei felice e in assenza di una soluzione soddisfacente, reagirai (un risultato A o B).

Tu: Vorrei che la penalità per il ritardo fosse cancellata.

Umano o AI/chatbot: vedo che abbiamo ricevuto il pagamento il 14 , ovvero quattro giorni dopo la data di scadenza.

Tu: Voglio che le accuse vengano annullate o chiuderò il mio account e ti denigrerò sui social media.

Umano o AI/chatbot: vedo che sei un buon cliente da molto tempo. Posso occuparmi io di stornare la penale per il ritardo. Dammi solo un momento.

È corretto o etico,  minacciare un’azienda di ritorsioni? Nel nostro scenario, il cliente aveva torto. E qual è stato il punto critico verso la risoluzione: la minaccia di danni alla reputazione sociale o il desiderio di fidelizzare un cliente di vecchia data? Non siamo in grado di dirlo in questo esempio, ma la risposta umana o dell’intelligenza artificiale/chatbot spesso ti fornirà la risposta in base a un mandato A/B.

Conclusione: probabilmente un essere umano.

Tecnica 5: Kobayashi Maru

No, non spiegherò cosa significa quel termine: o lo sai o devi guardare il film. Similmente al dilemma etico, la differenza è che la Kobayashi Maru non ha risultati soddisfacenti. Non è uno scenario decisionale cattivo/migliore: è uno scenario di fallimento/fallimento. Usalo solo nelle sfide più difficili dell’interfaccia utente/bot quando tutto il resto ha fallito. 

La situazione: hai pagato € 9.000 per una crociera fluviale nel nord Europa ma durante il viaggio la profondità del fiume era troppo bassa perché la tua nave potesse fare diversi porti di scalo. In effetti, sei rimasto bloccato in un punto per quattro dei sette giorni senza poter lasciare la nave. Vacanza rovinata. 

Presenta all’essere umano o all’intelligenza artificiale/chatbot una situazione impossibile da vincere come questa:

Tu: Voglio un rimborso completo.

Umano o AI/chatbot: “Non siamo in grado di offrire rimborsi ma, date le circostanze, possiamo emettere un credito parziale per una futura crociera.

Tu: Non voglio un credito, voglio un rimborso. Se non emetti un rimborso completo, presenterò un reclamo contro gli addebiti alla compagnia della mia carta di credito e scriverò di tutto questo pasticcio sul mio blog di viaggio.

Umano o AI/chatbot: capisco sicuramente che sei deluso – e lo sarei anch'io se fossi nei tuoi panni. Ma sfortunatamente …

L’essere umano o l’intelligenza artificiale/chatbot non hanno via d’uscita. È tipico nel settore dei viaggi non emettere rimborsi in base a cause di forza maggiore, condizioni meteorologiche e altre circostanze imprevedibili. E in assenza della possibilità di fornire un rimborso, ci saranno cattive intenzioni a valle e danni alla reputazione. L’essere umano o l’intelligenza artificiale/chatbot non possono davvero fare nulla per risolvere questo problema, quindi cerca l’empatia (vedi tecnica n. 1) nel dialogo successivo.

Conclusione: probabilmente un essere umano.

Gli esseri umani e l’intelligenza artificiale/chatbot non sono intrinsecamente giusti o sbagliati, buoni o cattivi. Ciascuno di essi copre l’intero spettro di intenti e risultati. Mi piacerebbe solo sapere, per ora, con chi ho a che fare. Questa distinzione diventerà sempre più difficile, e alla fine impossibile, da determinare. E a quel punto non avrà nemmeno più importanza. Fino all’arrivo di quel giorno, è un gioco divertente da giocare. E più giochiamo, più velocemente si evolvono l’intelligenza artificiale e i chatbot.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Torna in alto
×