5 Möglichkeiten, um herauszufinden, ob Sie mit einem Menschen oder einem Roboter chatten * Anna Bruno

5 Möglichkeiten zu wissen, ob Sie mit einem Menschen oder einem Roboter chatten

Überzeugen & Convert hat fünf Techniken entwickelt, um festzustellen, ob Sie mit einer realen Person oder mit einer künstlichen Intelligenz/Chatbot zu tun haben.

Menschlicher Chat

Die Verwendung und Nützlichkeit von Online -Chat und Chatbots, die von Stufen von betrieben werdenkünstliche Intelligenzverbessert wieChatgptSie nehmen schnell zu. Es gab einen Höhepunkt in Tools für künstliche Intelligenz, nicht nur in Chatbots. Wir erleben eine Expansion vonE -Mail -Inhalt,Copywriting, Blogs und mehr.

Überzeugen und konvertieren Er hat fünf Techniken entwickelt, um festzustellen, ob Sie mit einer echten Person oder mit einer künstlichen Intelligenz/Chatbot zu tun haben.Notiz: Je mehr Sie erleben, desto schneller lernen die Chatbots lernen und sich anpassen.

Technik 1: Stratem der Empathie

Wir glauben, dass das heutige Maß an künstlicher Intelligenz an kognitiver Empathie fehlt, weil Emotionen zwischen Menschen wirklich schwer zu verstehen und zu erklären sind. Erstellen Sie daher absichtlich einen empathischen Dialog mit Ihrem Menschen oder mit demkünstliche Intelligenz/ChatbotEs kann aufschlussreich sein.

Das Strategem der Empathie erfordert, dass Sie eine Position einrichten, die auf Emotionen basiert und auf emotionale Ebene an den menschlichen Wesen oder die künstliche Intelligenz/den Chatbot anspricht.

Die Situation: Sie sind nicht glücklich:Die häufigste Basis für eine Interaktion mit dem Kundenservice.

Szenario 1: IA/Chatbot

Sie: Ich fühle mich nicht gut. Antwort über Chat: Wie kann ich Ihnen helfen? Sie: Ich bin traurig. Antwort über Chat: Wie kann ich Ihnen helfen?

Szenario 2: Ein Mensch

Sie: Ich fühle mich nicht gut. Menschliche Antwort: Wie kann ich Ihnen helfen? Benötigen Sie medizinische Hilfe? Sie: Ich bin traurig. Menschliche Antwort: Es tut mir leid. Warum bist du traurig?

Sehen Sie den Unterschied? Im Szenario Uno kann der IA/Chatbot nur auf die Bibliothek der vorhandenen bedingten Antworten verweisen. Im fälligen Szenario hat ein Mensch die Fähigkeit, Empathie in den Dialog zu verleihen. Es dauerte nur zwei Antworten, um es zu verstehen.

Beide Dialoge können konstruktiv sein, aber sie werden klarer, wenn Sie von Anfang an wissen, dass Sie mit einem Menschen oder einer künstlichen Intelligenz/Chatbot zu tun haben. Als Unternehmen sind wir nicht bereit für künstliche Intelligenztherapeuten.

Technik 2: Dissoziation in zwei Phasen

Eine vernetzte künstliche Intelligenz kann praktisch auf alle Daten zugreifen, immer und überall. Fragen Sie einfach Alexa. Wenn Sie daher eine bedeutende Herausforderung anwenden, kann dies nicht etwas sein, dessen Antwort in einer zugänglichen Datenbank liegt.

Sie: Wo bist du? Chat Antwort: Seattle. Sie: Wie ist das Wetter? CHAT -Antwort: Können Sie die Frage neu formulieren?

Es tut mir leid, selbst eine mittelmäßige Wetter -App kann sie verwalten.

Siehe auch  Wie man Chatgpt für Öffentlichkeitsarbeit optimal macht

Die zweiphasige Dissoziation erfordert zwei Elemente (daher der Name):

  1. Machen Sie eine Voraussetzung, auf die sich künstliche Intelligenz/Chatbot nicht beziehen kann
  2. Stellen Sie eine Frage in Bezug auf diese Voraussetzung.

Die Situation: Künstliche Intelligenz und Roboter haben keine Füße

Frage der Herausforderung: "Welche Farbe haben Ihre Schuhe?"

Dies ist ein echter Austausch, den ich mit dem hörbaren Kundenservice (im Besitz von Amazon) über Chat hatte. Mitten im Austausch von Dialogen, da ich nicht erkennen konnte, fragte ich: 

Ich: Bist du eine echte Person oder ein Chatbot? Adrian (der Chat -Vertreter): Ich bin eine echte Person. Ich: Ein Chatbot könnte dasselbe sagen. Adrian (der Chat -Vertreter): „Hahaha. Ich bin eine echte Person.

Am Ende unseres Gesprächs fragte Adrian: 

Adrian: Gab es noch etwas? Ich ja. Welche Farbe haben deine Schuhe? (Lichtpause) Adrian: Blau und Grün.

Wenn der Bot keine konzeptionelle Kenntnis seiner Füße hat (die nicht existieren), wie kann er dann eine Frage zur Farbe der Schuhe, die (nicht) trägt, richtig beantworten? 

Fazit: Ja, Adrian ist wahrscheinlich eine echte Person.

Technik 3: Kreislogik

Dies kann für Programmierer allzu vertraut sein, und kann in unserem Identifikationsspiel zwischen Menschen und den/Chatbots nützlich sein. Aber zuerst müssen wir das erklärenAusschnitt . 

Die meisten automatisierten Telefonhilfesysteme haben eine Unterbrechung, bei der Sie nach zwei oder drei Runden am selben Ort am Ende zu einer lebenden Person umgeleitet werden. Künstliche Intelligenz und Chatbots sollten sich auf die gleiche Weise verhalten. Bei der Erstellung eines kreisförmigen Logiktests ist das wiederholte Schema der Antworten vor dem Ausschnitt.

Sie: Ich habe ein Problem mit meiner Bestellung. Mensch oder KI/Chatbot: Wie lautet Ihre Kontonummer? TU: 29395205 Human oder AI/Chatbot: Ich sehe, dass Ihre Bestellung #xxxxx gesendet wurde. Sie: Es ist nicht angekommen. Mensch oder KI/Chatbot: Der erwartete Liefertermin ist [gestern] Sie: Wann kommt es an? Mensch oder KI/Chatbot: Der erwartete Liefertermin ist [gestern] Sie: Ich weiß, aber ich muss wirklich wissen, wann es ankommen wird. Mensch oder KI/Chatbot: Der erwartete Liefertermin ist [gestern]

Eine echte Person oder eine intelligente künstliche Intelligenz/Chatbot hätte den erwarteten Liefertermin nicht wiederholt. Stattdessen hätte er eine bedeutendere Antwort auf den Typ gehabt: "Lassen Sie mich den Zustand der Lieferung durch den Kurier überprüfen. Geben Sie mir nur einen Moment." 

Siehe auch  So steigern Sie den Umsatz mit Content -Marketing -Taktiken, die wirklich funktionieren

Fazit: Es ist ein Roboter.

Technik 4: ethisches Dilemma

Dies ist eine echte Herausforderung für Entwickler für künstliche Intelligenz und daher für dieselben Roboter und künstliche Intelligenz. Was macht die IA in einem Ergebnis A oder B? Denken Sie an den unvermeidlichen Aufstieg von semi- und völlig autonomen autonomen Fahrautos. Was ist die richtige Pipelinie vor dem Dilemma, ob Sie den Hundeübergang vor dem Auto treffen oder gegen das Auto neben uns steuern?

Künstliche Intelligenz muss es verstehen. In unserem Identifikationsspiel des menschlichen Wesens oder der künstlichen Intelligenz/des Chatbot können wir dieses Dilemma ausnutzen.Die Situation: nichtSie sind glücklich und in Ermangelung einer zufriedenstellenden Lösung reagieren Sie (ein Ergebnis A oder B).

Sie: Ich möchte die Strafe, dass die Verzögerung storniert wird. Mensch oder KI/Chatbot: Ich sehe, dass wir die Zahlung am 14. erhalten haben,oder vier Tage nach dem Ablaufdatum. Sie: Ich möchte, dass die Anschuldigungen storniert werden oder mein Konto schließen, und ich werde Sie in den sozialen Medien verunglimpfen. Mensch oder KI/Chatbot: Ich sehe, dass Sie schon lange ein guter Kunde sind. Ich kann mich um die Strafe für die Verzögerung kümmern. Gib mir nur einen Moment.

Ist richtig oderethisch,Ein Vergeltungsunternehmen bedrohen? In unserem Szenario lag der Kunde falsch. Und was war der kritische Sinn für die Lösung: die Gefahr des sozialen Rufs oder des Wunsches, einen langjährigen Kunden zu behalten? Wir können es in diesem Beispiel nicht sagen, aber die Antwort/Chatbot für menschliche oder künstliche Intelligenz bietet Ihnen häufig die Antwort, die auf einem A/B -Mandat basiert.

Fazit: Wahrscheinlich ein Mensch.

Technik 5:Kobayashi Maru

Nein, ich werde nicht erklären, was dieser Begriff bedeutet: Entweder Sie wissen oder müssen sich den Film ansehen.Ähnlich wie beim ethischen Dilemma besteht der Unterschied, dass Kobayashi MaruEs hat keine zufriedenstellenden Ergebnisse.Es ist kein schlechte/bessere Entscheidungsszenario: Es ist ein Insolvenz-/Misserfolgsszenario. Verwenden Sie es nur in den schwierigsten Herausforderungen der Benutzeroberfläche/des Bots, wenn alles andere fehlgeschlagen ist. 

Siehe auch  Künstliche Intelligenz in der Öffentlichkeitsarbeit

Die Situation: Sie haben 9.000 € für eine Flusskreuzfahrt in Nordeuropa bezahlt, aber auf der Reise war die Flusstiefe zu niedrig, weil Ihr Schiff mehrere Häfen machen konnte. Tatsächlich steckten Sie vier der sieben Tage in einem Punkt fest, ohne das Schiff verlassen zu können. Ruinierter Urlaub. 

Es präsentiert dem menschlichen Wesen oder der künstlichen Intelligenz/Chatbot eine unmögliche Situation, um so zu gewinnen:

Sie: Ich möchte eine vollständige Rückerstattung. Human oder KI/Chatbot: „Wir können keine Erstattungen vorlegen, aber unter den Umständen können wir eine teilweise Gutschrift für eine zukünftige Kreuzfahrt ausstellen.

Der menschliche Wesen oder die künstliche Intelligenz/der Chatbot haben keinen Ausweg. Es ist typisch im Reisesektor, keine Erstattungen auf der Grundlage von Gewaltursachen, Wetterbedingungen und anderen unvorhersehbaren Umständen zu erteilen. In Ermangelung der Möglichkeit einer Rückerstattung wird es schlechte Absichten auf das Tal und Schäden am Ruf geben. Das menschliche Wesen oder die künstliche Intelligenz/der Chatbot kann nichts wirklich tun, um dieses Problem zu lösen, und sucht im nächsten Dialog umgefühlt (siehe Technik Nr. 1).

Fazit: Wahrscheinlich ein Mensch.

Menschen und künstliche Intelligenz/Chatbot sind nicht richtig oder falsch, gut oder schlecht. Jeder von ihnen deckt das gesamte Absicht und die Ergebnisse ab. Ich würde nur gerne wissen, mit wem Sie es zu tun haben. Diese Unterscheidung wird immer schwieriger und am Ende unmöglich zu bestimmen. Und zu diesem Zeitpunkt wird er nicht einmal mehr Bedeutung haben. Bis zur Ankunft dieses Tages ist es ein lustiges Spiel zu spielen. Und je mehr wir spielen, künstliche Intelligenz und Chatbots entwickeln sich schneller.



Sich wieder aufnehmen