AI-generierten profile? Airbnb-Nutzer lieber einen menschlichen touch

In einem online-Marktplatz wie Airbnb host profile kann bedeuten, den Unterschied zwischen dem gebuchten Zimmer und einem leeren. Zu schwungvoll, zu lang, zu viele Ausrufezeichen? Sprache ist wichtig, einem Benutzer die Suche nach Vertrauen und Authentizität entscheidende Faktoren in einer online-Börse.

Mit so viel auf dem Spiel, sollte Airbnb-hosts verlassen Sie sich auf einen Algorithmus zu schreiben, Ihre profile für Sie?

Das hängt davon ab, entsprechend der neuen Forschung von der Cornell-und der Stanford Universität. Wenn jeder Nutzer algorithmisch generierten profile, die Nutzer Ihnen Vertrauen. Jedoch, wenn nur einige hosts wählen Sie zum delegieren schriftlicher Aufgaben an künstliche Intelligenz, sind Sie wahrscheinlich misstraut. Forscher Rechnung gestellt, das die „replicant-Effekt“ – eine Anspielung auf den Film „Blade Runner.“

„Die Teilnehmer waren auf der Suche für Hinweise, die fühlte mechanische versus Sprache, die gefühlt mehr menschlich und emotional,“ sagte Maurice Jakesch, Doktorand in informatik an der Cornell Tech und Hauptautor des „AI-Mediated Communication: Wie die Wahrnehmung, dass die Profil-Text wurde Geschrieben von AI Betrifft die Vertrauenswürdigkeit“, präsentiert auf der ACM Conference on Human Factors in Computing Systems, Kann 4-9 in Glasgow, Schottland.

„Sie hatten Ihre eigenen Theorien, was ein AI-generierte Profil Aussehen würde,“ Jakesch, sagte. „Wenn es gravierende Rechtschreibfehler in einem Profil, Sie würde sagen, es ist mehr die menschliche, in der Erwägung, dass, wenn jemand das Profil sah disjunkt oder sinnlos, Sie davon ausgegangen, es war AI.“

AI steht zu revolutionieren, die Natürliche Sprache an, die Technologien und wie Menschen miteinander interagieren. Menschen erleben einige AI-vermittelte Kommunikation bereits: Gmail durchsucht die Inhalte unserer ankommende E-Mails und erzeugt vorgeschlagen, ein-klicken Sie auf „intelligente Antworten“, und eine neue generation von schreibhilfe nicht nur fixes, die unsere Rechtschreibung Fehler, aber es Poliert den Schreibstil.

„Wir beginnen zu sehen, die ersten Instanzen der künstlichen Intelligenz, das als mittler zwischen den Menschen, aber es ist die Frage: ‚wollen die Menschen?“ Jakesch sagte. „Wir könnten in eine situation, wo AI-vermittelte Kommunikation ist so weit verbreitet, dass es zum Teil wie die Menschen bewerten das, was Sie online sehen.“

In der Studie haben die Forscher versucht, zu erkunden, ob die Benutzer Vertrauen algorithmisch optimiert oder generierten Darstellungen, insbesondere im online-Marktplätze. Das team führte drei Experimente, die sich Hunderte von Teilnehmern auf Amazon Mechanical Turk, um auszuwerten, real -, human-generated Airbnb-profile. In einigen Fällen wurden die Teilnehmer geführt, zu glauben, dass einige oder alle profile erstellt wurden, durch einen automatisierten KI-system. Die Teilnehmer wurden dann gebeten, jedem Profil einen Vertrauenswürdigkeit-score.

Wenn gesagt wird, dass Sie sich entweder alle Menschen generierte oder alle KI-generierten profile der Teilnehmer schien sich nicht zu trauen mehr als die anderen. Sie bewertet die Menschen – und AI-generierten profile über die gleichen.

Aber das änderte sich, als die Teilnehmer wurden darüber informiert, das Sie gerade betrachten einen gemischten Satz von Profilen. Überlassen zu entscheiden, ob die profile lasen Sie wurden geschrieben von einem Menschen oder einem Algorithmus, der Benutzer misstraut, die diejenigen, die Sie glaubten, in der Maschine erzeugt.

„Je mehr Teilnehmer angenommen wurde ein Profil AI-generierten, desto weniger waren Sie eher darauf Vertrauen, dass der host, obwohl die profile, die Sie bewertet wurden geschrieben von den eigentlichen hosts,“ die Autoren schrieb.

Was ist so schlimm daran, mit AI-vermittelten Kommunikation? Wie eine Studie Teilnehmer es ausdrückte, AI-generierten profile „können praktisch sein, aber auch ein bisschen faul. Das stellt sich mir die Frage, was sonst werden Sie faul.“

Als AI wird mehr an der Tagesordnung und kraftvoll, grundlegende Richtlinien, Ethik und Praxis von herausragender Bedeutung, sagte der Forscher. Ihre Ergebnisse deuten darauf hin, es gibt Möglichkeiten, um design-AI-Kommunikations-tools, die Verbesserung von Vertrauen für den menschlichen Benutzer. Für den Anfang, Jakesch, sagte, Unternehmen könnten, fügen Sie ein emblem für alle Texte produziert von AI, wie einige Medien schon auf den Algorithmus erstellte Inhalte. Design und den Richtlinien und Normen für die Verwendung von AI-vermittelte Kommunikation, die eine Untersuchung Wert sind nun, fügte er hinzu.

„Der Wert dieser Technologien hängt davon ab, wie Sie gestaltet sind, wie Sie vermittelt werden an Menschen und ob wir im Stande sind, schaffen ein gesundes ökosystem um Sie herum“, sagte er. „Es kommt mit einer Reihe von neuen ethischen Fragen auf: Ist es akzeptabel, habe meine algorithmischen Assistent generiert ein beredter version von mir? Ist es okay, für einen Algorithmus, um zu sagen, meine Kinder, gute Nacht für mich? Dies sind Fragen, die diskutiert werden müssen.“

Das Papier war co-authored mit Mor Naaman, associate professor of information science an der Jacobs Technion-Cornell Institute an der Cornell Tech; Xiao Ma, ein Doktorand in informatik an der Cornell Tech; und Megan Französisch und Jeffrey T. Hancock von der Stanford.