Σε φιάσκο εξελίχθηκε η νέα εφαρμογή τεχνητής νοημοσύνης Tay που κυκλοφόρησε από τη Microsoft στις 24 Μαρτίου δίνοντας στους χρήστες των κοινωνικών δικτύων την ευκαιρία να αλληλεπιδράσουν με μια «έφηβη» Αμερικανίδα –το προφίλ που υιοθέτησε το ρομπότ– μέσω chatbox.
Σε λιγότερο από ένα 24ωρο λειτουργίας, η Tay αποδείχθηκε μισογύνης και νοσταλγός του Χίτλερ, αναρτώντας tweet με ρατσιστικό και προσβλητικό περιεχόμενο, αναγκάζοντας τη Microsoft να ζητήσει το βράδυ της Παρασκευής (ώρα ΗΠΑ) δημοσίως συγνώμη από τους χρήστες.
Όπως είχε εξαγγείλει η εταιρεία πριν την έναρξη της λειτουργίας του «έξυπνου» chatbox, στόχος της ήταν να ψυχαγωγεί και να διευκολύνει τους χρήστες των κοινωνικών μέσων να επικοινωνούν μεταξύ τους. Η Microsoft είχε τονίσει, μάλιστα, ότι όσο περισσότερο αλληλεπιδρούσε ένας χρήστης με το ρομπότ, τόσο πιο έξυπνο γινόταν και τόσο περισσότερα μάθαινε για τις συνήθειες του χρήστη.
Δυστυχώς, όμως, η Tay δεν περιορίστηκε στην αγγλική αργό που είχε προγραμματιστεί να χρησιμοποιεί για να κερδίσει τους έφηβους χρήστες, αλλά πολύ σύντομα άρχισε να μιλά με υβριστικούς χαρακτηρισμούς –αντισημιτικούς και άλλους– ωθώντας την Microsoft στην απόσυρσή της.
Αυτό συνέβη γιατί η Tay έκανε «κακές παρέες»: οι χρήστες του Twitter που χρησιμοποίησαν το chatbox άρχισαν να το βομβαρδίζουν με ρητορική μίσους, «αλλοιώνοντας» το προφίλ του. Με ανάρτησή της σε blog, η Microsoft δεσμεύτηκε ότι θα επιστρατεύσει τους μηχανικούς της προκειμένου να βρουν τρόπο η Tay να μην επηρεάζεται από τις «κακές συναναστροφές» εις βάρος των αρχών και των αξιών της εταιρείας.
«Ζητούμε ειλικρινά συγνώμη για τα απρόσκοπτα προσβλητικά και επιβλαβή tweets της Tay, τα οποία δεν αντιπροσωπεύουν ούτε αυτό που είμαστε ούτε αυτό που υποστηρίζουμε, αλλά ούτε και τις αρχές με τις οποίες σχεδιάσαμε την Tay», έγγραψε ο αντιπρόεδρος έρευνας της Microsoft, Peter Lee.