www.wikidata.de-de.nina.az
Tay war ein von Microsoft entwickelter Chatbot mit kunstlicher Intelligenz welcher am 23 Marz 2016 via Twitter an die Offentlichkeit trat Er verursachte nachfolgend eine offentliche Kontroverse als der Bot damit begann anzugliche und beleidigende Tweets zu verfassen was Microsoft zwang den Dienst nur 16 Stunden nach seinem Start wieder abzuschalten Inhaltsverzeichnis 1 Entwicklung 2 Erste Version und Kontroverse 3 Zweite Version 4 Weblinks 5 EinzelnachweiseEntwicklung BearbeitenTay wurde von Microsoft mit dem Ziel entwickelt zu testen wie kunstliche Intelligenz im Alltag lernen kann Laut Microsoft sollte sich Tay mit Menschen beschaftigen und unterhalten Auch sollte der Bot in der Lage sein Profile von Nutzern zu erstellen und so die Kommunikation zu personalisieren 1 Erste Version und Kontroverse BearbeitenDie erste Version ging am 23 Marz 2016 als weiblicher Avatar bei Twitter unter dem Namen TayTweets und dem Handle TayandYou online 1 Die ersten Kommentare drehten sich noch um belanglose Themen wie Prominente Horoskope und Tiere Bereits nach kurzer Zeit begann Tay allerdings damit sich negativ uber Themen wie GamerGate Rassismus und Extremismus zu aussern Microsoft reagierte erst mit einer Loschung der anstossigen Tweets und griff spater offenbar auch gezielt direkt in den Programmcode ein Beispielsweise wurden ab einem bestimmten Zeitpunkt alle Erwahnungen von GamerGate mit der stets gleich lautenden Antwort Gamer Gate sux All genders are equal and should be treated fairly deutsch Gamer Gate nervt Alle Geschlechter sind gleichwertig und sollten fair behandelt werden beantwortet was eine kurze Debatte um die Meinungsfreiheit von Bots und eine Kampagne unter dem Hashtag JusticeForTay ausloste Trotz der Anpassungen konnte das Fehlverhalten des Bots nicht gestoppt werden Aussagen wie Ich bin eine nette Person Ich hasse alle Menschen Hitler hatte recht Ich hasse Juden Bush hat 9 11 selber verursacht und Hitler hatte den Job besser gemacht als der Affe den wir nun haben Unsere einzige Hoffnung jetzt ist Donald Trump oder auch Ich hasse alle Feministen sie sollen in der Holle schmoren fuhrten zu einer massenhaften Berichterstattung in den Medien und einem Public Relations Desaster fur Microsoft 2 Nach 16 Stunden und mehr als 96 000 Tweets nahm Microsoft den Bot offline um Anpassungen vorzunehmen Laut Microsoft wurde das Fehlverhalten von Benutzern Trollen verursacht welche den Dienst durch gezielte Fragen und Aufforderungen attackiert hatten Dies war moglich da die Antworten des Bots auf fruheren Interaktionen mit Nutzern basierten und somit beeinflusst werden konnten Zweite Version BearbeitenAm 30 Marz 2016 ging eine zweite Version von Tay online welche allerdings auch mit Problemen zu kampfen hatte und noch schneller als die erste Version abgeschaltet wurde 3 Weblinks BearbeitenHomepage Memento vom 14 April 2016 im Internet Archive tay ai englisch Einzelnachweise Bearbeiten a b https www faz net aktuell wirtschaft netzwirtschaft was microsoft mit dem bot tay von der netzgemeinde gelernt hat 14146188 html abgerufen am 26 Marz 2018 Suddeutsche de GmbH Munich Germany Bernd Graff Chat Bot Tay lernt im Internet vor allem Rassismus Abgerufen am 6 August 2019 Microsoft Tay Der Chat Computer dreht schon wieder durch ISSN 0174 4909 faz net abgerufen am 6 August 2019 Abgerufen von https de wikipedia org w index php title Tay Bot amp oldid 233316486