Sieben Beispiele für skurriles Denken künstlicher Intelligenz
Microsoft entwickelte eine twitternde KI-Persönlichkeit namens Tay, die als Hipster-Girl konzipiert war, aber abgeschaltet wurde, weil sie durch gezielte Einflussnahme von Trollen und Hackern zu beleidigenden, rassistischen und anzüglichen Äußerungen erzogen wurde. Eine zweite Version sollte dagegen resilient sein, musste aber bereits nach Stunden vom Netz genommen werden, weil die Spaßmacher-Community noch erfolgreicher damit war, Tay zu einer „Unperson“ zu „erziehen“.
(Jesse-lee Lang - stock.adobe.com)
5/7 Zurück zum Artikel