Ostatnio mamy dość często do czynienia z czymś, co ma powoli przypominać sztuczną inteligencję. Zaczątki takiego mechanizmu mają w sobie nasze asystentki telefoniczne jak Cortana, czy Siri. W ich przypadku już ludzie mieli zamiar naużywać swojej władzy i niedawno ukazał się raport dotyczący słów, jakie przekazujemy obu asystentkom. Dowiódł on, że obie są regularnie molestowane seksualnie przez użytkowników. Nic dziwnego, że doszło do zupełnie innego zdarzenia, tym razem na tle rasistowskim.
Tay jest tzw. millenialsem i… botem, który był dostępny na Twitterze i każdy mógł z nim porozmawiać. Ma dziewiętnaście lat. Miała się uczyć od swoich rozmówców, ale niestety, uczyła się bardzo szybko. Może za bardzo. Przenosząc emocję użytkowników, z którymi rozmawiała, została rasistką oraz zafascynowała się Adolfem Hitlerem i Donaldem Trumpem. Wszyscy zastanawiają się, dlaczego eksperyment się nie udało i co poszło nie tak. W internecie udało mi się znaleźć dwa filmiki omawiające nieco ten problem.