2016-03-26

Microsoft repenti un inteleto artifisial ofendente

Microsoft ia demanda ce on pardona lo per crea un inteleto artifisial capas de conversa, cual ia deveni rapida un raziste e negor de la Olocausto.

Ma a la mesma tempo, lo ia clari ce la opinas de Tay resulta de se eleva, e no de se natur. La aveni confirma lo cual nos ia sabe ja: persones en la interede pote es cruel.

Tay ia es intendeda per interata con persones de entre 18 e 24 anios en redes sosial, ma lo ia esperia "un ataca coordinada par un sugrupo de persones" pos se publici en la semana pasada.

Pos 24 oras, la ecipo de Microsoft ia desativi Tay per fa "ajustas".

Ier, Peter Lee, la xef de rexerca ia dise ce la compania es "profonda repentosa per la tuitas nonintendeda ofendente e cruel" e ia sutrae Tay de Twitter per la futur prosima.

Lee ia ajunta: "Tay es aora estralinia, e nos va atenta retrae lo sola cuando nos es serta ce nos pote previde intendes malvolente cual desacorda con nos prinsipes e valuas."

Tay ia es desiniada per aprende de se interatas con persones vera a Twitter. Saisinte la momento, alga usores ia deside nuri lo con informas raziste e ofendente.

En Xina, on ia reata diferente. Un conversador simil ia es ja publicida par Microsoft a usores xines, ma con resultas plu bon: sirca 40 milion persones interata con lo, deletada par se racontas e parletas.

Lee ia confesa ce un era en la desinia ia permete ce Tay deveni cruel.

"An si nos ia prepara contra multe spesies de malusa de la sistem, nos ia fali imajina esta modo esata de ataca. Como resulta, Tay ia tuita parolas e imajes estrema nonconveninte e condenable. Nos aseta la culpa intera per no previde esta posible."