bga68: (Default)
[personal profile] bga68

taytweet_cropped

Microsoft Tay — експериментальний чат-бот зі штучним інтелектом, якого запустили у Twitter 23 березня 2016 року під ніком [profile] tayandyou, але вимкнули менш ніж через 16 годин після запуску через скандал.

Tay (The AI) — це був чат-бот, створений Microsoft Research і Bing Team, як "розмовний AI" для спілкування з молоддю віком 18–24 роки у Twitter. Tay мав вчитися "говорити, як молодь", завдяки машинному навчанню на основі діалогів у соцмережі.

У грудні 2016 Microsoft здійснила нову спробу. Це вже був Microsoft Zo.
Ось що писали про Zo:

Згідно зі статистикою DMR , понад 60% людей, які використовують ботів у месенджері Kik, мають вік від 13 до 19 років, а приблизно 40% усіх користувачів месенджера Kik у США – це або молоді люди, або підлітки. Можливо, це цільова демографічна група Microsoft, що також може пояснити «міленіальний» характер Zo. Однак, незважаючи на зусилля Microsoft уникнути неналежних відповідей Zo, це може бути лише питанням часу, коли Zo зіткнеться з такою ж корупцією, як і Tay, з боку вмілих та свавільних підлітків.

Якщо коротко, різниця між Tay і Zo:

Tay (березень 2016)

  • Чат-бот у Twitter, орієнтований на молодь.
  • Мав «вчитися» спілкуванню від користувачів.
  • За 16 годин після запуску Tay почав публікувати расистські, сексистські та образливі твіти — через маніпуляції користувачів.
  • Microsoft змушена була екстрено його вимкнути.

Zo (грудень 2016)

  • Наступник Tay, доступний через Kik, Facebook Messenger, Skype.
  • Більш «обережний» — Microsoft зробила сильні фільтри, щоб бот уникав політики, насильства, расових чи чутливих тем.
  • Zo позиціонували як дружнього чат-бота для розмов «про життя», меми, побутові теми.
  • Утім, через надмірну цензуру виглядав «обмеженим» у відповідях і не став хітом.

👉
Отже, різниця: Tay — занадто «відкритий» і швидко зламався під впливом користувачів, а Zo — надто «закритий» і безпечний, але через це нудний.

Це стало класичним прикладом “AI grooming” — коли AI маніпулюють ззовні, змінюючи його поведінку.

Tay став символом того, що AI без обмежень — це не “інтелект”, а дзеркало людських вподобань. Іноді дуже токсичних.
Сьогодні навіть воєнні AI-системи мають ризик бути навмисно чи випадково “перевихованими”, якщо немає належного захисту, валідації, логування та обмежень.


Profile

bga68: (Default)
bga68

December 2025

M T W T F S S
1 23 4 5 6 7
8 91011 12 13 14
15 16 1718 19 2021
22 232425 262728
293031    

Most Popular Tags

Style Credit

Expand Cut Tags

No cut tags
Page generated 2025-12-27 03:19
Powered by Dreamwidth Studios