Федеральний і провінційні уповноважені з питань конфіденційності заявили, що компанія OpenAI не дотрималася канадських законів про захист персональних даних під час навчання своєї моделі штучного інтелекту ChatGPT.
Висновки містяться у спільному звіті, підготовленому федеральним комісаром з приватності Філіпом Дюфреном та його колегами з Британської Колумбії, Альберти та Квебеку.
За даними розслідування, компанія збирала надмірно широкий обсяг інформації для тренування моделей ШІ. Це, як зазначається, призвело до використання чутливих персональних даних, зокрема інформації про стан здоров’я, політичні погляди та навіть даних, що можуть стосуватися дітей.
Регулятори також встановили, що OpenAI недостатньо чітко пояснювала, що дані з відкритих джерел можуть включати публікації із соціальних мереж, форумів та інших онлайн-платформ. Таким чином, користувачі не були повністю поінформовані про масштаби збору інформації.
Окремо у звіті зазначається, що компанія не забезпечила належного попередження про можливі неточності у відповідях ChatGPT, що може вводити користувачів в оману.
Уповноважені з приватності дійшли висновку, що підхід OpenAI до обробки даних не відповідав вимогам канадського законодавства щодо захисту персональної інформації.
Більше новин про події у Канаді читайте на UkrNews.ca.
Підписуйтеся на нашу сторінку у Facebook, Instagram, Telegram та Threads






