В Україні розробили інструмент для аналізу впливу штучного інтелекту на права людини
Новий інструмент Ради Європи надає вказівки та структурований підхід для проведення оцінки ризиків і впливу для систем штучного інтелекту (AI). Методологія HUDERIA спеціально розроблена для захисту та просування прав людини, демократії та верховенства права .
Його можуть використовувати як державні, так і приватні суб’єкти для виявлення та усунення ризиків і впливу на права людини, демократію та верховенство права протягом усього життєвого циклу систем ШІ. Про це повідомляє АНТИРЕЙД з посиланням на «Я і Закон».
Методологія передбачає створення плану зменшення ризиків для мінімізації або усунення виявлених ризиків, захисту населення від потенційної шкоди. Наприклад, якщо система штучного інтелекту, яка використовується під час прийому на роботу, виявляється упередженою щодо певних демографічних груп, план пом’якшення наслідків може передбачати коригування алгоритму або впровадження людського нагляду.
Методологія вимагає регулярних повторних оцінок, щоб переконатися, що система штучного інтелекту продовжує працювати безпечно та етично в міру розвитку контексту та технологій. Цей підхід гарантує, що громадськість захищена від нових ризиків протягом усього життєвого циклу системи ШІ.
Підписуйтесь на наш Канал у Telegram та на Twitter, а також на нашу сторінку у Facebook, щоб бути в курсі найважливіших подій.
Методологія HUDERIA була прийнята Комітетом зі штучного інтелекту ( CAI ) Ради Європи на його 12-му пленарному засіданні, яке відбулося в Страсбурзі 26-28 листопада. У 2025 році вона буде доповнена моделлю HUDERIA, яка надаватиме допоміжні матеріали та ресурси, включаючи гнучкі інструменти та масштабовані рекомендації.
Бажаєте бути в курсі найважливіших подій? Підписуйтесь на АНТИРЕЙД у соцмережах.
Обирайте, що вам зручніше:
- Телеграм t.me/antiraid
- Фейсбук facebook.com/antiraid
- Твіттер twitter.com/antiraid
Leave a Reply
Want to join the discussion?Feel free to contribute!