Показать сообщение отдельно
Старый 17.05.2023, 19:08   #33 (permalink)
AlexZir
support
 
Аватар для AlexZir
 
Регистрация: 19.08.2007
Адрес: Зея
Сообщений: 15,797
Записей в дневнике: 71
Сказал(а) спасибо: 166
Поблагодарили 203 раз(а) в 86 сообщениях
Репутация: 75760
По умолчанию

Европарламент принял закон под названием AI Act, который устанавливает правила и требования для разработчиков моделей искусственного интеллекта. Документ призван обеспечить безопасность, прозрачность, экологичность и этичность использования ИИ в Европе.

Правила устанавливают риск-ориентированный подход к ИИ и формулируют обязательства для разработчиков и пользователей ИИ в зависимости от уровня риска, который он может создавать. Системы ИИ с неприемлемым уровнем риска для безопасности людей будут строго запрещены. В эту группу войдут, например, системы, использующие подсознательные или целенаправленные манипулятивные методы, эксплуатирующие уязвимости людей или используемые для социальной оценки (классификация людей на основе их поведения, социально-экономического статуса, личных характеристик).

Парламент также уточнил список практик, запрещённых для искусственного интеллекта. В него вошли:

• удалённая биометрическая идентификация, в том числе в общественных местах в реальном времени, с исключением для правоохранительных органов и только после судебного разрешения;

• биометрическая категоризация с использованием чувствительных характеристик (например, пол, раса, этническая принадлежность, гражданство, религия, политическая позиция);

• прогностические полицейские системы (основанные на профилировании, местоположении или прошлом криминальном поведении);

• распознавание эмоций в правоохранительных органах, пограничных службах, на рабочих местах и в учебных заведениях;

• неизбирательное извлечение биометрических данных из социальных сетей или видеозаписей с камер видеонаблюдения для создания баз данных распознавания лиц (нарушение прав человека и права на неприкосновенность частной жизни).

Закон уточняет список ИИ-систем «высокого риска». В соответствии с документом, это системы, которые могут потенциально причинить вред здоровью людей или окружающей среде. Сюда также входят системы искусственного интеллекта, которые используются для влияния на избирателей в политических кампаниях и алгоритмы рекомендаций соцсетей.

Поставщики и разработчики «высокорискового» ИИ обязаны, в соответствии с законом, провести оценку риска и соответствия, зарегистрировать свои системы в европейской базе данных ИИ, обеспечить высокое качество данных, которые используются для обучения ИИ, обеспечить прозрачность системы и информированность пользователей, а также обязательный надзор со стороны человека и возможность вмешательства в работу системы.

Что касается «низкорискового» ИИ, такого как чат-боты, то его поставщики обязаны информировать пользователей о том, что они взаимодействуют с ИИ, а не с человеком. Для генеративных моделей добавляется ещё одно требование — сообщать пользователям, что контент создан нейросетью.

__________________
Убить всех человеков!
AlexZir вне форума   Ответить с цитированием
Ads

Яндекс

Member
 
Регистрация: 31.10.2006
Сообщений: 40200
Записей в дневнике: 0
Сказал(а) спасибо: 0
Поблагодарили 0 раз(а) в 0 сообщениях
Репутация: 55070