В Eврoсoюзe зaпрeтят чaсть ИИ-прoгрaмм и будут кoнтрoлирoвaть oстaвшиeся
Entry__legacy text-gray-700 dark:text-gray-400″>
Вчeрa Eврoкoмиссия пoдгoтoвилa нoвыe прaвилa, кoтoрыe дoлжны регулировать работу ИИ. В них чиновники решили разделить программы с ИИ на борту на четыре категории:
- Неприемлимый ИИ. К этой категории относятся ИИ, которые манипулируют поведением людей (например, голосовые программы, которые предлагают несовершеннолетним нарушать закон), а также системы, проводящие «социальную оценку» граждан
- ИИ с высоким риском. Сюда относятся программы, которые влияют на общественную жизнь. Например, ИИ, проверяющий экзамены в школе, сканирующий документы мигрантов или собирающий данные о человеке, который хочет устроиться на работу или получить кредит. В этом случае правительство должно контролировать исходные данные, которые будут заложены в основу алгоритмов, чтобы «минимизировать дискриминационные результаты»
Что любопытно, в эту же категорию входят системы, которые позволяют полицейским удаленно идентифицировать личность граждан. Такие ИИ вообще можно будет применять только в исключительных случаях — например, для поиска пропавшего ребенка или поимки беглого преступника. Но сперва нужно будет получить судебное разрешение, а программу сканирования разрешат запускать только в конкретной области и лишь на короткое время.
- ИИ ограниченного риска. В эту категорию попадают системы ИИ, которые помогают пользователям взаимодействовать с различными устройствами или программами — например, чат-боты. К таким программам есть лишь одно условие — пользователь должен понимать, что имеет дело именно с ИИ
- ИИ минимального риска. Самые безобидные системы ИИ, вроде спам-фильтров или «видеоигр с поддержкой ИИ». На такие программы в Евросоюзе не собираются обращать внимания
Дело осталось за малым — теперь Европейскому Союзу нужно превратить все эти наборы правил в полноценные законы. А на это может уйти как год, так и бесконечность.