В разных странах Латинской Америки активисты и исследователи разрабатывают локальные и открытые инструменты искусственного интеллекта, чтобы лучше выявлять и уменьшать гендерное неравенство и насилие. Они отмечают, что многие большие технологические системы содержат предвзятости, которые возникли вне региона и не отражают местные представления о гендере, расе, возрасте и способностях. Из-за этого важна защита данных и прозрачность алгоритмов.
Один из примеров — DataGénero в Аргентине. Её команда создала AymurAI, программу с открытым исходным кодом для поиска в судебных документах информации по делам о гендерно обусловленном насилии. Инструмент, разработанный до появления Chat GPT, установлен на локальных серверах, чтобы обеспечить безопасность и конфиденциальность: он собирает материалы без интерпретации и сохраняет ровно то, что найдено. С момента запуска в 2021 году AymurAI используется в судах Аргентины, Чили и Коста-Рики и содержит данные более чем из 10,000 судебных решений. Проект получил финансирование от IDRC и Фонда Патрика МакГоверна; планируется добавить функцию преобразования аудио в текст, которая после валидации позволит сохранять показания и уменьшит необходимость повторного рассказа травмирующих событий, а также обезличивать чувствительные детали, например адреса.
Параллельно другиe инициативы, включая чилийскую Derechos Digitales под руководством Джамилы Вентурини, анализируют технологическую политику по всему региону и настаивают на том, чтобы приватность, справедливость и равенство закладывались в ИИ изначально. В Мексике PIT Policy Lab, основанный Кристиной Мартинес Пинто в 2021 году, работал со штатом Гуанахуато и с помощью моделей предсказал отток из школ, но выявил, что 4,000 молодых людей были ошибочно помечены как находящиеся вне группы риска; там ввели открытые инструменты для обнаружения смещений и обучение чиновников по правам человека и гендеру в ИИ.
Эксперты, в том числе Даниэль Янкелевич из Fundar, подчёркивают, что поведение людей меняется в зависимости от культуры, поэтому предиктивные системы нужно обучать на местных данных. Общие следующие шаги проектов включают улучшение обучающих данных, добавление технических функций вроде аудиотранскрипции, усиление рамок защиты данных и продвижение публичных политик для уменьшения вреда от предвзятых или непрозрачных алгоритмов.
Сложные слова
- предвзятость — необъективное отношение или системная ошибка в данныхпредвзятости
- обезличивать — удалять личные данные, делать информацию анонимной
- исходный код — текст программы, который читают и правят разработчикиисходным кодом
- валидация — проверка, что результаты или данные вернывалидации
- предиктивный — основанный на прогнозах, предсказывающий будущее событиепредиктивные
- защита данных — меры для сохранения приватности и безопасности информации
- аудиотранскрипция — преобразование речи в письменный текстаудиотранскрипции
Подсказка: наведите, сфокусируйтесь или нажмите на выделенные слова, чтобы увидеть краткие определения прямо во время чтения или прослушивания.
Вопросы для обсуждения
- Какие преимущества и недостатки вы видите у установки ИИ на локальные серверы для защиты приватности и конфиденциальности?
- Как, по вашему мнению, использование местных данных может повлиять на точность предиктивных систем в разных культурах?
- Какие меры, кроме технических, важны для уменьшения вреда от предвзятых алгоритмов в общественных службах?
Похожие статьи
Топ‑10 научных новостей года от Futurity
В конце 2025 года Futurity опубликовал подборку десяти заметных новостей о научных исследованиях. Материалы охватывают ветеринарную медицину, энергию, археологию, нейронауки и экологическое здоровье; читателям предложили вернуться в 2026 году.