Пять способов, которыми технологии конфиденциальности могут произвести революцию в искусственном интеллекте
Перевод статьи, оригинал здесь

Алгоритмы искусственного интеллекта созданы на основе интенсивного массового наблюдения за последние два десятилетия. И все же, пробуя новейшие новые модели, такие как стабильная диффузия и GPT-4, многие из нас, тем не менее, находят их потрясающими. Так куда же мы пойдем дальше?
В последнее время искусственный интеллект повсюду, но у него есть менее известный брат в мире цифровых технологий, а именно криптография , которая может раскрыть более социально внедренные формы искусственных интеллектов (да, во множественном числе), передав право принятия решений в руки людей. Надежная защита конфиденциальности является ключом к настоящей революции в области искусственного интеллекта с социальной точки зрения.
Настало время положить конец дебатам об искусственном интеллекте. И происходит это примерно так…
1 Повышение конфиденциальности в ИИ
Алгоритмы ИИ — это, по сути, статистика на стероидах. Они рассчитывают статистические вероятности на больших наборах данных, а это означает, что им нужны большие объемы данных, чтобы более точно рассчитать, каким может быть следующее слово в предложении, следующий пиксель в изображении, следующее движение в движущемся изображении и так далее. .
Откуда берутся все эти данные? До сих пор этот огромный аппетит к данным в основном подпитывался десятилетиями цифрового наблюдения. В этом смысле ИИ — это производная данных . Фактически, как и сегодня, ИИ является производной системы наблюдения . От сбора общедоступных данных LinkedIn и Twitter до гораздо более сомнительного с этической точки зрения использования тюремных фотографий для тренировки алгоритмов распознавания лиц, в этих огромных наборах данных обнаруживаются даже предположительно частные медицинские записи. ИИ был построен на базе цифровой индустрии, подпитываемой принудительной передачей данных всем нам.
Вопрос конфиденциальности начинает возникать в дебатах по поводу ИИ. Но существует опасность, что передовые технологии криптографии и конфиденциальности будут использоваться для «отмывания конфиденциальности» ИИ, который в противном случае был бы вреден. Дифференциальная конфиденциальность, гомоморфное шифрование и безопасные многосторонние вычисления могут помочь защитить конфиденциальные данные и сохранить индивидуальную конфиденциальность, сохраняя при этом возможность обучения ИИ. Это означает, что отдельные люди могут сохранять свою конфиденциальность, в то же время позволяя нам разрабатывать модели ИИ. Однако возникает важный вопрос: разве это не слежка, если ваши данные считывает машина?
Ответ: да. Даже если конфиденциальность человека защищена, когда его данные передаются алгоритмам искусственного интеллекта, это может и будет способствовать системам массового наблюдения и контроля. Защиты частной жизни человека недостаточно, потому что его зашифрованные данные могут обучить ИИ, который в дальнейшем может быть использован для усиления наблюдения и контроля за другими людьми в других местах.
Но так не должно быть. Обеспечение конфиденциальности при общении по умолчанию — это первый шаг к изменению баланса сил, когда дело касается ИИ. Сквозное шифрование, микснеты, а также криптография с нулевым разглашением — все это способствует радикальному сокращению объема персональных данных, собираемых и продаваемых неподотчетными компаниями. Надежная защита конфиденциальности — это первый шаг к изменению баланса сил в пользу простых людей, открывающий путь к значимому согласию и возможности его отозвать.
2. Прокладывая путь к консенсуальному ИИ
Консенсуальный ИИ — это термин, придуманный художниками Холли Херндон и Мэтом Драйхерстом, которые разрабатывают инструменты, позволяющие воплотить его в жизнь на практике: вместе со своей группой Spawning они создали проект «Я обучался», где художники могут искать свои изображения в больших открытых наборах данных и требовать отказа. Это происходит в партнерстве с LAION , некоммерческой организацией, занимающейся крупномасштабными наборами изображений.
В случае Spawning упор делается на отзыв согласия постфактум . Но в дальнейшем методы повышения конфиденциальности, такие как схема выборочного раскрытия (включая zk-nyms ), а также безопасное федеративное обучение, могут заранее расширить возможности согласованных практик и позволить людям безопасно обмениваться данными на своих условиях. Данные можно даже обрабатывать на распределенных устройствах, не покидая их локального хранилища, что позволяет нескольким организациям сотрудничать для достижения общей цели, не обмениваясь конфиденциальными данными. Такие методы могут проложить путь к активному и согласованному вкладу в развитие ИИ обычных людей, сообществ и групп, а не к покупке и продаже на непонятных рынках данных.
Технологии конфиденциальности обеспечивают возможность значимого согласия в отношении данных и искусственного интеллекта. Уже существует несколько процветающих проектов, которые активно работают над тем, чтобы развитие ИИ стало открытым , консенсусным и демократическим процессом . Но возможность принимать решения относительно данных — это не только согласие, это также вопрос о том, кто в первую очередь будет определять, какой тип ИИ будет обучаться…
3 Обеспечение суверенитета и децентрализации
Данные, наборы данных и ИИ не нейтральны. Создание и запись данных всегда предполагает понимание того, что имеет значение в мире, следует ли их фиксировать и каким образом. Несколько лет назад Инициатива по будущему коренных народов и Канадский институт перспективных исследований (CIFAR) опубликовали важный позиционный документ по искусственному интеллекту коренных народов. Авторы обсуждают, как ИИ может служить конкретным мировоззрениям и эпистемологии коренных народов Аотеароа, Австралии, Северной Америки и Тихоокеанского региона. Практическое использование включало возрождение почти исчезнувших языков и расширение мировоззрений . Значение этого отчета об искусственном интеллекте коренных народов актуально для всех, кто интересуется искусственным интеллектом. Важно отметить, что это подчеркивает, что ИИ на самом деле являются множественными.в том смысле, что его реальный потенциал заключается во многих способах использования данных и алгоритмов для усиления калейдоскопа смыслов и интеллекта.
OpenAI в своем недавнем выпуске GPT-4 сравнивает свои возможности с возможностями человека: «Хотя во многих реальных сценариях он менее способен, чем люди, он демонстрирует производительность на уровне человека по различным профессиональным и академическим критериям».Экзамен на адвоката в США был одним из критериев, используемых для оценки эффективности GPT-4. В его обучении большое внимание уделяется английскому языку и культуре США, юмору, правовой базе и привычкам. Другими словами, специфическая культура и набор задач. Не существует универсального «искусственного интеллекта», конкурирующего с универсальным «человеком». Культурная привычка представлять дебаты как соревновательную гонку между «людьми» и «машинами» является глубоко разочаровывающей и разрушительной привычкой для ряда технологий, которые имеют гораздо более интересный потенциал — если мы только поймем это правильно. Реальный вопрос здесь не в том, работает ли ИИ как человек или нет, а в том, для кого он работает .
Способность различать, что имеет, а что не имеет значения, — это именно то, что заставляет ИИ работать, и это глубоко культурный и ситуативный вопрос. Это должно осуществляться в соответствии с суверенными решениями затронутых людей. Поэтому криптографические методы, обеспечивающие эффективное управление и проверку данных, необходимы для того, чтобы люди могли активно участвовать в принятии решений о том, что должно иметь значение, а что нет…
4 Предотвращение дезинформации и дип-фейков
Криптографические доказательства и методы проверки могут использоваться для проверки точности и источника информации. И это становится все более важным для обеспечения суверенитета знаний и информации людей перед лицом доминирующей культуры. Это также важно для безопасной проверки информации. Челси Мэннинг недавно отметила в интервью, что инструменты искусственного интеллекта создают целый ряд новых проблем, связанных с дезинформацией и фейками. Бывают случаи, когда GPT-4 по сути изобретает вымыслы, основанные на совершенно непроверенных наборах данных (что даже приводит к ложным историям с тяжелыми личными последствиями). Модели ИИ «глупы» в том смысле, что они просто опираются на данные и не способны распознать или понять, является ли что-то правдивым и реальным или нет.
Такие сообщества, как Hugging Face, уже возникают вокруг курирования, маркировки и обмена открытыми наборами данных, а также совместной работы над моделями. Публичные блокчейны могут способствовать таким усилиям, предоставляя защищенные от подделки реестры проверенных данных, а также механизмы консенсуса для добавления данных в реестр. Таким образом, люди могут принимать участие в формировании своих общих записей истины и иметь право голоса в том, как обучается ИИ — с помощью того, какие методы управления им лучше всего подходят: новые формы ДАО, гильдии или модернизированные библиотеки? Потому что давайте посмотрим правде в глаза: это коллективные проблемы, а не то, на что у отдельных людей есть время в повседневной жизни.
5. Защитить свободу быть разными — взгляд киберпанка
На кону будущего искусственного интеллекта стоит не что иное, как свобода отличаться от других и не подчиняться централизованному пониманию того, что важно в мире. В конце 1980-х и 1990-х годах субкультура киберпанков уже предвидела будущее, в котором Интернет станет средством массовой слежки и централизованного контроля. Менее ценный аспект этого предчувствия киберпанка — его положительный вклад в защиту конфиденциальности как возможности отличаться от других.
Идея «AGM» или «Сингулярности» основана на тоталитарных фантазиях о передаче власти некоему централизованному машинному интеллекту. И эти фантазии быстро приводят к безумным оправданиям о том, почему некоторые люди заслуживают выживания в будущем с ИИ, а другие — нет. (На самом деле ученый-компьютерщик Абеба Бирхане много писал о том, как AI/AGM возродил расистскую псевдонауку френологию, снова переоформив ее в научные и универсальные утверждения). Без конфиденциальности статистическая тирания ИИ превратит аномалии в мишени, что приведет к возникновению репрессивных систем манипулирования и контроля.
В нынешнем виде невозможно узнать, служат ли ваши данные медицинским исследованиям, кликбейтингу, расистской «предиктивной полицейской деятельности» или ударам дронов. Природа массовой слежки и ИИ такова, что они коллективны и реляционны. Ваши данные рассчитываются по отношению к данным других людей, чтобы найти вероятности и нормы способами, которые обычно довольно сложно отследить. По этой причине проблему искусственного интеллекта следует решать коллективно и включать конфиденциальность в качестве стандарта для всех коммуникаций. Только тогда люди смогут принимать значимые решения о том, как следует использовать их данные. Технология повышения конфиденциальности защищает свободу отличаться от других и может произвести революцию в искусственном интеллекте, децентрализуя полномочия по принятию решений о его развитии — в процессе открытия калейдоскопа интеллекта.
- Подключайтесь к докладу Мэннинга из «Челси» об искусственном интеллекте и конфиденциальности — понедельник, 10-го числа, в TalentLand, Мексика.
- Присоединяйтесь к мастер-классу Nym по искусственному интеллекту и конфиденциальности — WebSummit в Рио в мае. Выиграйте билеты !
Узнать больше
Смотреть
Читать
- ИИ можно победить с помощью криптографии
- Коренной ИИ
- Обзор AI Now за 2023 год
- Реляционная теория управления данными Вильоен, С. 2022 г.
- Алгоритмическая несправедливость: реляционный этический подход, Бирхан, А. 2021
- Необработанные данные — это оксюморон. Гительман, Л. 2013 г.
Присоединяйтесь к сообществу Nym
Присоединяйтесь к обсуждению на каналах сообщества Nym: