Руководство Read AI по составлению политики в области ИИ

Как
Конфиденциальность

По мере внедрения искусственного интеллекта в свою деятельность компаниям критически важно также внедрять четкие политики, обеспечивающие его ответственное использование и соответствие нормативным требованиям. В соответствии с нашей целью обеспечения простоты использования нашей платформы для повышения производительности, мы изложили ключевые моменты, которые, по нашему мнению, необходимы для политики в области ИИ, которая могла бы охватывать использование нашего рабочего копилота, а также более общие руководства по ИИ, которые могут применяться более целостно.

Мы построили нашу платформу с сильным акцентом на прозрачность и индивидуальный контроль, и с полным знанием важных корпоративных требований, необходимых для внедрения. Как независимая платформа, которая работает нативно со многими крупнейшими приложениями на рынке, мы уникальным образом применяем конкретные меры управления и безопасности, необходимые для некоторых наиболее жестких случаев использования, от здравоохранения и социальных услуг до финансов. С этой целью мы обрисовали характеристики нашей платформы, которые актуальны для каждого раздела общей политики в области ИИ. Мы хотим убедиться, что каждый клиент, и потенциальный клиент, четко понимает, как мы решаем некоторые из наиболее важных вопросов безопасности и соответствия, с которыми сталкиваются организации сегодня.

Область применения:

При внедрении ИИ корпоративная политика, вероятно, будет учитывать как потенциальные риски, так и возможности. Четкая область применения помогает предприятиям определить, какие технологии подпадают под их структуру управления ИИ. Политика должна быть достаточно широкой, чтобы применяться к любому инструменту ИИ от третьих лиц или общедоступному, с конкретными исключениями и описаниями для различных случаев использования. (Как всегда, проконсультируйтесь с вашей собственной юридической командой при составлении политики).

Прозрачное согласие пользователя, контроль и осведомленность:

Организации должны отдавать приоритет механизмам прозрачного согласия и контроля пользователей. Там, где ИИ взаимодействует с людьми, как внутри организации, так и вне ее, он должен делать это прозрачным образом. Пользователи должны обеспечить, чтобы люди знали, когда они взаимодействуют с ИИ и какие данные ИИ собирает, обрабатывает или использует. Четкие раскрытия о роли ИИ в каждом взаимодействии позволяют пользователям оставаться информированными и контролировать ситуацию.

Read AI демонстрирует это через многоуровневый подход к конфиденциальности, включая явные уведомления о записи и возможности простого отказа для всех участников встречи. Это уникальная функция (даже если в некоторых штатах это требование), и мы знаем, что основа прозрачности строит долгосрочное доверие и принятие.

Конфиденциальность данных, обработка и безопасность

Когда речь идет о конфиденциальности данных, доверие начинается с контроля и видимости. Системы ИИ должны соответствовать основным нормативным актам, обеспечивая анонимизацию и шифрование личной информации. В Read AI мы наблюдали, что ведущие организации внедряют сильные протоколы конфиденциальности в свои реализации ИИ, предлагая гранулированный контроль над тем, какие данные собираются, обрабатываются и хранятся. Инструментам ИИ никогда не должен предоставляться или предполагаться автоматический доступ к данным.

В частности, системы ИИ должны соответствовать всем применимым нормативным актам по защите данных. Корпоративные организации должны требовать надежных административных контролей, уважая при этом индивидуальную конфиденциальность. Комплексный подход включает настраиваемые политики хранения и гранулированные настройки рабочего пространства для соответствия различным требованиям соответствия.

Организации также должны внедрять строгие протоколы обработки данных и меры безопасности. Это включает четкую документацию процедур обработки данных и ограниченный доступ к конфиденциальной информации. Инструменты ИИ должны обрабатывать только те данные, к которым у пользователей есть разрешение на доступ, и данные не могут храниться или использоваться без явного согласия для защиты данных пользователей и клиентов.

Read следует всем необходимым мерам защиты как для SOC2 и Type 2, так и для соответствия HIPAA. Read предлагает полностью настраиваемые правила хранения данных; контроль доступа к аудио, видео и транскрипциям; управление интеграцией на уровне рабочего пространства; и контроль распространения. Read также прозрачно и открыто документирует все функции конфиденциальности и обеспечивает гранулированный контроль пользователей над обменом данными и их хранением. Наш инструмент Search Copilot также следует строгим контролям управления и обмена снизу вверх. Узнайте больше об этом здесь.

В Read AI для обработки данных используется только наша собственная модель первой стороны. Данные о клиентском опыте не предоставляются по умолчанию. Read не обучается на данных клиентов, если клиент не даст на это согласие (только около 10-15% клиентов в настоящее время дают согласие). Read никогда не хранит контент, и мы внедряем четкие протоколы удаления данных и верификации. Безопасная облачная инфраструктура является стандартом, и большинство данных хранится в США (для тех, кто выбирает соответствие HIPAA, все данные хранятся здесь).

При составлении политики следует указать, что личные данные должны быть анонимизированы, где это возможно, и безопасно храниться с использованием стандартов шифрования, а регулярные аудиты должны проводиться для обеспечения соответствия политикам конфиденциальности данных.

Защита индивидуальной конфиденциальности и подотчетность:

Защита индивидуальной конфиденциальности при обеспечении сотрудничества требует тщательного баланса. Внедрение механизмов обмена, контролируемых пользователем, обеспечивает защиту данных при сохранении производительности. В рамках любой политики компания должна назначить ответственного за управление ИИ, ответственного за обеспечение выполнения политики и обновления, а также для просмотра необходимых журналов для прозрачности и возможности аудита.

Read AI обеспечивает индивидуальный контроль над обменом контентом (мы считаем, что это не должно быть процессом сверху вниз). Мы также предлагаем гранулированные разрешения для доступа к данным и четкие следы аудита для общего контента. Наша команда поддержки клиентов может предоставить необходимые детали для корпоративных команд.

Дополнительные соображения:

Хотя Read AI не создает контент, генерируемый ИИ из открытого веба, соображения для этого типа инструмента, вероятно, будут включены в общую политику ИИ. Компании должны иметь четкий процесс для решения инцидентов, связанных с ИИ, и смягчения потенциального вреда, а ИИ должен постоянно контролироваться для обнаружения непреднамеренного поведения и обеспечения возможности человеческого вмешательства при необходимости.

Организации также должны четко определить, какие задачи могут быть полностью автоматизированы, а какие требуют человеческого вмешательства. Для решений с высокими ставками—таких как найм или финансовые одобрения—вероятно, всегда должна быть система с человеком в контуре. Эти решения могут приниматься назначенным комитетом по этике ИИ, который контролирует развертывание ИИ и обеспечивает соответствие ценностям компании.

Ключевой частью прозрачности ИИ является обеспечение того, чтобы все внешние коммуникации—включая маркетинговые материалы, ответы службы поддержки клиентов и отчеты—были точными и проверенными людьми. Такие инструменты, как Search Copilot от Read AI, включают цитаты для всех генерируемых выходных данных, чтобы пользователи точно знали, откуда взята информация. Системы журналирования и мониторинга обеспечивают прозрачность и подотчетность операций ИИ, минимизируя риски при стимулировании инноваций.

Политики должны регулярно обновляться в ответ на технологические достижения и изменения в нормативных актах. Кроме того, насколько это возможно, этические принципы ИИ должны быть внедрены в корпоративную культуру для поощрения ответственного использования ИИ.

В Read AI мы узнали, что предоставление пользователям прозрачности и контроля ведет к более сильному доверию, сотрудничеству и производительности. Внедряя ответственные практики ИИ, компании могут создать среду, где инновации процветают без ущерба для целостности.

Для демонстрации продукта или для вопросов о контролях рабочего пространства, пожалуйста, свяжитесь с нашей командой продаж по адресу sales@read.ai.

Мы хотим, чтобы каждый клиент ясно понимал, как мы решаем наиболее важные проблемы безопасности и соответствия требованиям, с которыми сталкиваются организации сегодня.

Второй пилот везде
Читайте: дайте возможность отдельным пользователям и командам беспрепятственно интегрировать помощь в области искусственного интеллекта на таких платформах, как Gmail, Zoom, Slack и тысячи других приложений, которыми вы пользуетесь каждый день.