Яндекс Метрика

Как подготовить данные компании к внедрению ИИ: чеклист

Как подготовить данные компании к внедрению ИИ: чеклист

Внедрение искусственного интеллекта в бизнес-процессы начинается не с выбора модели или платформы. Оно начинается с данных. По нашему опыту в Промолитике, подготовка данных - это 70% успеха любого ИИ-проекта. Компании, которые пропускают этот этап, получают модели, которые галлюцинируют, дают нерелевантные ответы и теряют доверие сотрудников уже в первые недели. В этой статье мы разберём пошаговый чеклист: что проверить, как очистить и структурировать данные, чтобы ИИ работал на вас, а не против вас.

Почему подготовка данных - это 70% успеха

Любая языковая модель - будь то YandexGPT, Llama, Mistral или DeepSeek - работает ровно настолько хорошо, насколько хороши данные, на которых она обучена или которые ей предоставляют в контексте. Это справедливо и для RAG-систем (Retrieval-Augmented Generation), где модель ищет ответ в базе знаний компании, и для файн-тюнинга, и для простых чат-ботов с загруженной документацией.

Вот типичная картина: компания загружает в систему 5000 документов, запускает ИИ-ассистента, а он на вопрос «Какие условия гарантии на модель X?» отвечает информацией из устаревшего прайс-листа 2019 года. Или путает данные двух клиентов с похожими названиями. Или вовсе отказывается отвечать, потому что документ был в формате сканированного PDF без текстового слоя.

Мы видели это десятки раз. Проблема не в модели - проблема в данных. Грязные, неструктурированные, устаревшие данные - это мусор на входе и мусор на выходе. Никакая, даже самая продвинутая модель не компенсирует плохое качество исходных материалов.

Аудит данных: с чего начать

Прежде чем чистить данные, нужно понять, что у вас есть. Аудит данных - это инвентаризация всех информационных активов компании с оценкой их пригодности для ИИ. Вот пять ключевых параметров, которые нужно оценить:

  • Форматы - в каких форматах хранятся данные? PDF, DOCX, XLSX, HTML, JSON, базы данных, mbox-архивы? Некоторые форматы парсятся легко, другие требуют специальной обработки. Сканированные PDF без OCR-слоя - это по сути картинки, а не текст
  • Объёмы - сколько данных в гигабайтах и в количестве записей? 500 документов - это одна история, 500 000 - совсем другая. От объёма зависит выбор инструментов, архитектуры и бюджета
  • Качество - насколько данные полны, точны и непротиворечивы? Есть ли пропущенные поля, дубликаты, ошибки в названиях? Данные с 30% пустых полей потребуют серьёзной работы до загрузки
  • Свежесть - когда данные были обновлены последний раз? Актуальны ли они? Прайс-лист 2021 года может навредить больше, чем помочь, если ИИ будет цитировать устаревшие цены клиентам
  • Доступность - где физически хранятся данные? Есть ли API для доступа? Нужны ли специальные разрешения? Данные на личных компьютерах сотрудников или в заблокированных SaaS-аккаунтах создают серьёзные препятствия

На практике мы рекомендуем завести таблицу аудита, где для каждого источника данных указаны: название, формат, примерный объём, дата последнего обновления, ответственный и оценка качества по шкале от 1 до 5. Эта таблица станет основой для планирования всех дальнейших работ.

Типы бизнес-данных и как их оценивать

Каждый тип данных имеет свои особенности и подводные камни. Разберём основные категории, с которыми мы сталкиваемся в проектах.

Документы (PDF, Word, Excel)

Документы - самый распространённый и одновременно самый проблемный тип данных. На что обращать внимание:

  • OCR-качество - если документы были отсканированы, проверьте качество распознавания. Откройте 10-20 случайных файлов и оцените: читается ли текст? Нет ли «мусорных» символов? Таблицы, формулы и схемы особенно часто распознаются с ошибками
  • Структура - есть ли в документах заголовки, подзаголовки, нумерация? Хорошо структурированный документ с заголовками H1-H3 разбивается на чанки автоматически. Сплошной текст на 50 страниц - это проблема
  • Excel и таблицы - данные в ячейках без заголовков столбцов бесполезны для ИИ. Проверьте: есть ли шапка, единообразны ли форматы дат и чисел, нет ли объединённых ячеек
  • Версионность - часто в папках хранятся 5 версий одного документа: «Договор_v2_final_ИТОГ(2).docx». Нужно оставить только актуальные версии

CRM-данные

CRM - это кладезь информации о клиентах, но качество данных в CRM часто оставляет желать лучшего. В одном проекте с Profitbase мы обнаружили 48 кастомных полей в CRM, из которых только 12 заполнялись более чем у 50% контактов. Остальные 36 полей были практически пустыми.

  • Полнота - какой процент полей заполнен? Если у 80% клиентов не указана отрасль или город, эти данные не помогут ИИ персонализировать ответы
  • Покрытие полей - используются ли все поля? Или часть из них - наследие прошлых настроек, которое никто не заполняет?
  • Дубликаты - один клиент может быть записан как «ООО Ромашка», «Ромашка ООО», «ООО "Ромашка"» и «РОМАШКА». Для ИИ это четыре разных компании
  • Актуальность - контакты с телефонами, начинающимися на 8-495, и email на mail.ru могут быть актуальны, а могут - нет. Проверьте давность последнего взаимодействия

Почтовые архивы

Email-архивы - мощный источник знаний о процессах, решениях и коммуникациях. Но работать с ними сложно. В одном из наших проектов мы обрабатывали mbox-архив размером 12 ГБ. Его пришлось разбивать на части по 1 ГБ для обработки, потому что парсер не мог загрузить файл целиком в память.

  • Объём - почтовые архивы компании за 5-10 лет могут достигать сотен гигабайт. Нужно решить, какой временной период релевантен
  • Спам и рассылки - в типичном корпоративном ящике 40-60% писем - это автоматические уведомления, рассылки и спам. Их нужно отфильтровать до загрузки
  • Цепочки ответов - в email-переписках цитируется вся история. Один смысловой ответ может содержать 15 повторов предыдущих сообщений. Нужна дедупликация на уровне цитат
  • Вложения - важные данные часто находятся во вложениях (PDF, Excel), а не в теле письма. Их нужно извлечь и обработать отдельно

Чаты и тикеты техподдержки

Логи чатов и тикеты поддержки - отличный материал для обучения ИИ-ассистентов. Но у них есть свои особенности:

  • Язык - клиенты пишут с ошибками, используют сленг, аббревиатуры и эмодзи. Тикет «ничо не работает, помогите срочно!!!» содержит полезную информацию, но ИИ должен научиться её извлекать
  • Форматирование - логи из разных систем (Jira, Zendesk, Bitrix24, Telegram) имеют разную структуру. Нужна нормализация в единый формат
  • Парные данные - для обучения ИИ ценны пары «вопрос-ответ», а не просто поток сообщений. Нужно извлечь эти пары из логов

Товарные каталоги

Для e-commerce и производственных компаний каталог - это ядро данных. Проверьте:

  • Структура - есть ли единая иерархия категорий? Или одни товары в «Электроника > Смартфоны», а другие просто «Телефоны» без категории?
  • Описания - у всех ли позиций есть текстовые описания? Карточка с названием «Артикул 45892» и ценой без описания бесполезна для ИИ
  • Изображения - если планируется мультимодальный ИИ, проверьте качество и наличие изображений. У 30% товаров нет фото? Это нужно исправить до запуска

Базы знаний и вики

Внутренние базы знаний (Confluence, Notion, Wiki) - самый «готовый» тип данных для ИИ, потому что они уже структурированы. Но и тут есть проблемы:

  • Организация - есть ли логическая структура? Или статьи разбросаны по 200 пространствам без навигации?
  • Свежесть - типичная проблема вики: 60% статей не обновлялись более 2 лет. Устаревшие инструкции хуже, чем их отсутствие
  • Противоречия - часто существуют 3 статьи на одну тему с разными (и противоречивыми) инструкциями. ИИ не может выбрать правильную без вашей помощи

Чеклист очистки данных

После аудита начинается самая трудоёмкая часть - очистка. Вот конкретные шаги, которые нужно выполнить:

1. Удаление дубликатов и спама

Дубликаты - враг номер один. В CRM это повторяющиеся контакты. В документах - разные версии одного файла. В почте - цепочки с повторяющимися цитатами. Начните с автоматической дедупликации по ключевым полям (email, ИНН, название), затем проверьте результат вручную на выборке. Для почтовых архивов используйте фильтрацию по заголовкам: удалите всё, что содержит «Unsubscribe», «Отписаться от рассылки», «noreply@».

2. Исправление кодировок

Если у вас есть данные из старых систем (1С, DOS-программы, старые сайты), вы столкнётесь с кодировками Windows-1251, KOI8-R, CP866. Текст в неправильной кодировке выглядит как «?????? ??????????» или «КодировкА не тА». Конвертируйте всё в UTF-8 до загрузки. Проверяйте не только основные файлы, но и CSV-экспорты из CRM - они часто приходят в Windows-1251.

3. Стандартизация форматов

Приведите все данные к единым форматам. Телефоны - в формат +7XXXXXXXXXX. Даты - в ISO 8601 (YYYY-MM-DD). Названия компаний - без кавычек вокруг организационно-правовой формы. Адреса - в стандартизированном виде. Чем единообразнее данные, тем лучше ИИ с ними работает.

4. Работа с многоязычным контентом

Если компания работает на нескольких языках, нужно решить: обрабатывать все языки вместе или раздельно? Для RAG-систем мы рекомендуем разделять по языкам и создавать отдельные индексы. Это повышает точность поиска и снижает вероятность «смешанных» ответов, когда ИИ начинает отвечать на русском, а заканчивает на английском.

5. Извлечение текста из изображений (OCR)

Сканированные документы, фотографии документов, скриншоты - всё это нужно пропустить через OCR. Современные OCR-решения дают качество 95-99% на чётких сканах, но на фотографиях с телефона или факсимильных копиях точность падает до 70-80%. Проверяйте результат на выборке и будьте готовы к ручной корректировке для критически важных документов.

6. Нормализация дат, имён и ссылок

Дата «15 марта» без года бесполезна. «Иванов И.И.» и «Иван Иванович Иванов» должны быть связаны. Внутренние ссылки на удалённые страницы или несуществующие файлы создают «мёртвые зоны» в базе знаний. Пройдитесь по всем ссылкам и датам, приведите их к полному формату.

Стратегия чанкинга: как разбивать документы для RAG

Если вы внедряете RAG-систему (а это самый популярный способ использования ИИ с корпоративными данными), критически важно правильно разбить документы на фрагменты - чанки. Чанк - это единица текста, которая индексируется и возвращается при поиске. Слишком маленькие чанки теряют контекст. Слишком большие - снижают точность поиска и не помещаются в контекстное окно модели.

Вот три основные стратегии:

  • По заголовкам - самый надёжный способ для структурированных документов. Каждый раздел (от H1 до H3) становится отдельным чанком. Преимущество: сохраняется смысловая целостность. Мы используем этот подход для технической документации и регламентов
  • По абзацам с перекрытием - текст разбивается на фрагменты фиксированного размера (обычно 500-1000 токенов) с перекрытием 100-200 токенов. Перекрытие нужно, чтобы не терять контекст на границах чанков. Подходит для неструктурированного текста - переписок, отзывов, описаний
  • По семантическим границам - продвинутый подход, где модель эмбеддингов (например, Voyage AI или sentence-transformers) определяет, где заканчивается одна тема и начинается другая. Дороже в вычислениях, но даёт лучшее качество для длинных неоднородных текстов

На практике мы часто комбинируем подходы. Для базы знаний с чёткими заголовками используем разбиение по заголовкам. Для email-архивов - по семантическим границам с предварительной дедупликацией цитат. Для чатов - по диалоговым парам «вопрос-ответ».

Размер чанка зависит от модели. Для Llama и Mistral с контекстом 8K-32K токенов комфортный размер чанка - 500-800 токенов. Для моделей с контекстом 128K+ (DeepSeek, Qwen) можно использовать чанки до 2000 токенов. Но помните: больше - не всегда лучше. Модель лучше работает с 5 релевантными чанками по 500 токенов, чем с 1 чанком на 2500 токенов, где полезная информация размазана по общему тексту.

Метаданные, которые стоит сохранить

При подготовке данных для ИИ многие компании извлекают «голый» текст и теряют метаданные. Это ошибка. Метаданные позволяют ИИ фильтровать, ранжировать и цитировать источники. Вот что обязательно нужно сохранить:

  • Дата создания и обновления - чтобы ИИ мог приоритизировать свежие данные и предупреждать об устаревших. Вопрос «Какая текущая цена?» должен получить ответ из последнего прайс-листа, а не из архивного
  • Автор или источник - для цитирования и проверки достоверности. «Согласно документу от юридического отдела от 15.01.2025...» - такой ответ вызывает доверие
  • Категория или тип документа - договор, инструкция, протокол, коммерческое предложение. Это позволяет ИИ искать в нужном подмножестве данных
  • Теги и ключевые слова - если они уже есть в вашей системе, обязательно перенесите. Они помогают при гибридном поиске (ключевые слова + семантический поиск)
  • Иерархия и связи - документ является приложением к договору? Тикет связан с проектом? Статья входит в серию? Эти связи помогают ИИ давать более полные ответы

В нашей практике мы храним метаданные в отдельных полях векторной базы данных (например, pgvector). Это позволяет комбинировать семантический поиск с фильтрацией по метаданным: «Найди все инструкции по продукту X, обновлённые за последний год».

Конфиденциальность и чувствительные данные

Перед загрузкой данных в любую ИИ-систему необходимо решить вопрос с персональными и конфиденциальными данными. Это не просто рекомендация - это требование 152-ФЗ о персональных данных.

  • Персональные данные (ПД) - ФИО, телефоны, email, адреса, паспортные данные, ИНН физлиц. Если ИИ будет работать с внутренними данными, нужно либо анонимизировать ПД, либо обеспечить соответствующий уровень защиты
  • Коммерческая тайна - ценовые политики, маржинальность, условия контрактов с ключевыми клиентами. Решите, нужны ли эти данные ИИ, или можно обойтись обобщёнными версиями
  • Банковские и платёжные данные - номера карт, счетов, реквизиты. Их категорически нельзя загружать в ИИ-системы. Маскируйте или удаляйте полностью
  • Медицинские данные - если ваш бизнес связан с медициной, данные пациентов подлежат особой защите
  • Внутренние пароли и ключи API - проверьте, что в документах и конфигурационных файлах нет захардкоженных паролей и токенов доступа. Это встречается чаще, чем хочется думать

Практический подход: создайте «карту чувствительности» данных. Для каждого источника определите уровень: публичный, внутренний, конфиденциальный, секретный. Данные с уровнем «секретный» не должны попадать в ИИ-систему. «Конфиденциальные» - только после анонимизации. «Внутренние» - с контролем доступа. «Публичные» - без ограничений.

Для анонимизации мы используем регулярные выражения и специализированные NER-модели, которые автоматически находят и маскируют имена, телефоны, адреса и другие ПД в тексте. Это позволяет сохранить смысловую нагрузку документа, заменив «Иванов Пётр Сергеевич, +7-915-123-45-67» на «[ФИО], [ТЕЛЕФОН]».

Оценка объёма: сколько данных нужно

Один из самых частых вопросов: «Сколько данных нужно для ИИ?». Ответ зависит от задачи.

  • RAG-система (база знаний) - для начала достаточно 100-500 качественных документов. Лучше 200 хорошо структурированных статей, чем 10 000 неразобранных файлов. Мы рекомендуем начинать с минимального набора и расширять итеративно
  • Чат-бот для поддержки - 50-100 пар «вопрос-ответ» для базового покрытия, 500+ для хорошего качества. Плюс документация по продуктам и услугам
  • Аналитический ИИ-ассистент - нужны данные за 6-12 месяцев для выявления трендов. Для сезонных бизнесов - за 2-3 года
  • Файн-тюнинг модели - минимум 1000 примеров для заметного эффекта, 5000-10000 для хорошего качества. Но файн-тюнинг - это крайний случай, обычно RAG решает задачу лучше и дешевле

Когда данных слишком много? Когда стоимость хранения и индексирования превышает пользу. Если у вас 10 ТБ логов сервера, но ИИ-ассистент отвечает на вопросы клиентов, эти логи ему не нужны. Фокусируйтесь на данных, которые непосредственно помогают решить бизнес-задачу.

В нашем проекте по обработке email-архивов мы столкнулись с ситуацией: из 12 ГБ почтовых данных после фильтрации спама, рассылок и дубликатов осталось 2.8 ГБ полезного контента. После извлечения текста и чанкинга получилось 340 000 чанков, которые были проиндексированы для RAG. Этого хватило для покрытия 95% типичных запросов пользователей.

Практический чеклист: 10 шагов перед запуском ИИ-проекта

Соберём всё сказанное в единый чеклист. Пройдите эти 10 шагов до того, как начнёте писать код или настраивать модель:

  1. Определите бизнес-задачу - какую конкретную проблему решает ИИ? «Хотим внедрить ИИ» - это не задача. «Сократить время ответа на запросы клиентов с 4 часов до 15 минут» - это задача
  2. Проведите инвентаризацию данных - составьте таблицу всех источников данных с оценкой формата, объёма, качества, свежести и доступности
  3. Оцените качество на выборке - возьмите 50-100 случайных записей из каждого источника и проверьте вручную. Это даст реальную картину качества данных
  4. Определите чувствительные данные - создайте карту чувствительности, определите, что нужно анонимизировать, а что удалить
  5. Удалите мусор - дубликаты, спам, устаревшие документы, пустые записи, тестовые данные. На практике этот шаг уменьшает объём данных на 30-60%
  6. Стандартизируйте форматы - кодировки в UTF-8, даты в ISO, телефоны в единый формат, названия компаний без расхождений
  7. Извлеките текст - конвертируйте PDF и изображения через OCR, извлеките текст из HTML, экспортируйте данные из CRM и баз данных в читаемый формат
  8. Разработайте стратегию чанкинга - выберите подход к разбиению документов в зависимости от их типа и структуры. Протестируйте на выборке
  9. Сохраните метаданные - дата, автор, категория, теги, связи с другими документами. Без метаданных ИИ не сможет ранжировать и фильтровать результаты
  10. Проведите пилотное тестирование - загрузите 10% подготовленных данных и проверьте качество ответов ИИ. Скорректируйте параметры чанкинга, эмбеддингов и поиска до загрузки полного объёма

Каждый пропущенный шаг увеличивает риск неудачного внедрения. Мы видели проекты, где компании потратили месяцы на настройку модели, а потом обнаружили, что 40% данных в базе знаний устарели. Переделывать пришлось почти всё.

Как Промолитика помогает с подготовкой данных

В Промолитике мы занимаемся полным циклом подготовки данных для ИИ-проектов. Вот что мы берём на себя:

  • Аудит данных - анализируем все ваши источники, оцениваем качество и даём рекомендации по приоритетам. Составляем детальный отчёт с оценкой трудозатрат
  • Очистка и нормализация - автоматизированная и ручная обработка данных. Удаление дубликатов, исправление кодировок, стандартизация форматов, анонимизация ПД
  • Конвейер обработки - настраиваем автоматический pipeline, который обрабатывает новые данные по мере их поступления. Парсинг, OCR, чанкинг, эмбеддинги, индексирование - всё в одном потоке
  • RAG-система под ключ - от подготовки данных до работающего ИИ-ассистента с интеграцией в ваши системы. Используем pgvector для хранения эмбеддингов, Voyage AI для генерации эмбеддингов, и лучшие языковые модели для генерации ответов
  • Интеграция с CRM - подключаем ИИ-ботов к вашей CRM (Bitrix24, amoCRM, RetailCRM) с автоматической передачей данных и сквозной аналитикой

Подготовка данных - это не одноразовая задача, а непрерывный процесс. Данные обновляются, появляются новые источники, бизнес-требования меняются. Мы помогаем выстроить процесс так, чтобы ваш ИИ всегда работал с актуальными и качественными данными.

Хотите оценить готовность ваших данных к ИИ? Запишитесь на бесплатную стратегическую сессию, и мы проведём экспресс-аудит ваших источников данных.

Алексей Шортов
Алексей Шортов
Сооснователь и технический директор Промолитики. 20+ лет опыта в IT и маркетинге.
Контент
Разработаем уникальный чат-бот для роста вашего бизнеса
Заказать умного бота
Алексей ШортовКонтент подготовлен под руководством , сооснователя Промолитики
Последнее обновление: