Пермская целлюлозно-бумажная компания приняла решение приостановить работу с искусственным интеллектом в сфере разработки управляющих программ. Как сообщил заместитель руководителя Центра метрологии и автоматизации ПЦБК Иван Тарасов, поводом стали потенциально опасные алгоритмы, которые нейросети предлагали для управления сложным оборудованием.
Предприятие тестировало все популярные модели, включая ChatGPT, Gemini, Claude, DeepSeek и Grok. Выяснилось, что при разработке цепочек аварийного отключения ИИ мог пропускать критически важные пункты. В реальных условиях это чревато нарушением графика работы механизмов и серьезными авариями. Например, если нейросеть забудет прописать команду на открытие клапана в камере с высоким давлением, оборудование может просто разрушиться.
На ПЦБК подчеркивают, что безопасность сотрудников остается приоритетом, а в промышленной среде даже малейшая ошибка в коде становится фатальной. Эксперты компании отмечают: современные нейросети пока не способны учитывать весь производственный контекст. Они часто игнорируют части техзадания и не видят несоответствий, которые легко замечает человек. ИИ не поймет, что подрядчик предоставил не те датчики или в документации перепутаны единицы измерения.
Еще одной проблемой стала сложность анализа и исправления ошибок, допущенных искусственным интеллектом. В этом плане классическое программное обеспечение с жесткими регламентами пока выглядит гораздо надежнее. При этом ПЦБК не отказывается от технологий полностью. Искусственный интеллект продолжат применять там, где его ошибки не угрожают жизни людей, например, для прогнозирования потребления электроэнергии и других сложных расчетов.