
19 травня 2025 року компанія OpenAI презентувала нову open-source бібліотеку SafeCore — платформу для створення безпечних, етичних та контрольованих моделей штучного інтелекту. Рішення орієнтоване як на стартапи, так і на великі компанії, що прагнуть впроваджувати ШІ з дотриманням норм відповідальності.
У SafeCore входять модулі для:
- фільтрації вмісту;
- виявлення упередженості;
- обмеження потенційно шкідливих сценаріїв;
- прозорого журналювання дій;
- налаштування поведінки моделей під користувача та контекст.
Найважливішим елементом стала вбудована етика — інтелектуальний модуль, який адаптує відповіді ШІ з урахуванням правових, культурних та соціальних норм.
Платформа вже інтегрується з PyTorch, TensorFlow та підтримується екосистемою GitHub, HuggingFace, Mozilla AI. Відкритість коду дозволяє будь-якому охочому створити систему, яка відповідатиме сучасним стандартам безпеки.
OpenAI наголошує, що SafeCore — не просто бібліотека, а фреймворк майбутнього для відповідального штучного інтелекту. Цей крок може стати стандартом для цифрових екосистем в охороні здоров’я, освіті, фінансах, праві та соціальних мережах.