loader
Група людей у сучасному офісі обговорює проєкт, один чоловік у костюмі виступає перед аудиторією, інші слухають та беруть участь у дискусії.

19 травня 2025 року компанія OpenAI презентувала нову open-source бібліотеку SafeCore — платформу для створення безпечних, етичних та контрольованих моделей штучного інтелекту. Рішення орієнтоване як на стартапи, так і на великі компанії, що прагнуть впроваджувати ШІ з дотриманням норм відповідальності.

У SafeCore входять модулі для:

  • фільтрації вмісту;
  • виявлення упередженості;
  • обмеження потенційно шкідливих сценаріїв;
  • прозорого журналювання дій;
  • налаштування поведінки моделей під користувача та контекст.

Найважливішим елементом стала вбудована етика — інтелектуальний модуль, який адаптує відповіді ШІ з урахуванням правових, культурних та соціальних норм.

Платформа вже інтегрується з PyTorch, TensorFlow та підтримується екосистемою GitHub, HuggingFace, Mozilla AI. Відкритість коду дозволяє будь-якому охочому створити систему, яка відповідатиме сучасним стандартам безпеки.

OpenAI наголошує, що SafeCore — не просто бібліотека, а фреймворк майбутнього для відповідального штучного інтелекту. Цей крок може стати стандартом для цифрових екосистем в охороні здоров’я, освіті, фінансах, праві та соціальних мережах.