tempera

Des LLM affinés pour l'entreprise

Post-entraînez des modèles plus petits et déployables sur les données et workflows propriétaires que les laboratoires frontier ignorent — finance, juridique, opérations et au-delà.

Fine-tuning

Post-entraînez ce que les laboratoires frontier ignorent

Les environnements de RL frontier ne couvrent ni vos rapports 10-K, ni vos salles de marché, ni vos manuels de souscription. Nous, oui — votre domaine devient un modèle qui surclasse un LLM commercial standard sur le travail qui compte pour vous.

R+0.73ppogrpodpo

Données du domaine

Corpus, traces et appels d'outils propriétaires deviennent le signal d'entraînement.

RSI

De l'apprentissage par renforcement à la vraie généralisation

Notre mission est de pousser le post-entraînement au-delà de l'apprentissage par renforcement vers une vraie généralisation — des modèles qui raisonnent dans votre domaine, pas seulement sur des benchmarks académiques. Nous y parvenons en découvrant et en itérant des méthodes de pointe via l'auto-amélioration agentique récursive.

La boucle

La boucle de post-entraînement, automatisée

Trois primitives, une boucle fermée, répétée jusqu'à ce que le modèle généralise.

étape 01→ suivant

Concevoir

Définissez environnements, actions, outils et récompenses dans une API typée et versionnée.

étape 02→ suivant

Déployer

Exécutez des milliers de déploiements parallèles ; chaque étape tracée, chaque récompense attribuée.

étape 03↺ répéter

Entraîner

Tempera explore les méthodes de post-entraînement sur vos données et livre le modèle qui généralise le mieux.

API

Trois appels. Une boucle

Composez environnements, déploiements et entraînement dans une seule surface typée.

import { tempera } from "@tempera/sdk";

// Définissez le monde dans lequel votre modèle s'entraîne.
const env = await tempera.envs.create({
  name: "research-assistant",
  observation: { kind: "text" },
  action: {
    kind: "tool-use",
    tools: ["search", "shell", "browse"],
  },
  reward: { fn: "./rewards/helpfulness.ts" },
});

env.publish({ tag: "v1" });

Déploiement

Votre modèle. Votre périmètre

Les modèles affinés s'exécutent là où vivent vos données. Choisissez le modèle d'isolation adapté à votre posture de sécurité et de conformité.

01

VPC · single-tenant

Un control plane et un data plane dédiés dans votre compte cloud. Aucun calcul partagé, aucun poids partagé.

  • Tourne dans votre VPC AWS, GCP ou Azure
  • GPU et endpoints d'inférence dédiés
  • Données et poids ne quittent jamais votre compte
02

VPC · multi-tenant

Control plane managé partagé avec des data planes isolés par client. Onboarding rapide, TCO réduit.

  • Control plane managé par Tempera
  • Inférence isolée par tenant
  • Frontières de tenant alignées SOC 2
03

On-prem

Déploiement air-gapped sur votre matériel pour les environnements les plus régulés.

  • Tourne sur vos propres clusters GPU
  • Mode hors ligne / air-gapped pris en charge
  • Apportez vos KMS, IdP et puits de logs d'audit

Carrières

Rejoignez-nous

Petite équipe, grandes idées, mission infinie.

Recherche

temps plein · en personne à San Francisco

Menez des recherches sur le post-entraînement, la généralisation, les modèles du monde et l'auto-amélioration récursive.

Postulerfounders@tempera.dev

Infrastructure de recherche

temps plein · en personne à San Francisco

Construisez les systèmes d'ordonnancement, d'entraînement distribué et d'observabilité qui propulsent la recherche.

Postulerfounders@tempera.dev

Machine Learning

temps plein · en personne à San Francisco

Transformez la recherche en production.

Postulerfounders@tempera.dev

Candidature spontanée

temps plein · en personne à San Francisco

Nous cherchons en permanence des talents de toutes disciplines pour nous rejoindre.

Postulerfounders@tempera.dev

Liste d'attente

Apportez vos données. Livrez un modèle

Inscrivez-vous à la liste d'attente pour le premier groupe, ou écrivez directement aux fondateurs.