tempera

面向企业的微调 LLM

在前沿实验室不会覆盖的专有数据与工作流上后训练更小、可部署的模型——金融、法律、运营,以及更多领域。

微调

对前沿实验室不覆盖的领域进行后训练

前沿 RL 环境覆盖不到你的 10-K、交易台或核保手册。我们可以——把你的领域变成一个在你最关心的工作上超越通用商用 LLM 的模型。

R+0.73ppogrpodpo

领域数据

专有语料、轨迹与工具调用直接成为训练信号。

RSI

从强化学习,到真正的泛化

我们的使命是把后训练推向强化学习之外的真正泛化——让模型在你的领域上推理,而不仅仅是学术基准之上。我们通过递归式智能体自我改进,去发现并迭代 SOTA 方法。

循环

自动化的后训练循环

三个基本单元,一个闭环,重复至模型泛化为止。

步骤 01→ 下一步

构建

在类型安全、可版本化的 API 中定义环境、行动、工具与奖励。

步骤 02→ 下一步

Rollout

运行数千个并行 rollout;每一步可追溯,每一份奖励可归因。

步骤 03↺ 重复

训练

Tempera 在你的数据上探索后训练方法,交付泛化最佳的模型。

API

三次调用。一个循环

在一个统一的、类型化的接口中组合环境、rollout 与训练。

import { tempera } from "@tempera/sdk";

// 定义你的模型训练所处的世界。
const env = await tempera.envs.create({
  name: "research-assistant",
  observation: { kind: "text" },
  action: {
    kind: "tool-use",
    tools: ["search", "shell", "browse"],
  },
  reward: { fn: "./rewards/helpfulness.ts" },
});

env.publish({ tag: "v1" });

部署

你的模型。你的边界

微调后的模型在你的数据所在之处运行。挑选与你的安全与合规姿态相匹配的隔离模式。

01

VPC · 单租户

在你的云账号中提供专属的控制面与数据面。无共享算力,无共享权重。

  • 运行在你的 AWS / GCP / Azure VPC 中
  • 专属 GPU 与推理端点
  • 数据与权重永远不离开你的账号
02

VPC · 多租户

共享托管控制面,按客户隔离数据面。上线更快,TCO 更低。

  • Tempera 托管的控制面
  • 按租户隔离的推理
  • 符合 SOC 2 的租户边界
03

本地部署

在最受监管的环境中,于你的硬件上以离网方式运行。

  • 运行在你自己的 GPU 集群上
  • 支持离线 / 离网部署
  • 自带 KMS、IdP 与审计日志接收端

加入我们

加入我们

小团队,大想法,无尽使命。

研究

全职 · 旧金山现场办公

在后训练、泛化、世界模型与递归自我改进方向开展研究。

申请founders@tempera.dev

研究基础设施

全职 · 旧金山现场办公

构建完整的调度、分布式训练系统与可观测性,支撑研究运行。

申请founders@tempera.dev

机器学习

全职 · 旧金山现场办公

把研究带进生产。

申请founders@tempera.dev

开放申请

全职 · 旧金山现场办公

我们一直在各个方向寻找优秀的人才加入。

申请founders@tempera.dev

候补名单

把你的数据带来。交付一个模型

加入第一批的候补名单,或直接写信给创始人。