tempera

엔터프라이즈를 위한 파인튜닝 LLM

프론티어 랩이 다루지 않는 자체 데이터와 워크플로 위에서, 배포 가능한 더 작은 모델을 사후 학습하세요 — 금융, 법률, 운영, 그리고 그 너머까지.

파인튜닝

프론티어 랩이 다루지 않는 영역을 사후 학습

프론티어 RL 환경은 당신의 10-K, 트레이딩 데스크, 인수 심사 매뉴얼을 다루지 않습니다. 우리가 다룹니다 — 당신의 도메인을, 일반 상용 LLM을 능가하는 모델로 바꿉니다.

R+0.73ppogrpodpo

도메인 데이터

자체 코퍼스, 트레이스, 도구 호출이 그대로 학습 신호가 됩니다.

RSI

강화학습에서 진정한 일반화로

우리의 사명은 사후 학습을 강화학습 너머 진정한 일반화로 밀고 가는 것입니다 — 학술 벤치마크가 아니라, 당신의 도메인 위에서 추론하는 모델. 재귀적 에이전트형 자기개선을 통해 SOTA 방법을 발견하고 반복합니다.

루프

자동화된 사후 학습 루프

세 가지 기본 단위, 하나의 닫힌 루프, 모델이 일반화될 때까지 반복.

스텝 01→ 다음

설계

타입 안전하고 버전 관리되는 API에서 환경, 행동, 도구, 보상을 정의.

스텝 02→ 다음

롤아웃

수천 개의 병렬 롤아웃을 실행하고, 모든 스텝을 추적하며, 모든 보상을 귀속.

스텝 03↺ 반복

학습

Tempera가 당신의 데이터에서 사후 학습 방법을 탐색하고, 가장 잘 일반화되는 모델을 출시합니다.

API

세 번의 호출. 하나의 루프

환경, 롤아웃, 학습을 하나의 타입화된 인터페이스에 결합.

import { tempera } from "@tempera/sdk";

// 모델이 학습할 세계를 정의합니다.
const env = await tempera.envs.create({
  name: "research-assistant",
  observation: { kind: "text" },
  action: {
    kind: "tool-use",
    tools: ["search", "shell", "browse"],
  },
  reward: { fn: "./rewards/helpfulness.ts" },
});

env.publish({ tag: "v1" });

배포

당신의 모델. 당신의 경계

파인튜닝된 모델은 당신의 데이터가 있는 곳에서 운영됩니다. 보안과 컴플라이언스에 맞는 격리 모델을 선택하세요.

01

VPC · 싱글테넌트

당신의 클라우드 계정 안에 전용 컨트롤 플레인과 데이터 플레인. 공유 컴퓨트도, 공유 가중치도 없습니다.

  • 당신의 AWS / GCP / Azure VPC에서 운영
  • 전용 GPU 및 추론 엔드포인트
  • 데이터와 가중치가 계정을 떠나지 않습니다
02

VPC · 멀티테넌트

공유 매니지드 컨트롤 플레인과 고객별 격리된 데이터 플레인. 빠른 온보딩, 낮은 TCO.

  • Tempera 매니지드 컨트롤 플레인
  • 테넌트별 격리된 추론
  • SOC 2 정렬 테넌트 경계
03

온프렘

가장 규제가 엄격한 환경을 위한, 당신의 하드웨어 위 에어갭 배포.

  • 당신의 GPU 클러스터에서 운영
  • 오프라인 / 에어갭 지원
  • KMS, IdP, 감사 로그 싱크는 당신의 것

채용

함께 합시다

작은 팀, 큰 아이디어, 무한한 미션.

리서치

정규직 · 샌프란시스코 대면 근무

사후 학습, 일반화, 월드 모델, 재귀적 자기개선에 대한 연구를 수행합니다.

지원founders@tempera.dev

리서치 인프라

정규직 · 샌프란시스코 대면 근무

연구를 떠받치는 종합적인 스케줄링, 분산 학습 시스템, 옵저버빌리티를 구축합니다.

지원founders@tempera.dev

머신러닝

정규직 · 샌프란시스코 대면 근무

연구를 프로덕션으로.

지원founders@tempera.dev

오픈 지원

정규직 · 샌프란시스코 대면 근무

모든 분야에서 재능 있는 분들이 함께하기를 늘 기다리고 있습니다.

지원founders@tempera.dev

대기자 명단

당신의 데이터를 가져오세요. 모델을 출시합니다

첫 코호트의 대기자 명단에 등록하시거나, 창업자에게 직접 이메일 주세요.