LLMエンジニア(大規模言語モデル)
LLM Engineer
BACKGROUND
募集背景
クライアントのAI活用が「汎用LLMの利用」から「自社データでのファインチューニング」フェーズへ移行しています。ドメイン特化モデルの構築やRLHFによるアライメント調整など、高度なLLM技術を持つエンジニアが不足しており、この領域を専任で担えるメンバーを募集します。
RESPONSIBILITIES
業務内容
- LoRA/QLoRA/PEFTによるパラメータ効率的ファインチューニングの実施
- RLHF/DPOによるモデルアライメントの設計・実行
- クライアント独自データを用いたドメイン特化モデルの構築
- RAGパイプラインの設計と検索精度の最適化
- vLLM/TGIを用いた推論最適化とコスト削減
- モデル評価フレームワーク(精度・コスト・レイテンシ)の構築と運用
- 学習データセットの設計・品質管理
OVERVIEW
ポジション概要
大規模言語モデルのファインチューニング、プロンプトエンジニアリング、評価フレームワークの構築を担当します。具体的には、LoRA/QLoRA/PEFTによるパラメータ効率的ファインチューニング、RLHF/DPOによるモデルアライメント、クライアントの独自データを用いたドメイン特化モデルの構築、RAGパイプラインの設計と検索精度の最適化、vLLM/TGIを用いた推論最適化とコスト削減を行います。モデルの精度向上とコスト最適化を両立させ、本番環境での安定運用を実現します。
REQUIRED
必須スキル・経験
PythonPyTorch / TransformersLoRA / QLoRA / PEFTRLHF / DPOvLLM / TGIWeights & Biases / MLflowデータセット構築
NICE TO HAVE
歓迎スキル・経験
- LLMの事前学習経験
- マルチモーダルモデルの開発経験
- 論文の実装・再現実験の経験
- GPU/TPUクラスタの運用経験
IDEAL CANDIDATE
求める人物像
- 最新の研究成果をすぐにプロダクションへ適用する速度感を持つ人
- 「完璧な精度」より「使えるレベルを早く出す」というSpeed Over Perfectionの姿勢がある人
- ROI(コスト対精度)を常に意識してモデル選定・チューニングできる人
- チーム内外に知見を積極的に共有できる人
DEV TOOLS
開発環境・ツール
PyTorchHugging Face TransformersWeights & BiasesvLLMAWS SageMaker / GCP Vertex AIDockerGitHub
WHY 1137
1137で働く魅力
- フルリモート・フレックスタイム制で柔軟な働き方
- 最新のAI技術に触れる環境と豊富な学習支援
- 少数精鋭チームでの裁量ある業務
- グローバル水準の報酬体系
- クライアントのAI導入を最前線で支援する実践経験
REQUIREMENTS
募集要項
| 雇用形態 | 正社員 / 業務委託 |
|---|---|
| 勤務地 | フルリモート可 |
| 給与 | 900万〜2,000万円 |
| 勤務時間 | フレックスタイム制(コアタイムなし) |
PROCESS
選考フロー
- 1 書類選考
- 2 一次面接
- 3 技術課題
- 4 最終面接
- 5 内定