データエンジニア
Data Engineer
BACKGROUND
募集背景
AIモデルの精度はデータの質に直結しますが、クライアント環境のデータは散在・未整備なケースが大半です。データパイプラインの設計・構築を専任で担えるエンジニアを増員し、AI案件のデータ基盤構築フェーズを加速させます。
RESPONSIBILITIES
業務内容
- Apache Spark/Kafka/Airflowを用いたETL/ELTパイプラインの設計・構築
- BigQuery/Snowflake/Redshift上でのデータウェアハウス設計
- dbtによるデータ変換ロジックの整備とテスト
- Great Expectations等を用いたデータ品質管理の仕組み構築
- クライアント環境のデータ現状分析とデータアーキテクチャの提案
- ML学習用データセットの設計と効率的なデータ供給パイプラインの構築
OVERVIEW
ポジション概要
AI/MLモデルの学習・推論に必要なデータパイプラインの設計・構築・運用を担当します。Apache Spark/Kafka/Airflowを用いたETL/ELTパイプラインの構築、BigQuery/Snowflake/Redshift上でのデータウェアハウス設計、dbtによるデータ変換ロジックの整備、Great Expectations等を用いたデータ品質管理の仕組み作りを行います。「AIの精度はデータの質で決まる」——その基盤を支えるポジションです。
REQUIRED
必須スキル・経験
Python / SQLApache Spark / Kafka / Airflowdbt / FivetranBigQuery / Snowflake / RedshiftデータモデリングAWS Glue / GCP Dataflowデータ品質管理
NICE TO HAVE
歓迎スキル・経験
- リアルタイムストリーミング処理の設計・運用経験
- データガバナンス・データカタログの導入経験
- PB規模のデータ処理経験
- データメッシュアーキテクチャの設計経験
IDEAL CANDIDATE
求める人物像
- データの品質に対して妥協を許さないこだわりを持つ人
- 自動化とスケーラビリティを常に意識して設計できる人
- AI/MLチームが求めるデータを先回りして準備できる人
- Speed Over Perfectionの姿勢で、まず動くパイプラインを構築してから磨き上げられる人
DEV TOOLS
開発環境・ツール
PythondbtApache AirflowDockerAWS / GCPGitHub
WHY 1137
1137で働く魅力
- フルリモート・フレックスタイム制で柔軟な働き方
- 最新のAI技術に触れる環境と豊富な学習支援
- 少数精鋭チームでの裁量ある業務
- グローバル水準の報酬体系
- クライアントのAI導入を最前線で支援する実践経験
REQUIREMENTS
募集要項
| 雇用形態 | 正社員 / 業務委託 |
|---|---|
| 勤務地 | フルリモート可 |
| 給与 | 700万〜1,400万円 |
| 勤務時間 | フレックスタイム制(コアタイムなし) |
PROCESS
選考フロー
- 1 書類選考
- 2 一次面接
- 3 技術課題
- 4 最終面接
- 5 内定