データエンジニア

Data Engineer

フルリモート可 正社員 / 業務委託 700万〜1,400万円
BACKGROUND

募集背景

AIモデルの精度はデータの質に直結しますが、クライアント環境のデータは散在・未整備なケースが大半です。データパイプラインの設計・構築を専任で担えるエンジニアを増員し、AI案件のデータ基盤構築フェーズを加速させます。

RESPONSIBILITIES

業務内容

  • Apache Spark/Kafka/Airflowを用いたETL/ELTパイプラインの設計・構築
  • BigQuery/Snowflake/Redshift上でのデータウェアハウス設計
  • dbtによるデータ変換ロジックの整備とテスト
  • Great Expectations等を用いたデータ品質管理の仕組み構築
  • クライアント環境のデータ現状分析とデータアーキテクチャの提案
  • ML学習用データセットの設計と効率的なデータ供給パイプラインの構築
OVERVIEW

ポジション概要

AI/MLモデルの学習・推論に必要なデータパイプラインの設計・構築・運用を担当します。Apache Spark/Kafka/Airflowを用いたETL/ELTパイプラインの構築、BigQuery/Snowflake/Redshift上でのデータウェアハウス設計、dbtによるデータ変換ロジックの整備、Great Expectations等を用いたデータ品質管理の仕組み作りを行います。「AIの精度はデータの質で決まる」——その基盤を支えるポジションです。

REQUIRED

必須スキル・経験

Python / SQLApache Spark / Kafka / Airflowdbt / FivetranBigQuery / Snowflake / RedshiftデータモデリングAWS Glue / GCP Dataflowデータ品質管理
NICE TO HAVE

歓迎スキル・経験

  • リアルタイムストリーミング処理の設計・運用経験
  • データガバナンス・データカタログの導入経験
  • PB規模のデータ処理経験
  • データメッシュアーキテクチャの設計経験
IDEAL CANDIDATE

求める人物像

  • データの品質に対して妥協を許さないこだわりを持つ人
  • 自動化とスケーラビリティを常に意識して設計できる人
  • AI/MLチームが求めるデータを先回りして準備できる人
  • Speed Over Perfectionの姿勢で、まず動くパイプラインを構築してから磨き上げられる人
DEV TOOLS

開発環境・ツール

PythondbtApache AirflowDockerAWS / GCPGitHub
WHY 1137

1137で働く魅力

  • フルリモート・フレックスタイム制で柔軟な働き方
  • 最新のAI技術に触れる環境と豊富な学習支援
  • 少数精鋭チームでの裁量ある業務
  • グローバル水準の報酬体系
  • クライアントのAI導入を最前線で支援する実践経験
REQUIREMENTS

募集要項

雇用形態 正社員 / 業務委託
勤務地 フルリモート可
給与 700万〜1,400万円
勤務時間 フレックスタイム制(コアタイムなし)
PROCESS

選考フロー

  1. 1 書類選考
  2. 2 一次面接
  3. 3 技術課題
  4. 4 最終面接
  5. 5 内定