■業務内容
【案件概要】
弊社クライアントのデータマネジメント部署にてデータ分析基盤の開発・保守業務を担当いただきます。
データエンジニアとしてバッチ処理の追加削除といったメンテナンスをご担当いただきつつ、必要に応じて各種調査も一部ご担当いただきます。
【開発体制及び手法】
各タスクはチケット単位で進み、隔週でチケットの棚卸しを行います。
■必須スキル
・Pythonを用いたデータハンドリングの経験 1年以上
・SQLを用いた分析用データマートの設計・開発・運用経験 1年以上
・周囲と適切にコミュニケーションをとりながら抽象的な課題を整理して解決に導く能力・スタンス
・Web システムに関する基本的な理解と業務開発経験
■尚可スキル
・AirflowのDAG実装経験
・Dataformの利用経験
・Gitなどのバージョン管理システムを活用した開発経験
・Google Analyticsや Adobe Analyticsを活用したアクセスログの設計・分析経験
■単価
~90万
■業務場所
目黒駅 or 五反田駅
■業務時間
9:00-18:00
■リモート頻度
フルリモート(初日出社あり)
■精算幅
140h-180h
■契約期間
4月1日~
■年齢国籍など
年齢制限:なし
外国籍:可(日本語が堪能かつ国内で実績があること)
■面談
2回
■その他
商流:エンド→上流→弊社
貸与PC:有(Mac)
【対応工程】
・ワークフローの開発・運用
└バッチの実装(Airflow/Python)、SQL実装
└バッチ異常終了時のリカバリー、原因調査
・データ分析基盤のインフラの保守運用
└AWS EC2のメンテナンス
└Cloud Composerのメンテナンス
└Vertex AIのメンテナンス
【開発環境】
開発言語
プログラミング:Python、PHP
データベース:BigQuery(Dataformも併用中)、AWS Glue
技術環境
ワークフローエンジン: Cloud Composer(Airflow)、cron
インフラ:GCP(メイン)、AWS
コード管理: GitHub
CI/CD: GitHub Actions
コミュニケーション: Slack・Wrike
大手事業会社から直接開発の依頼をいただき、
要件定義からテスト、運用保守までを一気通貫で対応いたします。
これまでのIT構造を打破する仕組みを構築し、IT業界に風穴をあけるべく奮闘しています。