========================= ━━━━━━━━━━━━━━━━━━━━━━━━━ 【案件】某大手ネット印刷プラットフォームのデータ案件 【内容】 大手ネット印刷プラットフォームを展開する企業にて、データエンジニアとして参画していただきます。 データ分析基盤の構築/運用をおまかせします。 具体的な作業内容は下記となります。 ・各種システムからのBigQueryへのデータパイプラインの構築/運用 ・BigQuery上のデータウェアハウス・データマートの加工処理の構築/運用 技術環境: ・言語 : Python ・データベース : BigQuqery, Aurora MySQL 2.0, Aurora PostgreSQL ・インフラ : AWS (EC2, S3, Lambda etc.) , GCP ・バージョン管理 : git/Github ・CI : CircleCI, Jenkins ・コミュニケーション : Slack, Notion, ClickUP ━━━━━━━━━━━━━━━━━━━━━━━━━ 【スキル】 <必須> ・GCP、AWSなどクラウドでのデータ分析基盤の構築・運用経験 ・BigQuery、Redshift、Snowflake などの DWH環境の利用経験(1年以上のBigQuery経験は必須) ・DWHへのデータパイプラインの運用経験 ・データベースに関する知識とSQLの利用経験 <尚可> ・BigQuery、Snowflake のDWH環境の設計・構築・運用経験 ・上記DWHへの データパイプラインの設計・開発・運用経験 ・CDP(Change Data Capture)を利用したデータパイプラインの構築経験(特に Aurora MySQL to BigQuery) ・DBやSQLのパフォーマンス・チューニング経験 ・dbt、Google Dataform の利用経験 ・Embulk, Fivetran, Xplenty, CData, Hevo, trocco の利用経験 ・各種サービスのAPIを利用したデータ収集開発経験 ・Python開発経験 ・Redash利用経験 ━━━━━━━━━━━━━━━━━━━━━━━━━ 【場所】フルリモート 【期間】随時〜長期 【単価】 ※完全スキル見合い 【精算】140-180h 【面談】1回 【人数】1名 【勤務時間】10:00〜19:00(昼休憩1h) =========================