並び順
- おすすめ順
- 新着順
- No elements found. Consider changing the search query.
- List is empty.
案件一覧
( 136 件中 1 - 10 件を表示) 【案件】データエンジニア 【内容】データ基盤構築をお任せします。 ・データレイク / ETL 基盤の構築 ・ AWS Glue(Apache Spark)による分散処理・ ETL 開発 ・ S3 / Lake Formation を用いたデータ管理・セキュリティ設計 ・ BigQuery ベースの DWH 環境整備 ・ AWS → GCP 間データ連携パイプラインの最適化 ・ BigQuery によるデータモデリング・クエリ最適化 ・ IaC を軸としたマルチクラウド管理 ・ Terraform による環境差分管理・自動化 ・ 品質管理・運用効率化 ・ Airflow などのワークフロー管理と CI/CD 整備 ・ データ品質テストの自動化 【勤務地】神田/小川町(基本出社) 【時間】10時〜19時 【期間】即日〜長期 【必須スキル】 ・ AWS 環境でのインフラ構築・運用経験 ・ GCP 環境でのインフラ構築経験 ・ETL開発及びパフォーマンスチューニング経験 【尚可スキル】 ・ BI ダッシュボード構築 ・複雑なジョブ管理経験 ・ データレイクハウス設計 ・Python等でのツール開発 【単金】80〜115万 【精算幅】140-180 【募集人数】1名 【面談】1回 【商流】エンド→弊社 【備考】 DWHやETL構築経験がある方が優先されます
スキル
・DX推進に伴う情報システム部門の業務支援 (内部でIoT開発、内製開発、データ分析、生成AIなどのポジションに分担) -業務アプリケーション開発(Web) -要件定義、設計、開発、運用保守を一気通貫で対応 -新技術の調査、検証 【必須条件】 ・Pythonを用いた開発経験 ・SQLを用いたデータ処理およびデータ分析経験 ・主要クラウドサービス(Azure, AWS, Google Cloud)の知識 ・BIツール(Tableau)またはDWH(Google BigQuery)の知識 ・フロントエンド開発(React、各種スクリプト言語)の経験 ・UI/UX開発経験 ・生成AI(プロンプト)の知識 【 想定報酬 】 月額:550,000円~650,000円 【勤務条件】 ・雇用形態 : 準委任契約 ※弊社と契約を結び、弊社クライアント先での勤務となります。 ・契約期間 : 長期 ・勤務時間 : 9:00~18:00 ・勤務曜日 : 月~金 ・勤務地 : 東京都港区 ・最寄り駅 :六本木一丁目 【応募後の流れ】 応募内容の確認 ↓ 弊社担当者との面談 ↓ クライアントとの面談 (案件番号:JN00485740)
スキル
◆ 案件:大手化粧品サイト運営企業におけるデータエンジニア ◆必須スキル ・BigQuery上でのデータモデル設計・構築のご経験 ・dbtを用いたデータパイプラインの設計・実装のご経験 ・Composer、BigQueryを用いた分析基盤構築・運用のご経験 ◆尚可スキル ・Redash、Tableau等のBIツールを用いたレポート作成のご経験 ・CI/CD環境での運用のご経験 ◆ 勤務形態 :基本リモート ※地方可 ◆ 就業開始期時期 : 12月 / 1月 ◆ 就業時間:フレックスタイム制 ◆ 週稼働日数 :週5日 ◆ 清算 : 140h~180h ◆ 面談 : 1回(企業様) ◆ 服装 : 自由 ◆ PC貸与 : 有り(Windows) ◆主な開発環境・ツール - BigQuery - Docker - dbt - Composer - GitHub 【業務概要】 ・2,000万人近いアクティブユーザーを抱える化粧品サイト運営企業において データエンジニアとしてご稼働いただきます。 ・現在データ分析基盤のリプレイスプロジェクトを進めており、 開発を進めていく上でdbtを用いたデータモデリング要員としてご参画いただきます。
スキル
【事業内容】 IT/Web/通信/DXコンサルティング事業 【募集ポジション】 データ基盤エンジニア(Snowflake) 【募集人数】 2〜3名 【募集背景】 Snowflakeを中心としたデータ基盤の構築・移行および分析基盤強化のため 【業務内容】 ・Snowflakeへのデータ統合/移行の推進 ・既存DBの整理および廃止計画の設計 ・dbtを用いたデータパイプライン構築 ・Stage/Intermediate/Martをベースにしたデータモデリング ・プロダクトロードマップに沿ったデータ基盤整備 ・エンジニアリング体制のリードまたは遂行支援 ・分析基盤/AI活用に向けた設計/検討 【稼働日数】 週5日 【単価】 月80万円 【必須条件】 ・Snowflakeを用いたデータ基盤構築経験 ・データモデリングの概念理解 ・クラウド環境でのパイプライン/ワークフロー構築経験 【歓迎条件】 ・BigQueryまたはクラウドDWHの運用経験 ・スクレイピング経験 ・外部データ連携経験 ・SaaSのデータ設計/改善経験 ・BtoBプロダクトでのデータ設計経験
■業務内容 企業が保有する文章データをAIで構造化し、独自のナレッジベースとして活用できるプロダクトの開発を行う新規事業に参画いただきます。 現在は定性情報の構造化、文脈理解を伴う解析、意思決定支援AIなど、最新の生成AI技術を活用したサービスを提供しており、大手企業での導入が急速に拡大しています。 その中でより多くのお客様が安心してデータ利用いただけるような環境を提供し続けるのがデータチームの役割です。それを支えるBIやデータ基盤の構築や、データ品質の監視体制構築、データリネージ整備等のデータインシデントやデータ品質改善を想定した基盤整理をしていく必要があり、その開発業務をお願いします。 【業務内容】 以下を中心としたデータ基盤・BI構築をお願いいたします。 ・データ品質の監視に加え、データインシデント発生時に対応できるようにするためのデータ基盤構築 ・Amazon Quick Suiteを用いた顧客のBI作成・サポート ・上記2点に関連する業務ならびに、将来的にスケールできるようにするための仕組み・ルール構築 ■求めるスキル(必須) ・SQL を用いた複雑なデータモデリングおよび DWH(Snowflake/BigQuery 等)の設計・運用経験:3年以上 ・Python を用いたデータ処理(ETL/変換)の実務経験:2年以上 ・BIツール(QuickSuite / Tableau / Looker 等)でのダッシュボード設計・実装経験 ・AWS または GCP を利用したデータ基盤構築・運用経験 ・エンドユーザー向けダッシュボードやレポート環境の設計〜実装までの一貫した推進経験 ・セルフサーブ型分析環境の構築経験 ■求めるスキル(尚可) ・dbt を用いたデータモデリング経験 ・データカタログツールの導入・運用経験 ・AWS QuickSuite の高度な活用経験 ・A/Bテストツールやデータ品質管理ツールの利用経験 ■開発環境 ・最新の生成AIサービスを積極的に導入しています。 以下は、エンド社内で利用が許可されているサービス/APIの一部です。今後も常に最先端のAIを検討、導入していく方針です。 ▼API -OpenAI API -Anthropic API -Gemini API -Perplexity API ▼開発ツール -Github Copilot -Cursor Business -Devin ▼生成AIサービス -ChatGPT Team/Enterprise -Azure OpenAI Service -Claude Team/Enterprise -Gemini Advanced/Gemini for GWS -Perplexity Enterprise Pro -NotebookLM Plus -Zoom AI Companion 【技術スタック】 バックエンド:Python、FastAPI フロントエンド:TypeScript、React Router v7 インフラ:AWS(Fargate、Aurora、S3、ElastiCache ほか)、Terraform ツール:GitHub、Docker、Slack、Notion ■キーテクノロジー SQL ■面談回数:1回 ■週稼働日数:〜週5日 ■PC貸し出し: ■業務時間:10:00〜19:00 ■リモート状況:フルリモート(地方可能) ■勤務地:銀座 ■案件番号:7138
スキル
■業務内容 弊社クライアント(HR系)のデータマネジメント部署にてデータマートの開発業務を担当いただきます。 データ分析/活用プロジェクトへ参画いただき、データエンジニアとしてデータマート開発実装をメインにご担当いただきつつ、データ要件の定義や必要に応じて各種調査も一部ご担当いただきます。 分析用データ基盤/ワークフローの開発・保守運用(Azure Databricks / dbt / Airflow) データマートの開発・保守運用 データに関わる各種調査 ■求めるスキル(必須) SQL を用いた分析用データマートの開発(要件定義、設計含む)・運用経験3年以上 クラウドDWH利用経験3年以上(Azure Databricks、Amazon Redshift、BigQuery) 大量データのハンドリング経験 Web システムに関する基本的な理解と業務開発経験 ■求めるスキル(尚可) dbtの利用経験 Airflowの利用経験 データ分析/活用プロジェクトのマネジメント経験 クエリのチューニング経験 ビジネス要件とシステム要件のバランスが取れたデータ利活用環境を考えることができる 高いコミュニケーション能力でプロダクト側、データ利活用者側を巻き込むことができる ■開発環境 インフラ:Azure、AWS、Google Cloud(Azureがメイン) データベース:Azure Databricks、Amazon Redshift、BigQuery ワークフロー:Airflow、dbt コミュニケーション: Outlook・Teams・Slack・Backlog ■キーテクノロジー Azure,AWS ■面談回数:2回 ■週稼働日数:〜週5日 ■PC貸し出し:有 ■業務時間:10:00〜19:00 ■リモート状況:フルリモート(地方可能) ■勤務地:大手町 or 五反田 ■案件番号:7133
スキル
同社は日本最大級の化粧品クチコミサイトを運営しており、Webの行動ログデータや顧客データなど、さまざまなデータを保有しております。 今回は大手化粧品会社の多岐にわたる各部門のデータ分析・モニタリング環境の整備など、メインに担当している部門にてデータエンジニアとして必要なデータの抽出などお任せいたします。 <具体的には…> ・ビジネスモニタリング/データ分析業務 ・200行前後のSQLを記述・データ要件、分析要件の定義 ・ダッシュボード作成など 【必須条件】 ◆データモデリング ディメンショナルモデリング(スター・スキーマ)の理解 事業要件をファクト/ディメンションに整理してモデル化できる BigQuery上でのデータモデル設計・構築経験 ◆dbt データ変換パイプラインの設計・実装経験(目安2年以上) マクロやドキュメント作成、ソース管理の基本操作ができる ◆gcp Cloud Composer、BigQueryを用いた分析基盤構築・運用経験 Cloud Storage、Datastream、Pub/Subなど、データパイプラインに関連する基本操作 【歓迎条件】 ◆ データモデリング データ型・NULL処理・インデックス設計など、BigQuery特有の最適化を意識したモデル設計ができる 既存モデルの改善やリファクタリング経験 BIツール(Redash、Tableau等)を用いたレポート作成経験 ◆dbt テスト(schema/test)や依存関係管理を考慮したパイプライン設計ができる CI/CD環境での運用経験 ◆gcp パフォーマンス問題や障害時のログ確認・トラブルシュートができる 【 想定報酬 】 月給:600,000円~780,000円 【勤務条件】 ・雇用形態 : 業務委託 ※弊社と契約を結び、弊社クライアント先での勤務となります。 ・契約期間 :2026年1月1日~長期 ・勤務時間 :9:00~18:00 ※休憩時間/就業時間内1時間 ・勤務曜日 : 月~金 ※週5勤務 ・勤務地 : 東京都港区 ※フルリモート可能。 【応募後の流れ】 応募内容の確認 ↓ 弊社担当者との面談 ↓ クライアントとの面談 (案件番号:JN00485870)
スキル
E0056 【案件名】 ソーシャルECプラットフォームにおける機械学習基盤(レコメンド領域)のリードエンジニア 【業務内容】 ・急成長中のソーシャルコマースアプリにて、レコメンデーション領域の機械学習基盤の構築と改善をリードする ・レコメンド機能の機械学習モデルを用いたプロダクト開発(ランキング、パーソナライズ含む) ・リアルタイム推論環境の性能改善や、特徴量設計、MLOpsの実装・運用・改善を行う ・ビジネス指標の改善に繋がる開発ロードマップの策定と技術選定、推進 【必須スキル】 ・レコメンド領域でのプロダクト開発実務経験(直近5年で2年以上目安) ・MAU数十万以上のサービス、または同規模のトラフィック環境での機械学習開発経験 ・特徴量エンジニアリング、前処理、モデル実装、MLOps、モニタリングまでの一連の経験 ・レコメンド手法(CF/MF/DNN/Transformer/Two-Tower/Wide&Deep/GNNなど)の経験 ・ビジネス指標(CTR、CVR、LTVなど)改善のためのロードマップ策定・実行経験 ・プロジェクトまたはチームのリード経験 ・平日日中の週4〜5日稼働が可能な方 【歓迎スキル】 ・EC・SNS領域でのレコメンド開発経験 ・リアルタイム推論環境の構築経験 ・データエンジニアリングやインフラ知識(AWS/GCP/Databricksなど) ・ビジネス・PdMとの協働経験 【時期】2026年01月~ 【単価】スキル見合い 【面談】1回 (オンライン可) 【最寄】渋谷駅(フルリモート) 【その他】 ・使用言語はPython、クラウドはGCP(Vertex AI、BigQuery、Spanner、Cloud Run)を使用 ・IaCにはTerraformを使用 ・急募の案件であり、長期的な参画を期待 ・レコメンドの実務経験と高トラフィックでのモデル運用経験が選考の軸となる
スキル
E0057 【案件名】 発見型ソーシャルコマースプロダクトの品質保証・テスト設計支援 【業務内容】 ・500万DL超のソーシャルECアプリの品質向上に向けたQA業務全般 ・テスト計画およびテスト戦略の立案、実行 ・企画や仕様に対するレビュー・フィードバック ・QAプロセスの構築・改善の推進 ・プロダクト全体の品質担保に向けた改善提案 【必須スキル】 ・スマートフォンアプリまたはWebシステムにおける3年以上の品質保証(QA)経験 ・要件定義から参画し、テスト設計、項目作成、項目消化を自立して行えること ・ソフトウェアテストに関する知識および実務経験 ・アジャイル開発環境でのQA経験 ・開発メンバーと連携可能な高いコミュニケーション力・問題解決力 ・エンジニアとしての開発経験 【歓迎スキル】 ・品質保証チームのリーダー経験(進捗管理や取りまとめなど) ・テストの自動化や効率化を推進した経験 ・各種テストツールの選定、導入、運用経験 ・QA関連の資格(JSTQB、JCSQEなど) ・テストベンダーとの交渉や調整の経験 【時期】 2026年1月~(長期予定) 【単価】 スキル見合い 【面談】 1回(オンライン可能) 【最寄】 渋谷駅(フルリモート、月1出社あり) 【その他】 ・募集人数:1名 ・柔軟な稼働時間が可能(コアタイム11:00-15:00、140~180時間/月)
スキル
ファッションや家具、雑貨などの通販事業を⾧く展開している大手通販会社にてデータエンジニアを募集しております! ■具体的な業務内容 ・現在2~3名体制で進行しているデジタルマーケティングに関するプロジェクトにご参画いただきます! ・BigQueryでの基盤構築から可視化までのディレクションを務める社員の方の下で、 データの可視化・BI開発を行い、必要に応じてデータ分析・改善提案を行っていただきます。 ・ディレクターからの、どのようなデータマートを作るのかという指示をもとに、 BigQueryへの流し込みや、BIツールへの連携をご担当いただきます。 ■環境 ・具体的な環境については、業務を進めていく中で選定予定です。 ・現時点で、BigQueryとSQLは使用予定です。 ・BIツールについては、用途に合わせて今後選定していきます。 【必須スキル】 ・BigQueryの実務経験(浅くてOK) ・SQLの実務経験(浅くてOK) ・データベースに関する基礎知識 ・マーケティング全般に関する知見 ・BIツールの使用経験(浅くてOK) 【歓迎条件】 ・BtoC案件でのご経験 【 想定報酬 】 月給:400,000円~500,000円 【勤務条件】 ・雇用形態 : 業務委任 ※弊社と契約を結び、クライアント先で勤務する形となります。 ・契約期間 :長期 ・勤務時間 :9:30~17:30 (内休憩1時間) ※時短等については、ご状況に合わせて相談可能です。 フルで入っていただく場合、月140時間の稼働を想定しております。 ・勤務曜日 : 月~金 ※週5日稼働 ・勤務地 : 東京都中野区 ※慣れるまでは出社併用でキャッチアップいただく必要があります。業務に慣れ、問題ないとなった場合はフルリモートの相談も可能です。 【応募後の流れ】 応募内容の確認 ↓ 弊社担当者との面談 ↓ クライアントとの面談 (案件番号:JN00441566)
スキル