並び順
- おすすめ順
- 新着順
- No elements found. Consider changing the search query.
- List is empty.
案件一覧
( 5,719 件中 3,741 - 3,750 件を表示) ■業務内容 弊社クライアント(HR系)のデータマネジメント部署にてデータマートの開発業務を担当いただきます。 データ分析/活用プロジェクトへ参画いただき、データエンジニアとしてデータマート開発実装をメインにご担当いただきつつ、データ要件の定義や必要に応じて各種調査も一部ご担当いただきます。 分析用データ基盤/ワークフローの開発・保守運用(Azure Databricks / dbt / Airflow) データマートの開発・保守運用 データに関わる各種調査 ■基本スキル SQL を用いた分析用データマートの開発(要件定義、設計含む)・運用経験3年以上 クラウドDWH利用経験3年以上(Azure Databricks、Amazon Redshift、BigQuery) 大量データのハンドリング経験 Web システムに関する基本的な理解と業務開発経験 ■尚可スキル dbtの利用経験 Airflowの利用経験 データ分析/活用プロジェクトのマネジメント経験 クエリのチューニング経験 ビジネス要件とシステム要件のバランスが取れたデータ利活用環境を考えることができる 高いコミュニケーション能力でプロダクト側、データ利活用者側を巻き込むことができる ■開発環境 インフラ:Azure、AWS、Google Cloud(Azureがメイン) データベース:Azure Databricks、Amazon Redshift、BigQuery ワークフロー:Airflow、dbt コミュニケーション: Outlook・Teams・Slack・Backlog ■人物像 自らドメイン知識などの情報収集を行い、データエンジニアの業務を主体的に進めることができる 周囲と適切にコミュニケーションをとりながら抽象的な課題を整理して解決に導く能力・スタンス 【条件】 ■商流:元請→パートナー→弊社 ■契約形態:準委任契約 ■面談回数:弊社とのカジュアル面談後、2回 ■単金(基本上限):〜60万円 ■基本精算幅:140-180h想定 ■支払いサイト:35日 ■開始時期:1月〜 ■更新期間:3ヶ月更新予定 ■最低稼働日数:週5日 ■最寄駅:大手町 or 五反田 ■リモート状況:フルリモート(地方可能) ※PJ状況やクライアント要望に応じた出社が発生する可能性がございます。 ■服装:ビジネスカジュアル想定 ■PC貸し出し:有 ■定時:10:00〜19:00 ■募集人数:1 ■年齢制限:~40代 ■外国籍可否:不可 ※採用支援をしているパートナーの案件となっておりまして各所情報が不足しております。ご了承ください。
■案件の内容 国および自治体向け経営管理システムの開発案件です。 将来的なSaaS展開を見据え、共通機能の開発を担当する小規模スクラムチームにて、バックエンドエンジニアとしてご参画いただきます。 仕様検討や機能要件の整理、問い合わせ対応、リリース対応など幅広く担っていただくポジションで、PdMやTechLead、他チームと連携しながら開発を進めます。 自発的に動ける方にフィットする環境です。 ■求めるスキル ・Webアプリケーションの開発経験(5年以上) ・バックエンド開発経験(特定言語で3〜4年以上) ・API設計の実務経験 ・RDB設計の実務経験 ・AWS/GCP/Azureなどクラウド環境での開発経験 ・Python+Djangoを学ぶ意欲がある方 ・パフォーマンス改善、エラーハンドリング、トランザクション処理の経験 ■歓迎スキル ・Python+Djangoの実務経験 ・テックリード、メンター経験 ・クリーンアーキテクチャまたはDDDの経験 ■開発環境 バックエンド:Python(Django) インフラ:AWS 開発手法:スクラム(アジャイル×ウォーターフォール併用)
■案件の内容 金融機関向けのSaaSプロダクトにて、Web・API・インフラを横断したフルスタック開発をご担当いただきます。 FastAPIによるWeb API開発、React/TypeScriptを用いたフロントエンド開発のほか、AWSを活用したインフラ構築やCI/CD整備にも携わっていただきます。 RDB設計や自動テストの整備、PRレビューによる品質担保など、週1回のリリース体制を維持するための開発支援をお願いするポジションです。 ■求めるスキル ・PythonまたはFastAPIを用いたWebアプリケーション開発経験 ・React/TypeScriptを用いたフロントエンド開発経験 ・MySQLなどRDBMSを利用したスキーマ設計・運用経験 ・AWSを活用したアプリケーション開発・運用経験 ・チームでの開発経験(PRレビュー・コード管理を含む) ■歓迎スキル ・生成AIを活用したアプリケーション開発経験 ・生成AIをビジネスロジックに組み込んだ開発経験 ・マイクロサービスアーキテクチャでの開発・運用経験 ・DynamoDBなどNoSQLの利用経験 ■開発環境 バックエンド:Python(FastAPI) フロントエンド:TypeScript(React) データベース:MySQL インフラ:AWS(Fargate/Lambda/RDS/S3) CI/CD:GitHub Actions/CodePipeline/CodeDeploy テスト:pytest/Vitest/Cypress
■案件の内容 大手HR系企業におけるデータマネジメント部門にて、分析用データ基盤やデータマートの開発・保守運用を行っていただきます。 ※初日のみ都内出社 主にAzure Databricksやdbt、Airflowなどを用いたデータワークフロー開発に携わりながら、要件定義・設計・調査も一部ご担当いただきます。 データ分析・活用に関わるプロジェクトにおいて、データエンジニアとして主体的に業務を推進していただける方を募集しています。 ■求めるスキル ・SQLを用いた分析用データマートの要件定義・設計・運用経験(3年以上) ・クラウドDWH(Azure Databricks、Amazon Redshift、BigQueryなど)の利用経験(3年以上) ・大量データのハンドリング経験 ・Webシステムに関する基礎的理解と業務開発経験 ■歓迎スキル ・dbtの利用経験 ・Airflowの利用経験 ・データ分析・活用プロジェクトのマネジメント経験 ・クエリチューニングの経験 ・ビジネス要件とシステム要件のバランスを踏まえた設計力 ・プロダクト/利用者双方と円滑に連携できるコミュニケーション力 ■開発環境 インフラ:Azure/AWS/GCP(Azureメイン) データ基盤:Azure Databricks/Amazon Redshift/BigQuery ワークフロー:Airflow/dbt コミュニケーション:Outlook/Teams/Slack/Backlog
⭐案件概要 大手通信事業者様のオンライン接客を革新するAIエージェント開発プロジェクトです。 最先端のAI技術を活用し、お客様一人ひとりに最適化された購入サポートを実現する、戦略的に重要な取り組みとなります。 本プロジェクトでは、従来のチャットボットを超える自然でスムーズな接客体験を提供し、オンライン購入体験の質を大幅に向上させます。マルチエージェント技術とセキュアなAI基盤を組み合わせ、業界基準を満たす次世代接客システムを構築します。 開発期間は2026年2月から開始予定で、段階的にシステムを拡張していく計画です。 初期フェーズでは基本的な接客機能を実装し、その後、より高度な機能や対応範囲を拡大していきます。 ⭐募集背景 通信業界では製品・サービスの選択肢が多様化し、顧客が最適な選択を行うことが難しくなっています。 その結果、購入に至らないケースが増加し、オンラインでの顧客獲得が大きな課題となっています。 本プロジェクトでは、最新のLLM技術やRAG、複数の専門AIが連携するマルチエージェントシステムを活用し、従来のチャットボットを超える自然で的確な接客を実現します。 単なる売上向上だけでなく、組織の接客ノウハウを資産化し、サービス品質の向上にも貢献することを目指しています。通信業界特有の厳格なセキュリティ・コンプライアンス要件を満たしながら、高度な機能を実現するチャレンジングな案件です。 今回募集するAIエンジニアは、接客AIエージェントの中核となるAI機能の設計・開発を担当します。 LLMを活用したマルチエージェントの実装、知識ベースの構築と最適化、プロンプト設計、会話ログの分析と継続的な改善など、AI関連の幅広い業務を担っていただきます。 ⭐主な業務内容 OpenAI LLMを活用したプロンプト設計・最適化 ペルソナ判定・ルーティング制御を行うメインエージェントの開発 機種・料金・比較など専門エージェント群の設計・実装 RAG基盤構築(FAQ検索、商品仕様参照、出典付き回答生成) 会話ログ分析・MLパイプラインによる継続学習の実装 スクラム開発での機能改善・精度向上対応 ⭐稼働条件 募集ポジション:AIエンジニア 稼働開始:即日~ 期間:3ヶ月(長期プロジェクトのため延長可能性あり) 稼働量:フル稼働(160時間/月) 単価:5,000円/時~(80万円/月~)※スキルに応じて応相談 働き方:週1回都内出社+リモート併用、毎朝30分のZoomMeetingあり 開発手法:スクラム(2ヶ月スプリント) 備考:貸与PCあり 開発環境: 言語:Python / TypeScript フレームワーク:LangChain / FastAPI / Dify インフラ:AWS(Lambda, Aurora, OpenSearch) LLM:OpenAI GPT-4 / GPT-4-turbo 管理:GitHub / Slack / Jira ⭐必須スキル・経験 LLM(OpenAI等)を活用したアプリケーション開発経験(2年以上) プロンプト設計・チューニング経験 RAG構築経験(検索精度向上施策含む) PythonまたはNode.jsでのAI関連開発経験 チーム開発(アジャイル/スクラム)経験 ⭐歓迎スキル・経験 (※すべて満たす必要はございません。) マルチエージェントシステムの設計・実装経験 MLOpsや継続学習パイプライン構築経験 通信業界向けシステム開発経験 高度なパーソナライズ接客ロジックの設計経験
業務内容
システム開発・運用、受託、自社サービス、請負
■案件の内容 AIプロダクトを牽引するフルスタックエンジニアとして、以下の業務を担っていただきます。 システム開発・改善 特化型AIエージェントの開発 ビジネス要求の理解と実装 LLMを活用したプロダクト開発 ■必須スキル モダンなフレームワークを用いたWebアプリケーション開発のご経験(3年以上) Python or Javaを用いたバックエンド開発のご経験(3年以上) AWS/GCP等のクラウドサービスを用いた実務経験 ■開発環境 言語:Python、TypeScript、React、Next.js/NX インフラ:GCP (コンテナ / K8s)、Docker 開発ツール:Slack、Confluence、Linear、Google Workspace、GitHub、Notion など ◆作業環境 Mac (Appleシリコン) デュアルモニター対応 【条件】 ■稼働日数:週5日 ■開始時期:即日/2026年1月 ■単価:¥900,000 ■稼働形態:リモート併用(週3日出社)西新宿駅 ■年齢制限:~49歳 ■作業開始/終了時間の目安:10:00~19:00 ■商流:弊社一社先まで ■外国籍:外国籍可(N1保有者) ※採用支援をしているパートナーの案件となっておりまして各所情報が不足しております。ご了承ください。
スキル
案件内容 システム開発の業務(Pythonエンジニア領域)をお任せします。 プロジェクトリーダー等が設計した内容を作業指示により実装~テストをご担当いただきます。 要件定義や設計からできる方も歓迎します。 稼働開始日 即日~ ※ご相談可 勤務地 基本都内 ※案件により勤務地が異なります ※面談時にご相談ください 勤務時間 9:00~18:00(休憩:1時間) ※土日祝休み ※案件により勤務時間が異なります 必須スキル 3年以上のPython実務経験 ※他の言語でも可 実装~結合テストまで
■案件の内容 大手流通小売企業が運営するネットショップ事業におけるデータ分析業務を担当いただくデータサイエンティストの募集です。 顧客の購買行動データや需要予測に関する分析を中心に、プロダクト改善に向けた提案、分析基盤の整備、高度な分析機能の立案・提供など、幅広い業務に携わっていただきます。 GAアクセスログを活用した集計・分析、分析結果をもとにした機能提案やモニタリング環境の整備など、プロダクトの継続的なグロース改善に貢献いただくポジションです。 ■求めるスキル ・データサイエンス関連分野での実務経験(2年以上) ・PythonまたはRを用いたプログラミングスキル ・SQLを用いたデータベース操作の経験 ・GAなどのアクセス解析ツールの使用経験 ・統計的分析手法の経験 ・分析結果に基づいた改善提案またはレポート作成の経験 ■歓迎スキル ・食品小売・スーパーマーケット業界でのデータ分析経験 ・高度な統計手法やアルゴリズム設計・実装の経験 ・モデルの検証・評価の経験 ・マーケティング効果測定の経験(例:GRPと売上の関係性分析) ・高度なデータ加工・分析スキル(Python/R)
E0043 【案件名】 【フルリモート/Python】建設業界DXを実現するデータ予測モデル開発・機械学習エンジニア 【業務内容】 建設業界のDXを推進するデータ分析プラットフォームにおいて、 コアとなる機械学習モデルの開発およびデータ分析基盤の整備をリードいただきます。 ・プロダクトのコアとなる建設業界のデータ予測モデル開発 ∟会社ごとの建設データに対する解析処理におけるコーディング実務 ∟分析モデルの解析に必要な処理のコーディング ∟要件定義に基づく新機能開発、モデル・システムの改善 ・データ分析基盤の整備、および保守 ∟建設データを分析するための基盤の開発、整備 ∟建設業界特有のデータを活用したモデルの開発及び運用 ∟データ前処理・後処理のパイプラインの構築 ■担当工程:企画,要件定義,基本設計,詳細設計,実装,テスト,運用・保守,データ分析 ■開発環境: メイン: Python, Pandas インフラ: AWS, Amazon SageMaker 機械学習: 勾配ブースティング その他: GitHub, GitLab, Slack, asana 【必須スキル】 ・Pythonを用いた機械学習の回帰・分類モデルを本番環境で構築・運用した実務経験 ・自然言語処理(NLP)を必要とするプロダクトまたはサービスにおける開発経験 ・AWSなどのクラウド環境におけるシステム開発およびデプロイ・運用のご経験 ・Gitによるチーム開発、**コンテナ技術(Dockerなど)**の知識と実用経験 ・技術的な要件を明確にし、設計・実装に落とし込むための高い論理的コミュニケーション能力 【歓迎スキル】 ・スクラッチから機械学習モデルを設計・開発し、パフォーマンス改善まで行った経験 ・建設業界など、ドメイン特有の複雑なデータに対する機械学習分析モデルの開発経験 ・データ前処理・後処理のパイプライン構築(ETL/ELT)に関する実務経験 ・Amazon SageMakerを活用した機械学習パイプラインの構築経験 ・手をガッツリ動かし、実装が苦なくできる豊富な経験値 【時期】 12月~ 【単価】 スキル見合い 【面談】 1回 (オンライン可) 【最寄】 フルリモート(出社時:市ケ谷駅) 【備考】 ・チーム規模:2-5名 ・募集人数:1名 ・作業開始/終了時間の目安:10時-19時(フルフレックス・コアタイムなし)
スキル
■案件の内容 AIを活用したtoB向けナレッジ基盤プロダクトを展開する新規事業にて、データエンジニアを募集しています。 急成長中のプロダクトをデータ面から支えるため、DWH構築、ETL整備、BIダッシュボード設計を中心に、スケーラブルなデータ活用基盤の構築をご担当いただきます。 ■業務内容: ・データ品質監視・インシデント対応のためのデータ基盤構築 ・Amazon QuickSight を用いた BI 環境の構築・顧客サポート ・セルフサーブ分析環境・データガバナンス体制の整備 ・スケーラビリティを見据えた仕組み・ルール設計 ■求めるスキル ・SQL による複雑なデータモデリング/DWH構築経験(3年以上) ・Python による ETL 開発経験(2年以上) ・BI ツールでのダッシュボード設計・実装経験(QuickSight/Tableau/Looker 等) ・AWS または GCP を使ったデータ基盤構築・運用経験 ・ダッシュボードやレポートの設計~実装を一貫して推進できる方 ・セルフサーブ型の分析環境構築経験 ■歓迎スキル ・dbt を用いたデータモデリング経験 ・データカタログツールの導入/運用経験 ・QuickSight 高度活用経験 ・A/Bテスト環境やデータ品質管理ツールの利用経験 ■開発環境 言語:Python(FastAPI)、SQL DWH:Snowflake、BigQuery インフラ:AWS(Fargate、Aurora、S3、ElastiCache等)、Terraform BIツール:Amazon QuickSight、Tableau、Looker 等 その他:GitHub、Docker、Slack、Notion AI/開発支援:OpenAI API, Claude, Gemini, Copilot, Cursor, Devin 等(最先端ツール活用)