並び順
- おすすめ順
- 新着順
- No elements found. Consider changing the search query.
- List is empty.
案件一覧
( 1,112 件中 21 - 30 件を表示) ■案 件: SAPシステムのアドオン開発・保守(ABAP) ■概 要: SAPシステムのアドオン開発・改修 および 運用保守 を担当していただきます。 S/4HANA環境でのABAP開発を中心に、既存プログラムの 改修、新規開発、バッチ処理、レポート作成 外部システムとの連携などに携わっていただきます。 ■スキル: <<必須>> ・ABAPを用いた開発経験 ・SAPモジュール(FI, SD, MM, PP など)に関する知識 ・アドオン開発・レポート開発の経験 ・SQLを活用したデータ抽出・処理経験 ・基本設計~実装・テストまでの一貫した開発経験 <<尚可>> ・S/4HANA環境での開発経験 ■単 価:80~90万円/月(スキル見合い) ■精 算:140-180H ■面 談:1回 ■期 間:2026年1月~ ■場 所:リモート併用(出社時は都内) ■時 間:9:00~18:00 ■人 数:1名
⭐募集背景 大手企業グループの監査業務を支援するAIシステム開発プロジェクトにおいて、認証・アクセス制御の高度化を目的とした追加開発フェーズが始まります。既存システムはAzure OpenAIとRAG構成を採用し、監査業務の効率化や品質向上、リソースの最適配置を短期開発で実現してきました。 今回のフェーズでは、既存の認証基盤と業務システムを連携させ、シームレスなログイン体験や利用者の所属・役割に応じた権限管理、セキュリティ強化と運用負荷の軽減を図ります。複数部門や外部パートナーと連携しながら、限られた期間で確実に成果を出すため、要件定義からリリースまでを推進できるPMを求めています。 ⭐主な業務内容 顧客・ベンダー・開発チーム間の進行管理・要件調整 スケジュール、課題、リスク管理 SSO要件の優先度調整と合意形成 レビュー会・仕様確認会のファシリテーション ドキュメント整備・成果物レビュー 要件定義〜リリースまでの総合推進 ⭐稼働条件 募集ポジション:プロジェクトマネージャー 稼働開始:即日〜2026年1月末(※応相談) 期間:2ヶ月(延長可能性あり) 稼働量:月80~160時間 単価:45〜110万円/月|(時給5,625〜6,875円) 働き方:フルリモート チーム体制:クライアント+パートナー企業との合同チーム 備考:貸与PC ⭐必須スキル・経験 エンタープライズ規模のシステム開発経験およびPM経験 AIを活用したシステム設計・アーキテクチャの知識 認証方式(SAML/OIDC等)案件の推進経験 顧客折衝・ドキュメントレビュー能力 ⭐歓迎スキル・経験 (※すべてを満たす必要はございません。) 大規模SSO導入経験 セキュリティ要件を含むシステム設計の知見 複数ベンダー間の調整経験
業務内容
システム開発・運用、受託、自社サービス、SES、請負
スキル
■業務内容 企業が保有する文章データをAIで構造化し、独自のナレッジベースとして活用できるプロダクトの開発を行う新規事業に参画いただきます。 現在は定性情報の構造化、文脈理解を伴う解析、意思決定支援AIなど、最新の生成AI技術を活用したサービスを提供しており、大手企業での導入が急速に拡大しています。 その中でより多くのお客様が安心してデータ利用いただけるような環境を提供し続けるのがデータチームの役割です。それを支えるBIやデータ基盤の構築や、データ品質の監視体制構築、データリネージ整備等のデータインシデントやデータ品質改善を想定した基盤整理をしていく必要があり、その開発業務をお願いします。 【業務内容】 以下を中心としたデータ基盤・BI構築をお願いいたします。 ・データ品質の監視に加え、データインシデント発生時に対応できるようにするためのデータ基盤構築 ・Amazon Quick Suiteを用いた顧客のBI作成・サポート ・上記2点に関連する業務ならびに、将来的にスケールできるようにするための仕組み・ルール構築 ■求めるスキル(必須) ・SQL を用いた複雑なデータモデリングおよび DWH(Snowflake/BigQuery 等)の設計・運用経験:3年以上 ・Python を用いたデータ処理(ETL/変換)の実務経験:2年以上 ・BIツール(QuickSuite / Tableau / Looker 等)でのダッシュボード設計・実装経験 ・AWS または GCP を利用したデータ基盤構築・運用経験 ・エンドユーザー向けダッシュボードやレポート環境の設計〜実装までの一貫した推進経験 ・セルフサーブ型分析環境の構築経験 ■求めるスキル(尚可) ・dbt を用いたデータモデリング経験 ・データカタログツールの導入・運用経験 ・AWS QuickSuite の高度な活用経験 ・A/Bテストツールやデータ品質管理ツールの利用経験 ■開発環境 ・最新の生成AIサービスを積極的に導入しています。 以下は、エンド社内で利用が許可されているサービス/APIの一部です。今後も常に最先端のAIを検討、導入していく方針です。 ▼API -OpenAI API -Anthropic API -Gemini API -Perplexity API ▼開発ツール -Github Copilot -Cursor Business -Devin ▼生成AIサービス -ChatGPT Team/Enterprise -Azure OpenAI Service -Claude Team/Enterprise -Gemini Advanced/Gemini for GWS -Perplexity Enterprise Pro -NotebookLM Plus -Zoom AI Companion 【技術スタック】 バックエンド:Python、FastAPI フロントエンド:TypeScript、React Router v7 インフラ:AWS(Fargate、Aurora、S3、ElastiCache ほか)、Terraform ツール:GitHub、Docker、Slack、Notion ■キーテクノロジー SQL ■面談回数:1回 ■週稼働日数:〜週5日 ■PC貸し出し: ■業務時間:10:00〜19:00 ■リモート状況:フルリモート(地方可能) ■勤務地:銀座 ■案件番号:7138
スキル
【案件名】 レコメンドに係るシステムの開発実装 【内 容】 データサイエンス部署にてレコメンドに係るシステムの開発実装を担当いただきます。 ∟Python、SQLなどを用いて、各種機械学習モデルなどをレコメンデーション施策に適用、実装開発を行う。 ∟各種レコメンデーション施策のバッチ、APIをAWS環境にて構築、提供する 【ス キ ル】 <必須> ・Pythonを用いた開発の実務経験3年以上 ・要件定義設計以降の経験 ・API開発の経験 ・SQLを用いたデータ抽出や加工の実務経験 ・AWS等のクラウド環境での開発経験 ・Dockerを利用した開発経験 <尚可> ・数理統計や機械学習に関する知識や実務経験 ・機械学習等のアルゴリズムに関する高度な理解と実装能力 ・マッチングビジネスに係るアルゴリズムの開発実装経験 ・データ前処理~分析結果取得、モデリング経験 ・MLOps推進の経験 ・要件定義、顧客折衝 ・人材領域での経験 【求める人物像】 ・主体性を持って、自ら課題解決に取り組める方 【場 所】 基本リモート(初日出社あり) 【期 間】 2026年1月1日~ 【募集人数】 1名 【金 額】 スキル見合い 【精 算】 140h~180時間 【商 流】 元請け→弊社 【商流制限】 貴社まで(個人事業主可能) 【面 談】 2回 【備 考】 ・勤務時間:10:00-19:00 ・年齢制限:〜40歳 ・外国籍:不可 ・貸与PC:有 担当:石黒
■業務内容 弊社クライアント(HR系)のデータマネジメント部署にてデータマートの開発業務を担当いただきます。 データ分析/活用プロジェクトへ参画いただき、データエンジニアとしてデータマート開発実装をメインにご担当いただきつつ、データ要件の定義や必要に応じて各種調査も一部ご担当いただきます。 分析用データ基盤/ワークフローの開発・保守運用(Azure Databricks / dbt / Airflow) データマートの開発・保守運用 データに関わる各種調査 ■基本スキル SQL を用いた分析用データマートの開発(要件定義、設計含む)・運用経験3年以上 クラウドDWH利用経験3年以上(Azure Databricks、Amazon Redshift、BigQuery) 大量データのハンドリング経験 Web システムに関する基本的な理解と業務開発経験 ■尚可スキル dbtの利用経験 Airflowの利用経験 データ分析/活用プロジェクトのマネジメント経験 クエリのチューニング経験 ビジネス要件とシステム要件のバランスが取れたデータ利活用環境を考えることができる 高いコミュニケーション能力でプロダクト側、データ利活用者側を巻き込むことができる ■開発環境 インフラ:Azure、AWS、Google Cloud(Azureがメイン) データベース:Azure Databricks、Amazon Redshift、BigQuery ワークフロー:Airflow、dbt コミュニケーション: Outlook・Teams・Slack・Backlog ■人物像 自らドメイン知識などの情報収集を行い、データエンジニアの業務を主体的に進めることができる 周囲と適切にコミュニケーションをとりながら抽象的な課題を整理して解決に導く能力・スタンス 【条件】 ■商流:元請→パートナー→弊社 ■契約形態:準委任契約 ■面談回数:弊社とのカジュアル面談後、2回 ■単金(基本上限):〜60万円 ■基本精算幅:140-180h想定 ■支払いサイト:35日 ■開始時期:1月〜 ■更新期間:3ヶ月更新予定 ■最低稼働日数:週5日 ■最寄駅:大手町 or 五反田 ■リモート状況:フルリモート(地方可能) ※PJ状況やクライアント要望に応じた出社が発生する可能性がございます。 ■服装:ビジネスカジュアル想定 ■PC貸し出し:有 ■定時:10:00〜19:00 ■募集人数:1 ■年齢制限:~40代 ■外国籍可否:不可 ※採用支援をしているパートナーの案件となっておりまして各所情報が不足しております。ご了承ください。
■業務内容 弊社クライアント(HR系)のデータマネジメント部署にてデータマートの開発業務を担当いただきます。 データ分析/活用プロジェクトへ参画いただき、データエンジニアとしてデータマート開発実装をメインにご担当いただきつつ、データ要件の定義や必要に応じて各種調査も一部ご担当いただきます。 分析用データ基盤/ワークフローの開発・保守運用(Azure Databricks / dbt / Airflow) データマートの開発・保守運用 データに関わる各種調査 ■求めるスキル(必須) SQL を用いた分析用データマートの開発(要件定義、設計含む)・運用経験3年以上 クラウドDWH利用経験3年以上(Azure Databricks、Amazon Redshift、BigQuery) 大量データのハンドリング経験 Web システムに関する基本的な理解と業務開発経験 ■求めるスキル(尚可) dbtの利用経験 Airflowの利用経験 データ分析/活用プロジェクトのマネジメント経験 クエリのチューニング経験 ビジネス要件とシステム要件のバランスが取れたデータ利活用環境を考えることができる 高いコミュニケーション能力でプロダクト側、データ利活用者側を巻き込むことができる ■開発環境 インフラ:Azure、AWS、Google Cloud(Azureがメイン) データベース:Azure Databricks、Amazon Redshift、BigQuery ワークフロー:Airflow、dbt コミュニケーション: Outlook・Teams・Slack・Backlog ■キーテクノロジー Azure,AWS ■面談回数:2回 ■週稼働日数:〜週5日 ■PC貸し出し:有 ■業務時間:10:00〜19:00 ■リモート状況:フルリモート(地方可能) ■勤務地:大手町 or 五反田 ■案件番号:7133
スキル
==================== 【案件】大手HR事業のデータ領域におけるプロジェクトマネージャー 【内容】 国内最大級の転職サービスにおいて、データドリブン事業運営を構築するため、膨大なデータを様々な視点から分析し、事業状況の見える化を推し進め、事業PDCAの高速化や新たな機能・サービスの創出を実現していきます。 その実現に向け、データ領域のプロジェクトマネージャーとしてクライアントと共に、長期的な成長戦略の策定及び推進業務をご担当いただきます。 【必須スキル】 ・SQL を用いた分析用データマートの設計・開発・運用経験 ・Web システムに関する基本的な理解と業務開発経験 ・データ分析/活用プロジェクトのマネジメント経験 【尚可スキル】 ・Redshift、BigQueryでの大量データのハンドリング経験 ・BIツールの活用経験 ・Git などのバージョン管理システムを活用した開発経験 ・データの可視化・レポーティング経験 ・Google Analytics や Adobe Analytics を活用したアクセスログの設計・分析経験 【勤務地】フルリモート(初日都内出社アリ) 【期間】即日〜 【時間】10:00 - 19:00 【単価】〜105万円(スキル見合い) 【精算幅】140 - 180h 【面談】2回 【備考】 ・〜45歳まで ====================
【案件名】 大手スポーツクラブの基幹システム改修(受入テスト業務) 【内 容】 既存Webシステム改修に伴う受入テスト業務 ※開発作業はなし 【ス キ ル】 <必須> ・SQLの知識 <尚可> ・DB周りの知識 ・Webシステムの知識 【場 所】 フルリモート 【期 間】 即日~長期 【募集人数】 1名程度 【希望年齢】 3-4年程度の若手でOKです 【金 額】 スキル見合い 【精 算】 あり(140h-180h) 【商 流】 元請け直 【面 談】 1回(Web) 【備 考】 ・貴社まで(個人事業主可) ・外国籍不可 ・若手メンバー中心のチーム(現在5名) ・キャッチアップが早く理解力の高い方 ・複数タスクの優先順位付けができる方 ・PL指示のもと一人称で動ける方 ・勤怠良好な方 ・月後半にリリースが重なるため残業の可能性あり 担当:石黒
<案件概要> 大手データ分析支援会社の一員として稼働していただく案件です。 現在、大手外資系製薬メーカー様のデータパイプライン構築を支援しており、 データエンジニアとして開発に貢献いただける方を募集しております。 <業務内容> ・Azure環境でのデータパイプラインの設計、実装(Data Factory, Synapse Analytics,Spark等) ・データの取り込み、変換、パラメータ化/テンプレート化での最適化 ・SQLでの開発(バッチ処理用のクエリ作成やパフォーマンスチューニング等)、コード管理/ログの保存 ・設計ドキュメント更新、データの照合や品質チェック <働き方> ・フルリモートでの稼働が可能です。 ※初日はPC受け取り/オリエンのため、出社をお願いします。 ・0.5~1.0人月の稼働が可能です。状況に応じてご相談ください。 【必須スキル】 ・SQL開発、パフォーマンスチューニングの経験 ・Azureでの開発経験 ※以下のうち、1つ以上のツールで【設計→開発→運用フェーズ】での経験があることを目安としております。 ・Azure Data Factory(パイプライン、Linked Service、Copy Activity) ・Azure Synapse (SQL Pool / Spark Pool) ・ADLS Gen2(Raw/Curated/Trusted) ・Azure Functions / Logic Apps 【歓迎スキル】 ・ETL/ELT パイプラインの設計、実装経験 ・英語の仕様書に対応したご経験(翻訳ソフトなどを用いながらでOK。オフショア開発も活用しており、グローバルな開発現場です) 【 想定報酬 】 月給:500,000~700,000円(100%稼働想定時) 【勤務条件】 ・雇用形態 : 業務委任 ※弊社と契約を結び、クライアント先で勤務する形となります。 ・契約期間 : 長期 ・勤務時間 :9:30~17:30【休憩時間】稼働時間内1時間 ※勤務時間、曜日は目安です。 ・勤務曜日 : 月~金 ※0.5人月(週2.5~)から相談可能 ・勤務地 : 東京都港区 ※フルリモート 【応募後の流れ】 応募内容の確認 ↓ 弊社担当者との面談 ↓ クライアントとの面談 (案件番号:JN00485494)
スキル
■案 件: 某通信事業者のネットワーク設備向け運用監視システム構築 ■概 要: Amazon Neptune、RDS、Snowflakeなどを利用したデータ分析基盤の設計・構築を担当いただきます。 スキル見合いで、アーキテクト、データエンジニア、アプリ/運用エンジニアのいずれかのポジションでご活躍いただきます。 ■スキル: <<必須>> ・ETL/データ連携基盤(AWS Glue、MSK/Kafka 等)の設計・開発経験 ・Python または SQL を用いたデータ処理の実装経験 ・Snowflake を用いた DWH/データ分析基盤の構築経験 ・RDBMSの設計・運用経験 ・AWS環境でのデータ基盤設計・構築経験 ・ドキュメント作成経験 <<尚可>> ・Amazon Neptune またはグラフDB(Neo4j 等)の利用経験 ・OpenSearch/Elasticsearch を用いたログ検索・可視化経験 ・ネットワーク監視・アラーム相関分析の設計経験 ・AWS 上でのインフラ設計・構築経験 ・LinuxOS の操作経験 ・仮想化基盤の経験 ・監視システムの利用経験 ・基礎的なNW知見のある方 ■単 価: 65-70万円 ■精 算: 140-200h ■面 談: 2回 ■期 間: 2026年1月~ ■場 所: リモートワーク ※必要時のみ品川にて打ち合わせアリ ■人 数: 複数名 ■備 考: ・都内出社可能な方に限る ・外国籍不可