並び順
- おすすめ順
- 新着順
- No elements found. Consider changing the search query.
- List is empty.
案件一覧
( 4,845 件中 121 - 130 件を表示) ◆業務内容◆ ・AIを用いた製品の設計・開発 ・フロントエンド開発 ・アーキテクチャ設計と開発 ・コード品質と継続性改善と保守 ・メンバー教育とチームビルディング支援 etc. ◆主な開発環境・ツール◆ ・言語(FW等):Python・TypeScript(Next.js・React.js) ・OS:Linux ・コミュニケーションツール:Slack・Google Workspace・Confluence ・クラウド:GCP ・ソースコード・バージョン管理:Github ・タスク管理ツール:Jira ・CI/CD:Circle CI・Github・Jenkins etc ◆必須スキル◆ ・Pythonを用いた開発経験3年以上 ・Typescript(React)を用いた開発経験1年以上 ・LLMを用いた開発経験1年以上 ◆尚可スキル◆ ・生成AIに関連するSaasの開発経験 ・LangChain・LlamaIndex・Difyを用いた開発経験 ・AWS・GCPなどのパブリッククラウドの運用経験 ・CI/CDなどを用いた自動テストの導入経験 ・0 → 1のプロダクト開発経験 ・コーディングAIツールを用いた開発経験 ◆就業形態について◆ オフラインでのコミュニケーションを大事にしている現場でメンバーの多くは週3日以上出社しております。 また、出社時にはモニターを2台まで利用可能です。 GitHub Copilot・社内GPTの利用も可能です。 ◆補足◆ ChatGPT等のAI関連の技術を利用した業務効率化ツールを提供している企業での業務となります。 ビジネス拡大に伴い技術課題の整備を目的とした募集となります。 月に一度、全エンジニアで技術・成功事例の共有を行なっておりますので、 新しい技術情報等も学べる環境です。 【場 所】リモート併用(西新宿) 【期 間】即日~ 長期予定 【単価】:~75万 【精算】:140-180 ※服装自由
スキル
<案件概要> 大手データ分析支援会社の一員として稼働していただく案件です。 現在、大手外資系製薬メーカー様のデータパイプライン構築を支援しており、 データエンジニアとして開発に貢献いただける方を募集しております。 <業務内容> ・Azure環境でのデータパイプラインの設計、実装(Data Factory, Synapse Analytics,Spark等) ・データの取り込み、変換、パラメータ化/テンプレート化での最適化 ・SQLでの開発(バッチ処理用のクエリ作成やパフォーマンスチューニング等)、コード管理/ログの保存 ・設計ドキュメント更新、データの照合や品質チェック <働き方> ・フルリモートでの稼働が可能です。 ※初日はPC受け取り/オリエンのため、出社をお願いします。 ・0.5~1.0人月の稼働が可能です。状況に応じてご相談ください。 【必須スキル】 ・SQL開発、パフォーマンスチューニングの経験 ・Azureでの開発経験 ※以下のうち、1つ以上のツールで【設計→開発→運用フェーズ】での経験があることを目安としております。 ・Azure Data Factory(パイプライン、Linked Service、Copy Activity) ・Azure Synapse (SQL Pool / Spark Pool) ・ADLS Gen2(Raw/Curated/Trusted) ・Azure Functions / Logic Apps 【歓迎スキル】 ・ETL/ELT パイプラインの設計、実装経験 ・英語の仕様書に対応したご経験(翻訳ソフトなどを用いながらでOK。オフショア開発も活用しており、グローバルな開発現場です) 【 想定報酬 】 月給:500,000~700,000円(100%稼働想定時) 【勤務条件】 ・雇用形態 : 業務委任 ※弊社と契約を結び、クライアント先で勤務する形となります。 ・契約期間 : 長期 ・勤務時間 :9:30~17:30【休憩時間】稼働時間内1時間 ※勤務時間、曜日は目安です。 ・勤務曜日 : 月~金 ※0.5人月(週2.5~)から相談可能 ・勤務地 : 東京都港区 ※フルリモート 【応募後の流れ】 応募内容の確認 ↓ 弊社担当者との面談 ↓ クライアントとの面談 (案件番号:JN00485494)
スキル
"========================= ━━━━━━━━━━━━━━━━━━━━━━━━━ 【内容】 ・新規データ構造およびデータベースの構築と保守 ・既存データ処理システムの保守運用 ・データの可視化、SQLを用いたデータ抽出業務 ・マーケティング支援(キャンペーン運用) ・データのクロスチェック、他チームからのデータ問い合わせ対応 (工程)要件定義~運用保守 【開発環境】 DWH:BigQuery インフラ:AWS、GCP ワークフローエンジン:DigDag ETL:Embulk 使用言語:SQL、Python、Ruby コミュニケーション/ドキュメンテーション:GitHub、Bitbucket、Slack、Notion、Google Docs ━━━━━━━━━━━━━━━━━━━━━━━━━ 【スキル】 <必須> • データ基盤の開発・運用・保守の実務経験1年以上 • 1つ以上のスクリプト言語を用いた開発・運用・保守経験1年以上 • SQLを用いたデータベース操作、集計の実務経験 • 関係所管と要件の調整ができる方 <尚可> • データ分析基盤におけるデータモデリング経験 • ETLの設計・実装経験 • GCP/AWSなどのパブリッククラウドの知識 • Webアプリケーションの開発経験 ━━━━━━━━━━━━━━━━━━━━━━━━━ 【単価】65‐80万円 【精算】140‐180h 【場所】フルリモート 【稼働条件】週5日 【期間】随時〜長期 ========================="
【案件】数理最適化アプリケーションの構築案件 【内容】 ・Pythonプログラムの実装、単体テスト ・ツール(Spoon)を用いたETL処理の実装 ※詳細については面談時にお伝えします 【必須スキル】 ・Pythonでの開発経験2年以上(FW問わず) 【尚可スキル】 ・pytestを用いたテストコードの実装経験 ・pandasの使用経験 ・ETL処理の開発経験 ・数理最適化の知識 ・航空業界の知識 【単金】〜75万(スキル見合い) 【勤務地】新川崎もしくは目黒(基本リモート) ※週1日程度出社の可能性あり 【期間】即日〜長期 【募集人数】1名 【面談】1回 【商流】現場→ACWEB
スキル
■案 件: 某通信事業者のネットワーク設備向け運用監視システム構築 ■概 要: Amazon Neptune、RDS、Snowflakeなどを利用したデータ分析基盤の設計・構築を担当いただきます。 スキル見合いで、アーキテクト、データエンジニア、アプリ/運用エンジニアのいずれかのポジションでご活躍いただきます。 ■スキル: <<必須>> ・ETL/データ連携基盤(AWS Glue、MSK/Kafka 等)の設計・開発経験 ・Python または SQL を用いたデータ処理の実装経験 ・Snowflake を用いた DWH/データ分析基盤の構築経験 ・RDBMSの設計・運用経験 ・AWS環境でのデータ基盤設計・構築経験 ・ドキュメント作成経験 <<尚可>> ・Amazon Neptune またはグラフDB(Neo4j 等)の利用経験 ・OpenSearch/Elasticsearch を用いたログ検索・可視化経験 ・ネットワーク監視・アラーム相関分析の設計経験 ・AWS 上でのインフラ設計・構築経験 ・LinuxOS の操作経験 ・仮想化基盤の経験 ・監視システムの利用経験 ・基礎的なNW知見のある方 ■単 価: 65-70万円 ■精 算: 140-200h ■面 談: 2回 ■期 間: 2026年1月~ ■場 所: リモートワーク ※必要時のみ品川にて打ち合わせアリ ■人 数: 複数名 ■備 考: ・都内出社可能な方に限る ・外国籍不可
お任せしたいこと ServiceNowの基本設計以降の開発作業 必須スキル・経験 ServiceNowのHAM、SAM開発経験者 歓迎スキル・経験 ServiceNowのHAM、SAM知識のある方(VR知識もあれば尚良い) 要件定義工程を独力で対応可能な方 雇用形態 業務委託(準委任契約) 面談回数 1回予定 募集人数 1名 開始日 即日または2026年1月(中長期) 外国籍可(日本語ネイティブが必須) 年齢50代前半まで
スキル
E0056 【案件名】 ソーシャルECプラットフォームにおける機械学習基盤(レコメンド領域)のリードエンジニア 【業務内容】 ・急成長中のソーシャルコマースアプリにて、レコメンデーション領域の機械学習基盤の構築と改善をリードする ・レコメンド機能の機械学習モデルを用いたプロダクト開発(ランキング、パーソナライズ含む) ・リアルタイム推論環境の性能改善や、特徴量設計、MLOpsの実装・運用・改善を行う ・ビジネス指標の改善に繋がる開発ロードマップの策定と技術選定、推進 【必須スキル】 ・レコメンド領域でのプロダクト開発実務経験(直近5年で2年以上目安) ・MAU数十万以上のサービス、または同規模のトラフィック環境での機械学習開発経験 ・特徴量エンジニアリング、前処理、モデル実装、MLOps、モニタリングまでの一連の経験 ・レコメンド手法(CF/MF/DNN/Transformer/Two-Tower/Wide&Deep/GNNなど)の経験 ・ビジネス指標(CTR、CVR、LTVなど)改善のためのロードマップ策定・実行経験 ・プロジェクトまたはチームのリード経験 ・平日日中の週4〜5日稼働が可能な方 【歓迎スキル】 ・EC・SNS領域でのレコメンド開発経験 ・リアルタイム推論環境の構築経験 ・データエンジニアリングやインフラ知識(AWS/GCP/Databricksなど) ・ビジネス・PdMとの協働経験 【時期】2026年01月~ 【単価】スキル見合い 【面談】1回 (オンライン可) 【最寄】渋谷駅(フルリモート) 【その他】 ・使用言語はPython、クラウドはGCP(Vertex AI、BigQuery、Spanner、Cloud Run)を使用 ・IaCにはTerraformを使用 ・急募の案件であり、長期的な参画を期待 ・レコメンドの実務経験と高トラフィックでのモデル運用経験が選考の軸となる
スキル
【スキル】 <必須> ・Python(FastAPI/Django/Flask)でのアプリケーション開発経験3年以上 ・AWS、Terraformの知識ならびに開発経験 <尚可> ・AWS StepFunctionsによる知見・機能開発経験 ・可観測性(logging / metrics / tracing)やアラート設計経験 ・実行されるクエリ/ プロンプト設計ならびに評価・運用の知見・知識
■商 流:元請直 ■案 件:データ分析基盤向けTableauダッシュボード開発支援 ■概 要: ・Tableauを活用したダッシュボードの設計・開発・運用 ・SQLを用いたデータ抽出・加工 ・ステークホルダーとのコミュニケーション ■スキル: <<必須>> ・Tableauの関数・計算フィールドを理解し、実装できること ・Tableauを使用したダッシュボードの構築経験 ・SQLを用いたデータ抽出・加工の経験(複雑なクエリの作成・最適化が可能) ・顧客折衝経験または、エンドユーザーと業務要件についてやり取りした経験 <<尚可>> ・MySQL / PostgreSQL / BigQuery などのデータベース設計・運用経験 ・BIツール(Looker, Power BI など)の利用経験 ■単 価:75-80万円(税抜) ■精 算:140-180h ■面 談:1回 ■期 間:2026年1月~ ■場 所:新宿/リモート併用
■業務内容 弊社クライアント(HR系)にて、データエンジニアとしてデータモデルの設計・開発をご担当いただきます。 また、事業企画との折衝、主には実現方法の検討であったり連携項目の整理といったレポートで表現するにあたっての要件定義もご担当いただきます。 【対応工程】 BI レポート用のデータマートの設計・開発 テーブル設計、SQL実装、リレーション構築、バッチ実装 BI レポートの開発・保守運用 レポート開発にあたっての要件定義 実現方法検討、連携項目整理 ※現在PowerBIとtableauを併用しています ■求めるスキル(必須) ・データマート設計・開発の経験 ・SQLを用いたデータ抽出・加工の経験(3年以上) ・BIツールを用いたダッシュボード・レポートの設計、開発経験 ■求めるスキル(尚可) ・Power BIもしくはtableauを用いたダッシュボード・レポートの設計、開発経験 ・snowflakeの利用経験 ■開発環境 データベース:Databricks,snowflake BIツール:Power BI,tableau ■面談回数:1回 ■週稼働日数:〜週5日 ■PC貸し出し:有 ■業務時間:9:00〜18:00 ■リモート状況:フルリモート(地方可能) ■勤務地:在宅 or 五反田 ■案件番号:7156
スキル