並び順
- おすすめ順
- 新着順
- No elements found. Consider changing the search query.
- List is empty.
案件一覧
( 247 件中 81 - 90 件を表示) 担当:藤谷 Salesforce案件★製造企業向けSalesforce運用保守支援 案件カテゴリ ・データ分析 エリア 東京都 プロジェクト期間 2025年1月~長期想定 スキル要件 ▼必須 幅広い製品知識 SalesCloud、Servicecloud、Pardot、Tableau プロジェクトマネジメント経験 コミュニケーション力 APIやApexを使った連携システム開発経験 ドキュメント作成経験 ▼歓迎 mulesoft導入・運用経験 案件詳細 お客様体制減員による体制強化の自主提案 リモート 週3日リモート、週2回出社(出社場所:汐留) 担当:濱田
スキル
大手IT企業にて2004年から続く エンタメ系の大量のデータを抱えるサービスを担当していただきます。 データ担当領域には大きく「データを収集して活用しやすく整備する領域」と 「蓄積されたデータを活用する領域」の2つあり、 今回は「データを収集して活用しやすく整備する領域」を担当いただきます。 ■初期業務 ・ETLワークフローの運用管理 ・データ品質を担保するための監視およびアラート対応 ・ユーザー行動ログデータの設計レビューおよび管理 ・その他運用サポート業務 ■業務に慣れていただいた後 ・大規模データに対応したテーブル設計 ・ETLワークフローの追加開発や機能拡張 ・インフラ管理の自動化(Terraform等を使用) ・業務プロセスの改善による生産性向上施策の実施 ※業務内容は変動する可能性がございます。 【働く環境】 ・データマネジメント3名、データサイエンティスト2名、MLエンジニア2名 ・週2リモート可 └月水金⇒出社 火木⇒リモート ・残業時間:~20時間(残業なしで退勤可) 【おすすめポイント】 ・歴史あるサービスのため大量のデータが格納されており、非構造化データも多く含まれます。 これらのデータをコストを意識しつつ効率的に利用できるようにするという、 このサービスならではの経験をしていただけます。 ・GCPを環境をメインに利用しており、最新のクラウドリソースの利用や それらの管理を自動化するためのTerraformの設計、開発などを経験いただけます。 【必須スキル】 ・SQLを用いたデータ加工・抽出の実務経験(BigQueryだと尚可) ・Gitなどのバージョン管理システムを活用した開発経験 ・コストや使いやすさを意識したデータベース/テーブルの設計・実装の経験(部分的な経験でも構いません) 【歓迎スキル】 ・DMBOK(Data Management Body of Knowledge)に関する知識およびそれを活かしたデータ環境改善の経験 ・データ基盤(ETL)の開発経験 ・dbtやDataformなどのDataOpsツールの利用経験 ・AWSやGCPなどクラウドサービスの利用経験 ・CI/CDに関する知識 ・数百GB以上の大規模データの取り扱い経験 ・チームでの開発経験 【 想定報酬 】 月額:400,000 ~ 600,000円 【勤務条件】 ・雇用形態 : 準委任契約、派遣 ※弊社と契約/雇用を結び、弊社クライアント先での勤務となります。 ・契約期間 : 長期 ・勤務時間 : 10:00 ~ 19:00 ・勤務曜日 : 月~金 ※週5勤務 ・勤務地 : 東京都渋谷区 (渋谷駅直結) ※週2日リモート可/他出社 【応募後の流れ】 応募内容の確認 ↓ 弊社担当者との面談 ↓ クライアントとの面談 (案件番号:JN00465464)
スキル
【案件】データ基盤構築、運用改善におけるデータエンジニア(メンバー) 【内容】 基盤の運用および改善業務を担当して頂きます。 〈具体的な作業内容〉 ・ユーザーからの依頼および問い合わせ対応 ・テーブル・ビュー追加/改修作業 ・データ閲覧権限管理作業 ・データパイプライン運用/改修作業 ・Google Cloud設定変更作業 ・技術調査/検証作業 ・その他運用改善に伴うツール開発/改修業務 ※社内のデータ基盤ユーザーとのコミュニケーションが発生 【勤務地】渋谷 ※週3出社 【時間】10:00-19:00 【期間】即日〜長期 【必須スキル】 ・3年以上のデータ分析基盤に関する業務経験 ・Pythonを利用したデータエンジニアリングの経験 ・Dockerの基礎知識 ・IaC(terraform)を利用したインフラリソースの管理経験 ・Google Cloudでのデータ基盤運用経験 【尚可スキル】 ・Lambda、Cloud Run Functions、BigQuery、Redshiftなどを使用する開発経験 ・データモデリングの経験 【単金】スキル見合い 【精算幅】8月 【募集人数】1名 【面談】1回予定 【備考】 ・私服勤務可 ・弊社から5名参画中
スキル
【案件】データ基盤構築、運用改善におけるデータエンジニア(シニア) 【内容】 基盤の運用改善および次世代データ基盤の要件定義、設計、構築を担当して頂きます。 〈具体的な業務内容〉 ・現行基盤の課題整理および改善方針の策定 ・次世代データ基盤の要望・要件整理・設計 ・技術・ツール選定、比較検討 ・パフォーマンスチューニング ・キャパシティプランニング ・CI/CDパイプラインの改善 ・新規パイプラインの構築、旧パイプラインの閉鎖 ※社内のデータ基盤ユーザーとのコミュニケーションが発生。 ※リーダー、メンバーおよび関係各所に対する実装方針・技術選定結果などの説明が発生。 ※会議におけるファシリテーションなどが発生。 【勤務地】渋谷 ※週3出社 【時間】10:00-19:00 【期間】即日〜長期 【必須スキル】 ・クラウド環境(AWS/Google Cloud)を用いた5年以上のデータ基盤構築運用経験 ・Lambda、Cloud Run Functions、BigQuery、Redshiftなどを使用する開発経験 ・TableauやLooker StudioなどのBIツールの利用経験 ・IaC(terraform)を利用したインフラリソースの管理経験 【尚可スキル】 ・並列分散処理に関する基本的な知識 ・アーキテクチャ設計の経験 ・データ閲覧権限管理/設計に関する経験 ・チームリーダーなどのプロジェクトリード経験 【単金】スキル見合い 【精算幅】140-180h 【募集人数】1名 【面談】1回 【備考】 ・私服勤務可 ・弊社から5名参画中
スキル
【完全フルリモ】自由な環境で、価値創出の核になる|データサイエンティスト募集! ◆K.S.ロジャースについて 「社会に認められる事業を興す存在になる」をミッションとして掲げ、新規事業の起ち上げ支援を軸にビジネス側の支援から開発支援、運用保守、その後のエンジニア組織の育成などを一気通貫して実施しています。 K.S.ロジャースは各事業を通じて、地域の発展と活性化を行い、社会貢献していきたいと考えています。 そのために、今までのプロダクト開発で培ってきた経験をもとに独自のアイデアと創造力を駆使して、ワクワクして魅力的かつ、社会に認められる事業を積極的に起ち上げていきます。 直近では「神戸の隠れた超優良企業」をビジョンとして定義し、 近年の働き方の変化に伴い、事業は急成長を遂げ、スタートアップ、ベンチャー、大手企業、官公庁など様々なクライアントの要望に対応できるようになりました。 今後、ミッションを実現するために事業の多角化を進めています。 私たちは、地域と深く結びつきながら、その成長と繁栄を支えるための事業を積極的に展開していきます。 K.S.ロジャースでは、「複業だからこそできる」本業では経験できない技術やプロジェクトに関与する機会もあります。 スタートアップやメガベンチャー出身の優秀なメンバーが集まる、エンジニアファーストの働きやすい環境で、一緒にお仕事をしませんか? ◆会社の特徴 ・オフィス無し ・就業時間は0:00〜24:00 の中で自由 ・雇用形態の切り替えが柔軟 ◆募集の背景 今後は、プロジェクト内の役割をより明文化し、限られたリソースの中で各メンバーが経験や知見を最も活かすことのできるポジションへのアサインを強化するため、増員で募集をする運びとなりました。 ◆この仕事の魅力 ・スタートアップをはじめとした複数企業の事業創出に、データサイエンティストとして予測モデルの構築やデータの可視化・AIを活用した新しい価値の創出などに関わることができます。 ・フルリモートワーク、フルフレックス、複業可の自由度の高い組織で働くことができます。 ・自社でSaaS事業も開発/運営しており、希望や経験次第で自社サービスの企画やグロースに関わることもできます。 ◆主な仕事内容 大規模データの加工、分析 ビジネス課題に基づいたデータ分析モデルの設計・構築・運用 機械学習アルゴリズムの開発および導入 データ可視化ツールを活用したレポート作成 インサイトや仮説を立てたうえでの議論参加、課題解決策の提案 (雇入れ直後)上記業務内容参照、両者で合意が成された業務に関わる全般 (変更の範囲)当社業務に関わる全般 ◆必須スキル 以下いずれも当てはまる方 ・Python、SQLなどを用いたデータ分析の実務経験 ・機械学習モデルの検討・構築や運用経験 ・自然言語処理の実務経験 ・クライアントのビジネスを理解し、データを用いて課題解決や価値創出を行う力 ◆歓迎スキル ・データエンジニアリングの知識(ETL パイプラインの構築経験など) ・クラウド環境(AWS, GCP, Azure)の利用経験 ・画像認識や音声解析の実務経験 ・スタートアップやコンサルティング業界での業務経験 ・データ可視化ツール(Tableau、Power BI 等)の利用経験 ・Kaggle, SIGNATEなどのコンペティション参加経験 ・Python(Django、Flask等)でのWeb開発・API開発経験 ・週15h(月60h)以上で稼働できる方 ◆求める人物像 ・論理的かつ柔軟な思考で課題解決に取り組める方 ・新しい技術に対する好奇心が強く、自己学習を怠らない方 ・チームワークを大切にし、他職種のメンバーと円滑に連携できる方 ・自分自身で問題解決やスケジュール管理が出来る方 ・チャット上でのコミュニケーションがしっかり取れる方 ・次世代型のワークスタイルの追究に興味があり、共に環境創りも考えていきたい方 ・エンジニアの働き方の文化を作り、世の中に広めていきたい方 ・主体性を持ってやり切ることができる方 ・業務に取り組む際にプロ意識を持つことができる方 ・相手をリスペクトし異なる視点も理解できる方 ・挑戦し続けることが好きな方 お互いより有意義な時間を過ごせるよう、 プロフィールを充実させた上でエントリーいただけますと幸いです!ご応募お待ちしています!
業務内容
データ分析・AI活用、受託、自社サービス、請負
スキル
【案件内容】 マイクロサービスアーキテクチャで構築されたインターネット基盤サービスにおいて、バックエンドエンジニアとして機能開発を担当いただきます。具体的には、Pythonを利用したバックエンドシステムのAPIやデータベースの設計・実装・テスト・リリース作業などを行います。 【開発環境】 言語:Python(3.7〜) 開発手法:アジャイル開発(尚可) クラウドサービス:AWS・GCP・Azure バージョン管理:github(プルリク開発、レビュー経験) チーム開発:3名以上 プロジェクト管理ツール:Backlog, JIRA(尚可) 開発マシン:Mac 【求めるスキル】 〜必須〜 Python でのプロダクト開発の実務経験3年以上(Python3.7〜) プロダクト設計の実務経験 クラウドサービス(AWS・GCP・Azure)上でのインフラ構築実務経験2年以上 エンジニア歴5年以上 githubを利用したプルリク開発経験(レビュー経験) 3名以上でのチーム開発経験 〜尚可〜 BigQueryの実務経験 ネットワーク設計の実務経験 DB設計の実務経験 マイクロサービスアーキテクチャに関する基礎知識 アジャイル開発の経験 プロジェクト管理ツール(ex.Backlog, JIRA)の利用経験 【求める人物像】 マイクロサービスアーキテクチャでの開発に意欲のある方 Pythonでのプロダクト開発と設計経験が豊富な方 クラウドサービス上でのインフラ構築経験があり、バックエンドからインフラまで幅広く対応できる方 チーム開発におけるレビュー文化を重視できる方 柔軟な働き方を希望する方 【条件】 ・募集時期:2025年10月1日(前倒し不可) ・精算幅:140~200時間 ・勤務時間:09:00-18:00 ・面談回数:1回 ・募集人数:1名 ・初日出社:無(基本リモートだが、PJ状況に応じた出社が必要となる場合あり。) ・PC貸与:有(Mac) ・年齢:28~40歳(上限オーバー不可) ・外国籍:不可
【事業内容】 プライム上場企業が運営する動画配信サービスの視聴データ等を活用した 分析基盤の開発および運用 【募集ポジション】 データエンジニア 【募集人数】 1名 【募集背景】 データ活用高度化および分析業務効率化に向けた基盤整備の推進 【業務内容】 BigQueryやDatabricks等を用いた分析環境整備/ログ収集基盤の運用と分析環境へのデータ連携/分析用データマートの設計・実装(ETL含む)/SQLやPythonによるデータパイプライン構築/社内アナリスト・データサイエンティストとの連携 【稼働日数】 週5日(平日)※週3出社、週2リモート 【単価】 64万円~72万円 【必須条件】 BigQueryなどDWHの設計・運用経験/SQLを活用したデータ抽出・分析経験/ ETL設計・実装経験(バッチ/リアルタイム問わず) 【歓迎条件】 PythonやScalaによるデータ処理経験/Airflow・dbt等のETL管理ツール経験/DatabricksやSparkなどの分散処理基盤経験
業務内容
データ分析・AI活用、受託、SES、請負
■案件名:大手化粧品クチコミサイト運営企業でのデータエンジニア案件 ■案件概要: 日本最大級の化粧品クチコミサイトを運営する企業にて、大手化粧品会社向けのデータ分析・モニタリング環境の整備をご担当いただきます。 データ戦略推進室にて、BigQueryやTableauなどを活用したデータ抽出・分析・ダッシュボード構築を中心にご対応いただきます。 ■開発環境: ・BigQuery ・Tableau ・SQL ・GCP ・AWS Redshift(尚可) ■必須スキル: ・2年以上のデータエンジニアとしての実務経験 ・200行前後のSQLを用いたデータ処理経験 ・BIツール(Tableauなど)を用いたダッシュボード作成経験 ■歓迎スキル: ・GCP BigQueryの構築/分析経験 ・AWS Redshiftのデータ連携構築、分析経験 ・Tableauの使用経験 ・女性向け商材への興味関心 ■期間:即日~長期(応相談) ■勤務地:基本リモート(東京・六本木一丁目駅 徒歩2分、溜池山王駅 徒歩4分) ■募集人数:1名 ■単価:600,000円~650,000円(スキル見合い) ■精算幅:固定 ■就業時間:応相談(柔軟な勤務体系) ■備考: ・外国籍不可 ・関東圏外からのフルリモート勤務も相談可 ・女性向け商材に携わる業務に関心のある方におすすめです
【案件名】 データエンジニア 【開発環境】 ・言語:SQL、LookML ・ツール:GitHub、Slack、Confluence ・データ基盤:BigQuery ・BIツール:Looker ・開発マシン:Windows or Mac(どちらか選択可能) 【ス キ ル】 <必須> ・BigQueryでのデータマート設計・構築経験、データ抽出経験(3年以上) └3年未満の場合は経験年数をご教示下さい。 ・BIツールでのダッシュボード作成経験(1年以上) ・Lookerでのデータモデル設計・ダッシュボード作成経験 <尚可> ・BigQuery上のGA4データ対応経験 【場 所】 六本木 ※最大月4日程度の出社可能性あり 【期 間】 2025年9月16日あたりを想定(前倒し可能)~長期 【募集人数】 2名 【金 額】 MAX80万(スキル見合い) 【商 流】 エンド→上位→弊社 【商流制限】 貴社まで(個人事業主可能) 【面 談】 原則1回 ※書類選考通過後に上位事前面談を実施します 【備 考】 ・業務環境: メンバー14名(男女比 10:4) ・アダルトコンテンツ: あり ※業務で一部触れます。タイトル、イラスト、サムネイルなどは目にする可能性があり、キーワードが会話に出てくるイメージです。 ・年齢制限:原則~50歳まで ・雇用形態:業務委託 ・稼働時間:平日10時~19時(8時間) ※超過は月10時間程度を想定 ・精算方法:45日サイト
大手鉄道系のデータ活用支援会社にてBIエンジニアの募集です。 様々なクライアントの要望をもとに、BIツールのダッシュボード開発、データ整備、運用保守をご担当いただきます。 【業務詳細】 ・要件定義、設計、ダッシュボード開発、テスト、リリース作業 ・既存レポートの修正(データ調査、修正など) ・開発、保守にかかわるドキュメント作成 ・クライアント、担当者とのコミュニケーション(情報共有、調整作業等) 【主な言語/ツール】 ・Tableau ・Google データポータル ・Google BigQuery ・SQL 【必須経験】 ・TableauでBIダッシュボード開発を行った経験がある方(目安1年以上) ・SQLを用いたデータ抽出・開発・複数データ統合の経験 【歓迎条件】 ・MAツールなどのターゲティング配信のためのセグメント設計と条件抽出 【 想定報酬 】 月額:400,000 ~ 800,000円 ※金額はあくまでも目安です。ご経験やスキルに応じて調整いたします。 【勤務条件】 ・雇用形態 : 準委任契約、契約社員 ※弊社と契約/雇用を結び、弊社クライアント先での勤務となります。 ・契約期間 : 長期 ・勤務時間 : 10:00 ~ 19:00 ・勤務曜日 : 月~金 ※週5勤務(週4相談可) ・勤務地 : 東京都港区(恵比寿駅) ※出社/リモート併用(頻度応相談) 【応募後の流れ】 応募内容の確認 ↓ 弊社担当者との面談 ↓ クライアントとの面談 (案件番号:492256234)
スキル