ROSCA株式会社は「目の前の"1"を大切に」をコンセプトとしたエンジニア特化型エージェントです。
あらゆる可能性を吟味し、ユーザーの考える理想以上のキャリアを実現することを追求しています。
その為に「シームレスキャリア」という雇用形態にとらわれない概念を提唱し、
少数精鋭だからこそできる全包囲型キャリアサポートを実現します。
★ROSCAマガジン★
https://note.com/takashi919/m/mcb682331058d
弊社の役員兼エージェント2人が、会社のこと、エンジニアキャリアのこと、エージェント業界のことを書いたnoteをまとめております。
なかなか他では聞けない業界裏話もあったりするので、ご興味のある方は是非ご一読ください!
■インタビュー掲載中
選ばれる理由はここにある!エンジニアとの関係構築を紐解く
案件一覧
( 3,005 件中 1,871 - 1,880 件を表示) ========================= ━━━━━━━━━━━━━━━━━━━━━━━━━ 【内容】 ・Ruby on Railsを用いたプロダクトの設計、開発、テスト、運用、リファクタリング ・プロダクトマネージャー・デザイナーと連携をとりながら要件定義・仕様策定 ・新機能や改善案の提案と実装 開発言語:Ruby(on Rails) DB:Amazon Aurora(MySQL互換エディション), Elasticsearch, DynamoDB ━━━━━━━━━━━━━━━━━━━━━━━━━ 【スキル】 <必須> ・Ruby on Railsでの開発経験5年以上 ・Ruby on Rails で自身でイチからアプリケーションを開発したことがある方 ・webサービスの開発経験がある方 <尚可> ・ブログ、GitHubなどご提出できる方は確度上がります。 ・MySQL での開発経験 3年以上 ・テーブル数300~ のアプリケーションでの開発経験1年以上 ━━━━━━━━━━━━━━━━━━━━━━━━━ 【期間】随時〜長期 【勤務時間】フレックス =========================
========================= ━━━━━━━━━━━━━━━━━━━━━━━━━ 【内容】 ・RecBoleでのオフライン指標出し&レコメンドデータの抽出を調査、開発、手順化する ・GCP Cloud ComposerからVertex AI Pipelineへの移行 ・GCP Bigquery scheduleQueryからVertex AI Pipelineへの移行 ・既存本番MLシステムの障害対応(影響調査含む) Python/SQL ━━━━━━━━━━━━━━━━━━━━━━━━━ 【スキル】 <必須> ・Python、SQLの実務経験2年以上 ・BigQueryの利用経験 ・Git、 Jupyter Notebookの利用経験 ・機械学習を用いたモデル開発経験 ・チームでの開発経験 <尚可> ・Vertex AIもしくはSageMakerの利用経験 ・GCP環境での開発経験 ・データ分析に関する報告資料などのレポートの作成経験 ━━━━━━━━━━━━━━━━━━━━━━━━━ 【期間】随時〜長期 【勤務時間】フレックス =========================
========================= ━━━━━━━━━━━━━━━━━━━━━━━━━ 【内容】 開発するマイクロサービスをターゲットとした少人数(3〜5人)のチームで、 ペアプロまたはモブプロをしながら開発を行います。 各チームによって使用する技術やプログラミング言語は異なりますが、どのチームに所属しても担当に縛られず、アプリケーションを構築するために必要なこと全てをチーム全員で行います。 プロダクトチーム開発の特徴 ・アジャイルソフトウェア開発(XPをベース) ・ペアプログラミング、モブプログラミング ・テスト駆動開発、ドメイン駆動開発、リファクタリングを推進する文化 ・マイクロサービスによるモノリシックなアーキテクチャのリファクタリングを推進中 ・目的に合う技術を選定し、言語やアーキテクチャをゼロベースで選定していく ・バックエンド・フロントエンド開発に一貫して携わる (開発環境) 言語:Ruby、TypeScript FW:Ruby on Rails、Vitest, Storybook, Playwright DB:MySQL, DynamoDB ミドルウェア:Redis, OpenSearch その他ツール:AWS, Terraform, Docker、GitLab, GitLab CI, Datadog, Autify, Asana、Slack, Discord, esa, Notion, Zoom, Figma ━━━━━━━━━━━━━━━━━━━━━━━━━ 【スキル】 <必須> ・開発経験3年以上 ※言語不問 ・ペアプロでの開発経験、もしくはチャレンジしたい気持ちがある方 <尚可> ・TDDでの開発経験、もしくはチャレンジしたい気持ちがある方 ・前向きでオープンなコミュニケーションが取れる方 ━━━━━━━━━━━━━━━━━━━━━━━━━ 【期間】随時〜長期 【勤務時間】フレックス =========================
内容】データサイエンティストとして以下のような業務をご担当いただきます。 ・当社が保有する多様なビッグデータを活用した新たなビジネスモデル企画・構築 ・当社およびコンサルティングを行っている法人など、社外向けのデータ分析企画立案、データ分析(予測モデル作成、精度向上等) ・レポート作成、報告 ・多様な業界:注力産業と位置付ける 5 業界(金融、物流、マーケティング、医療、検査事業) ・使用する分析手法:古典的な数理統計モデル~最新のディープラーニング ・分析対象:テキスト(数値、文字)、画像、動画、音声、GPS ログ、時系列データ等 ━━━━━━━━━━━━━━━━━━━━━━━━━ 【スキル】 <必須> ・数理的分野における学士以上の学位 ・データ分析と改善提案の実務経験 ・Python、R、SQL ほかプログラミング言語を用いた分析フローの実装経験 ・統計学や機械学習における基本理論への理解 <尚可> ・PostgreSQL(or MySQL) ・Githubでのソース管理 ━━━━━━━━━━━━━━━━━━━━━━━━━ 【場所】フルリモート 【稼働条件】週3〜5 【期間】即日 【定員】1人 【単価】〜120万円 【精算】140h〜180h 【面談】1回(弊社同席) =========================
【内容】 ・データ集計基盤構築 ・機械学習基盤構築 ・新機能の開発 ・機能改善要望についての開発 ・予測モデルの開発および運用 ・障害発生時の対応 (開発環境) ・開発言語: Python ・DB:Redshift, Aurora(PostgreSQL互換) ・インフラ: Amazon Web Services ・AWS製品: ECS, S3, Step Functions, Lambda ・機械学習ツール:Kedro, MLflow ・ツール: GitHub、ZenHub、Slack、CircleCI、Sentry ━━━━━━━━━━━━━━━━━━━━━━━━━ 【スキル】 <必須> ※下記いずれか ・データサイエンティストとして、分析の問題設定から従事されたご経験 ・機械学習エンジニアとしての研究開発のご経験 ・テーブルデータを用いたモデル開発・データ分析のご経験 <尚可> ※下記いずれか ・時系列データの解析手法に関する知識 ・統計学・機械学習に関する基礎的な理解 ・ビジネス課題に対して機械学習を適用して解決しようとした経験 ━━━━━━━━━━━━━━━━━━━━━━━━━ 【場所】フルリモート 【稼働条件】週5 【期間】随時 【定員】1人 【単価】80〜90万円 【精算】140h〜180h 【面談】1回(弊社同席) =========================
【内容】 ・統計などの数学的知識を利用して、広告予算配分最適化 ・各種開発、実装 ━━━━━━━━━━━━━━━━━━━━━━━━━ 【スキル】 <必須> ・Pythonの開発経験(4年以上) ・数学系の大学院の卒業(研究職経験でも可) <尚可> ・Jupyter Notebook、JupyterLab、RStudio などの使用経験 ・マーケティングの経験 ・数学系の博士号の免許 ・ビジネスレベルの英語 ━━━━━━━━━━━━━━━━━━━━━━━━━ 【場所】九段下(フルリモート※初日/最終日出社) 【稼働条件】週3~5 【期間】随時〜長期 【単価】 【精算】140-180h 【面談】1回 =========================
========================= ━━━━━━━━━━━━━━━━━━━━━━━━━ 【内容】データ活用環境構築支援 【ROSCA社×CW】管理シート 【ROSCA社×CW】管理シート 100% 10 本間飛年 0 / 0 J1082 データサイエンティストが組み立てた機械学習モデルをAWSへ実装(環境構築)して頂きます。 AWSのサービスをフルに活用し、エンハンス開発とシステムの運用保守を同時に行うDevOpsプロジェクトです。 データサイエンティストが組み立てた機械学習モデルをAWSへ実装(環境構築)して頂きます。 AWSのサービスをフルに活用し、エンハンス開発とシステムの運用保守を同時に行うDevOpsプロジェクトです。 スクリーン リーダーのサポートを有効にする スクリーン リーダーのサポートを有効にするには、⌘+option+Z を押します。キーボード ショートカットの詳細については、⌘スラッシュ を押します。高橋心 さんがドキュメントの編集に参加しました。 ━━━━━━━━━━━━━━━━━━━━━━━━━ 【スキル】 <必須> ・AWSの利用経験3年以上 ・Pythonでのプログラム開発経験3年以上 ・クライアントとのコミュニケーション経験 <尚可> ・機械学習モデルの学習経験 ━━━━━━━━━━━━━━━━━━━━━━━━━ 【期間】随時〜長期 【勤務時間】フレックス =========================
【内容】 新プロダクトのデータサイエンティストとして、事業立ち上げに必要な各種データからわかるインサイトの抽出のために必要な分析や基盤づくりを担っていただきます。 0→1のフェーズの構想段階から事業に携わることが可能です。 少数精鋭のため幅広い業務を担当していただきます。 事業開発メンバーとデータサイエンティストが密に議論しながら 新サービスの設計を進めている状況なので、事業に近い部分でデータサイエンスのスキルを活かすことが可能です。 【 具体的な業務 】 新サービス設計において、以下のような業務に従事していただきます。 ・データ分析のためのETL ・顧客理解のためのEDA ・事業利益分析 ・データの可視化 ・サービスに影響する因子を推定可能な指標の生成 ・データに基づく需要予測の課題特定 ・予測精度改善につながる特徴量抽出 【 利用技術 】 ・Python ・Jupyter notebook ・Redash ・dDatabricks ・データサイエンスライブラリ(Pandas/NumPy等) ※下記のような統計、データサイエンス、機械学習の基本的知識な理解があると望ましいです。 ・統計的検定 ・ベイズ推定 ・時系列予測 ・ARIMA ・状態空間モデル ・Prophet ・LightGBMのような教師あり学習モデル ・K-Means, OPTICSのようなクラスタリングモデル ━━━━━━━━━━━━━━━━━━━━━━━━━ 【スキル】 <必須> ・データサイエンティストとしてのご経験2年以上 ・SQLを用いたデータ抽出の経験 ・Python/Jupyterによるデータ処理の経験 <尚可> ・大規模な業務ログ/顧客行動ログデータの分析経験 ・分析結果に基づく業務施策立案の経験 ・統計、データサイエンス、機械学習の基本的知識 ・Rredash等のBIツール利用経験 ・AWS サービス(Athena/SageMaker)の利用経験 ━━━━━━━━━━━━━━━━━━━━━━━━━ 【場所】フルリモート 【期間】〜長期 【単価】※完全スキル見合い 【精算】140時間~ 180時間 【面談】1回 【人数】1名 【勤務時間】〜(昼休憩1h) =========================
【内容】 エネルギー事業子会社向け顧客管理システム刷新案件のインフラチームを受託されているチームの一員として稼働していただきます。 NW業務/クラウド業務/サーバー設計構築業務など幅広く業務があり ご本人様のご希望などに沿ってタスクをご対応いただきます。 (開発環境) AWS/Azure/Cisco製品/FW/Docker ━━━━━━━━━━━━━━━━━━━━━━━━━ 【スキル】 <必須> ・AWS設計構築の経験(設計構築したことがなくても、AWS使用経験・資格取得のレベルでも可) <尚可> ・AWSサーバーレス設計構築の経験 ・コンテナアーキテクチャの利用経験 ━━━━━━━━━━━━━━━━━━━━━━━━━ 【期間】随時〜長期 =========================
========================= ━━━━━━━━━━━━━━━━━━━━━━━━━ 【内容】 計画~要件定義にあたる期間にあり、今後、拡大してゆきたい方針のため、長期でご支援頂ける方を募集しております。 募集要員:データベース技術者 1名 ※データモデリングやSQLの得意な方 ・役割:DB設計およびExcelデータのDB取込~BIツールでのダッシュボード作成 ・技術要素(参考):AWS(S3/GLUE/Redshift/QuickSight)、今後、PowerBIを追加利用予定。 ━━━━━━━━━━━━━━━━━━━━━━━━━ 【スキル】 <必須> DB設計、Pythonでの開発経験 <尚可> PowerBIの経験 AWSの操作経験 リーダー補佐・顧客への要件確認・調整等 ━━━━━━━━━━━━━━━━━━━━━━━━━ 【期間】随時〜長期 【勤務時間】9:00~18:00 =========================