並び順
- おすすめ順
- 新着順
- No elements found. Consider changing the search query.
- List is empty.
案件一覧
( 8,433 件中 5,241 - 5,250 件を表示) ========================= 【内容】 某ゲーム会社様にて運用中のデータ分析基盤(Redshift)の、Google Cloud環境への移行。 Google Cloud環境では、DWHとしてBigQueryを利用し、データパイプラインにはGoogle Cloudのマネージドサービスと、データ変換ツールdbtを使用する想定。 【主な作業内容】 1.バッチ処理コード移行(Java(Spling Boot)→ Google Cloud Composer + Google Data Fusion + dbt) (実装、単体テスト、結合テスト、システムテスト) 2.SQL構文修正(Redshift(PostgresSQL) → BigQuery) (実装、単体テスト、結合テスト、システムテスト) 3.テーブルデータ移行(Redshift → BigQuery) (テーブル設計・実装、データ移行、データ検証) ━━━━━━━━━━━━━━━━━━━━━━━━━ 【スキル】 ・SQL に関する設計・実装経験 ・Python3 に関する設計・実装経験 ・Gitの使用経験 ・Shell に関する設計・実装経験 ・パブリッククラウド(AWS、Google Cloud、Azure等)の開発利用経験 ・Google Cloud Data Analyticsサービス(BigQuery、Composer、Data Fusion、Dataproc、Cloud Storage等) に関する知識 ・プロジェクト管理ツール(JIRA、Backlog、Redmine等)の利用経験 ・オンラインコミュニケーションツール(Slack、Google Meet、Zoom等)の利用経験 ・課題に関する共有と解決 ━━━━━━━━━━━━━━━━━━━━━━━━━ 【期間】随時〜長期 =========================
========================= ━━━━━━━━━━━━━━━━━━━━━━━━━ 【内容】 自社でO2OやFintech領域におけるアプリ開発等、数多くのプロジェクトを抱えている お客様の社内にて、ネイティブアプリのサーバーサイド開発エンジニアを募集しております 工程としては設計からテスト、その後の運用まで、 希望やスキルに応じてお任せします。 また、現場では細かい設計書を作らずに、 アジャイル風な開発手法をとっております。 ━━━━━━━━━━━━━━━━━━━━━━━━━ 【スキル】 <必須> ・python開発経験(3年以上) ・設計~開発の経験 ・AWSの知識がある方 ・ECS、kinesisなどの単語を聞いてイメージできる方 ・技術トレンドに敏感な方 ━━━━━━━━━━━━━━━━━━━━━━━━━ 【期間】即日~ 【勤務時間】10:00~19:00 =========================
【案件】自社サービス(Saas)のSRE業務 【内容】 <概要> 企業向けSaasのサービスを展開している企業にてSRE業務を行います。 自社サービスを安定稼働させ、より多くのお客様に使っていただけるような インフラ環境を開発・運用する業務を行っていただきます。 【業務内容】 ・サービスの基盤となるインフラ設計・構築 ・サービスを快適に利用いただくための、インフラの安定性強化 ・サービスをより多くのお客様にお届けするための、スケーラビリティ向上 ・サービスのプラットフォーム上でのプロダクト拡充にあわせた新規プロダクト用のインフラ設計・構築 簡易的なスクラム開発を取り入れており、毎週月曜日に前週の進捗確認と 次のスプリントのプランニングを実施します。 <環境> TypeScript(React, React Native)、Expo Go、AWS、Google Cloud Platform (BigQuery) Terraform、Docker、Github、BigQuery、Data Studio Sentry、GitHub Actions、Figma、Gather zoom, Slack, miro, Notion, Asana ━━━━━━━━━━━━━━━━━━━━━━━━━ 【スキル】 <必須> ・AWSのインフラの構築・運用の実務経験2年以上 ・TCP/IP・HTTP 等のインターネットプロトコルについての基礎知識 ・ログ監視、サーバー監視の基本的な知識および監視ツールの利用経験 ・Docker 等のコンテナ技術の利用経験 ・GitHub 等のソースコード管理ツールでのチーム開発経験 <尚可> ・Infrastructures as Code (Terraform) の運用経験 ・CIツール(GitHub Actions)の利用経験 ・何らかの言語(Ruby, Go, Java, PHP など)を用いた Web アプリケーションの開発経験 ・RDB もしくは NoSQL を利用したアプリケーションの開発経験 ━━━━━━━━━━━━━━━━━━━━━━━━━
========================= ━━━━━━━━━━━━━━━━━━━━━━━━━ 【案件】物流業界向けSaaSシステムクラウド案件 物流施設を利用するトラックの稼働効率を向上させる事を目的とした トラック配送の予約/受付(バース管理)サービスのAWS上の 運用、ログ解析、Dockerを使用したコンテナ化、自動化を担当していただきます。 ━━━━━━━━━━━━━━━━━━━━━━━━━ 【スキル】 (必須) ・AWSのインフラ管理経験 ・Dockerの運用経験 ・Terraform、Ansibleまたは類するものによるインフラ管理の経験 (尚可) ・ Ansible ※Playbookの作成ができること。 ・自動運用のためのツール開発(shell or python) ━━━━━━━━━━━━━━━━━━━━━━━━━ 【期間】随時 =========================
========================= ━━━━━━━━━━━━━━━━━━━━━━━━━ 【内容】 幼稚園・保育園向け写真販売システム等に関連する新プロダクトに携わって頂きます。 インフラエンジニアとしての業務内容は以下のとおりです。 ・ 自社サービスのインフラ(サーバ、ミドルウェア)運用や保守 (AWS環境) ・Security Hubなどを用いたセキュリティ向上 ・監視ツールを用いたシステムパフォーマンスの向上、およびオブザーバビリティ の向上 ・DevOps的な開発チームの改善 ・Terraformを用いたIaC ・CI/CDの整備(IaC、アプリケーション) ・IT統制に準拠したインフラ対応 (開発環境) ・PHP7(Laravel) ・Javascript(Node.js/ Vue.js/ jQuery) ・Python3 ・AWS(EC2 / ElasticBeanstalk / ElastiCache / Lambda / Aurora MySQL / SES / SQS /S3 / CloudFront) ・CircleCI / Sider ・Docker / Vagrant ・Git / GitHub ・DataDog ・New Relic ・Google Analytics ━━━━━━━━━━━━━━━━━━━━━━━━━ 【スキル】 <必須> ・Linux 運用管理経験 ・AWS(Elastic Beanstalk, CloudFront, Lambda, Fargate, ECSなど) ・terraformなどを利用したIaC ・Webサービス運営に係る各種ミドルウェアの設定 ・CircleCIなどを用いて、CI/CDを整備した経験(またはDevOps全般) ・DataDogやNewRelicを用いた監視基盤、またはシステムオブザーバービリティの向上 <尚可> ・マイクロサービスアーキテクチャの構築経験 ・DatadogやNewRelicなどを用いた監視基盤の整備経験 ・ElasticsearchやSolrなどの検索エンジンの導入経験 ・DevOps ━━━━━━━━━━━━━━━━━━━━━━━━━ 【期間】即日〜長期 【勤務時間】1日8時間(10:00-19:00) =========================
【内容】 ・バックエンドAPI開発 ・DBの設計・運用 (開発環境) バックエンド:Typescript, Vue.js, Pythonのいずれか フロントエンド:Bubble データベース:MySQL, Dynamo DBのいずれか インフラ:AWS コミュニケーション:zoom, Slack, Notion ━━━━━━━━━━━━━━━━━━━━━━━━━ 【スキル】 <必須> ・バックエンドを含むウェブ開発経験が2年以上ある方 ・Typescript, Vue.js, Javascript またはPythonでの開発経験がある方 ・DynamoDB(AWS)またはMySQLでのDB設計・運用経験のある方 <尚可> ・ウェブデザインに関する知見 ・強い好奇心と向学心 ・フィードバックを積極的に行い、真摯に受け止める姿勢 ・速さを重視し、失敗から学んでいく姿勢 ━━━━━━━━━━━━━━━━━━━━━━━━━ 【場所】一部リモート 【稼働条件】週4〜5 【期間】随時 【定員】1人 【単価】40〜60万円 【精算】120h〜180h 【面談】1回(弊社同席) =========================
========================= 【内容】 Google Cloud環境では、DWHとしてBigQueryを利用し、データパイプラインにはGoogle Cloudのマネージドサービスと、データ変換ツールdbtを使用する想定です。 <作業内容>(上から優先度が高い順) 1.バッチ処理コード移行(Java(Spling Boot)→ Google Cloud Composer + Google Data Fusion + dbt) (実装、単体テスト、結合テスト、システムテスト) 2.SQL構文修正(Redshift(PostgresSQL) → BigQuery) (実装、単体テスト、結合テスト、システムテスト) 3.テーブルデータ移行(Redshift → BigQuery) (テーブル設計・実装、データ移行、データ検証) ━━━━━━━━━━━━━━━━━━━━━━━━━ 【スキル】 <必須> ・SQL に関する設計・実装経験 ・Python3 に関する設計・実装経験 ・Gitの使用経験 ・Shell に関する設計・実装経験 ・パブリッククラウド(AWS、Google Cloud、Azure等)の開発利用経験 ・Google Cloud Data Analyticsサービス(BigQuery、Composer、Data Fusion、Dataproc、Cloud Storage等) に関する知識 ・プロジェクト管理ツール(JIRA、Backlog、Redmine等)の利用経験 ・オンラインコミュニケーションツール(Slack、Google Meet、Zoom等)の利用経験 ・課題に関する共有と解決 <尚可> ・Java(Spling Boot)開発経験 ・Apache Airflowの開発利用経験 ・Apache Spark/Hadoopに関する知識 ・YAMLの開発利用経験 ・Terraformの開発利用経験 ・Web APIの開発利用経験 ・JP1の開発利用経験 ・AWS Redshiftの開発利用経験 ・Google Cloudを使用したデータ分析系基盤開発経験 ━━━━━━━━━━━━━━━━━━━━━━━━━ 【場所】基本リモート 【期間】随時〜長期 【勤務時間】9:30~18:30(休憩は昼60分、夕方30分、夜30分) ※フレックスタイム制となります =========================
【案件概要】 顧客がより大きなマーケティング成果をあげることを支援するプロダクトです。 データサイエンスを駆使することで、過去の出稿実績からメディアごとの広告効果を推定します。 広告効果に基づいて決定された最適な広告予算配分が提示されることで、 ユーザはよりよいマーケティング戦略を立てられるようになります。高度な統計学の手法を駆使したMarketing Mix Modeling: MMMの手法が実装されていることが大きな特徴です。 これによりテレビ CM などのオフライン広告でさえも、オンライン広告と統合して定量的な分析ができます。【業務内容】 ・広告効果を推定するための統計手法や、広告予算配分最適化のための数理最適化手法を開発する ・社内のソフトウェアエンジニアと協力しながら、開発した手法を Proof of Concept (PoC) で使用するプロトタイプに実装する ・また、MAGELLAN に限らず弊社が開発する他のプロダクトにおいても、データサイエンスを活用した機能について研究・開発を行う【PoC例】 ・繰越効果や飽和効果などを考慮した非線形な広告効果の推定 ・状態空間モデルによる動的に変化する広告効果の推定 ・非線形数理最適化による広告予算配分の最適化 ・統計的因果推論に基づく、より妥当な広告効果推定手法の探究 【必須スキル】 ・大学院修士課程を修了し、線形代数学、解析学、統計学、確率論についての基礎的理解があること ・統計学や機械学習を用いた研究開発の経験(学生時代の経験可) ・Julia、Python、R などを使用したプログラミングの経験および、Jupyter Notebook、JupyterLab、RStudio などの使用経験 【尚可スキル】 ・マーケティング・リサーチ分野での業務経験 ・数理統計学、経済学、マーケティングリサーチなどの分野における博士号 ・査読つき論文の出版あるいは査読つき国際学会での発表の経験 ・SQL を用いてデータの集計・抽出ができる 【作業環境】 Windows/Mac選択可 【開発環境】 言語____:Python,R言語 DB____: FM____: 環境・OS_: ツール___: その他___: 【就業時間】10:00〜19:00 【契約更新】初月単月(以降複数月更新) 【商流】エンド→当社 【精算幅】140〜180 【面談回数】1 【服装】カジュアル 【最寄駅】水道橋 【管理番号】anken_30125_007
【案件概要】 案件内容: ビックデータを独自のAI分析で情報を加工し、提供している会社にて、顧客が使用している機械学習モデルを組込み、 日次で計数計算を実行し結果を配信するサービス基盤の開発になります。ビッグデータ分析担当者が開発や検討を効率的に行えるようなライブラリ(API群)の設計・実装も行っていただきます。 主にビッグデータ定量評価、特徴量への加工・変換、計算、レポーティング機能などを開発いたします。 利用者ニーズを理解した上で、チームメンバーと議論・提案しあいながら作り上げていける方を求めております。 【必須スキル】 ・Pythonの実装経験 ・AWS(EC2、lambda、ECS、ECR)の中の何れかのご経験・テーブル設計のご経験(DB理解) ・業務背景を理解して作業を行える方 ・Pandasの使用経験 【尚可スキル】 ・コードレビュー経験がある方 【作業環境】 Windows/Mac選択可 【開発環境】 言語____:Python DB____: FM____: 環境・OS_:AWS EC2 (Amazon EC2),AWS Lambda,AWS ECS ツール___: その他___: 【就業時間】9:00〜18:00 【契約更新】初月単月(以降複数月更新) 【商流】元請け(現場)→当社 【精算幅】140〜180 【面談回数】 【服装】カジュアル 【最寄駅】フルリモート 【管理番号】anken_28015_314
========================= ━━━━━━━━━━━━━━━━━━━━━━━━━ 【案件】教育系動画サービス/インフラエンジニア 【内容】 ●業務内容 これらの需要増加の中で今以上の利用者に万全のサービスを提供するためシステム面での強化・アップデートがまだまだ不十分な状況です。インフラ側面で見ると10年間継続的に発展させてきたサービス基盤には改善箇所が多く存在しモノリスな設計をマイクロサービス化させ、今後のマーケットプレイス展開などに備えなければならず、インフラ強化と再構築が重要となっております。 ●具体的には 開発部門のインフラ担当として以下をお任せいたします。 ・toC,toB事業で動いているシステムのアップデート ・DX事業の立ち上げに必要な基幹システムの構築/アップデート ・さらにアクセスが増えていくWebサービスへの性能要件定義/性能向上 ・データ分析基盤の構築/アップデート ・開発効率向上のための自動化環境構築/アップデート ・ISMSなどに対応しつつセキュリティの強化施策実施 ・AWS、GCPなどインフラコストの最適化 (工程) (開発環境) PHP, Ruby, Golang, JavaScript Codeigniter, Ruby on Rails, Backbone.js, Laravel, VueJS Amazon RDS (Aurora), Amazon ElastiCache (Redis) docker, CircleCI, kubernetes github, jira ━━━━━━━━━━━━━━━━━━━━━━━━━ 【スキル】 <必須> ・AWS基盤の構築、運用経験がある方 <尚可> ・リーダー経験のある方 ━━━━━━━━━━━━━━━━━━━━━━━━━ 【期間】随時〜長期 【勤務時間】フレックスタイム制(コアタイム11:00-16:00) 休憩:6時間以上45分 8時間以上60分 =========================