2025年12月27日(土)~2026年1月4日(日)の期間を年末年始休業とさせていただきます。お問い合わせの回答は年末年始休業期間後となる場合がございます。
並び順
- おすすめ順
- 新着順
- No elements found. Consider changing the search query.
- List is empty.
案件一覧
( 4,149 件中 3,711 - 3,720 件を表示) ◆概要 AIを活用した画像解析システムの開発を担当。工場や医療現場での画像認識を支援するソリューションを提供。 ◆業務内容 ・C#(.NET Core)を用いたデータ処理システム開発 ・GCP(Vertex AI、Cloud Storage)を利用した画像解析基盤構築 ・機械学習モデルとの連携(API開発) ・画像データの最適化・パフォーマンス改善 ◆必須スキル ・C#(.NET Core)の開発経験 ・GCP(Vertex AI、Cloud Storage)の利用経験 ・画像処理の経験(OpenCV、TensorFlowなど) ・機械学習モデルのAPI連携経験 ◆尚可スキル ・エッジデバイス向け開発経験 ・Kubernetesを利用したコンテナ管理経験
◆概要 FinTechサービスのバックエンドAPI開発を担当。高トラフィック環境でのパフォーマンス最適化が求められる。 ◆業務内容 ・Python(FastAPI)を用いたAPI開発 ・非同期処理(Asyncio)の最適化 ・データベース(PostgreSQL、Redis)の設計・最適化 ・AWS(Lambda、Fargate、DynamoDB)でのシステム運用 ◆必須スキル ・Python(FastAPI、Django、Flask)の開発経験 ・非同期処理の開発経験 ・データベース設計・最適化の経験 ・高トラフィックシステムの開発経験 ◆尚可スキル ・AWS(Lambda、Fargate、DynamoDB)の利用経験 ・CI/CD環境の構築経験 ・セキュリティ対策の知識
◆概要 機械学習を活用した予測モデルの開発・運用を担当。データ収集からモデル構築・デプロイまで一貫して関与。 ◆業務内容 ・機械学習モデルの設計・開発(Scikit-learn、TensorFlow、PyTorch) ・データの前処理・特徴量エンジニアリング ・モデルのデプロイ(FastAPI、Flask) ・MLパイプラインの構築(Airflow、Kubeflow) ◆必須スキル ・Python(Scikit-learn、TensorFlow、PyTorch) ・データ処理(Pandas、NumPy)の経験 ・API開発(FastAPI、Flask)の経験 ・クラウド環境(AWS、GCP)の利用経験 ◆尚可スキル ・MLOpsの経験(CI/CD、Docker、Kubernetes) ・データパイプラインの構築経験 ・統計学やデータサイエンスの知識
◆概要 大規模データの収集・解析を目的としたWebスクレイピングシステムの開発・運用を担当。 ◆業務内容 ・Python(Scrapy、BeautifulSoup)を用いたスクレイピング開発 ・クローラーの設計・開発・運用 ・データ保存・加工・解析システムの構築 ・エラーハンドリングとパフォーマンス最適化 ◆必須スキル ・Python(Scrapy、BeautifulSoup、Selenium) ・SQLデータベース(MySQL、PostgreSQL)の経験 ・REST APIの利用経験 ・スクレイピングのエラーハンドリング経験 ◆尚可スキル ・AWS(EC2、Lambda、S3)の利用経験 ・分散処理(Celery、Airflow)の経験 ・データ可視化の経験(Matplotlib、Seaborn)
◆概要 データ分析基盤の開発・運用を担当。データの収集・加工・解析を自動化し、ビジネス部門が活用できる形にする。 ◆業務内容 ・Python(Pandas、NumPy)を用いたデータ処理システムの開発 ・データ収集・前処理の自動化(ETLパイプラインの構築) ・SQLクエリの最適化・データベース管理 ・可視化ツール(Tableau、Power BI)の連携 ◆必須スキル ・Python(Pandas、NumPy、SQLAlchemy) ・データベース(MySQL、PostgreSQL、BigQueryなど)の経験 ・ETLパイプラインの構築経験 ・Gitを用いたチーム開発経験 ◆尚可スキル ・AWS(Lambda、Glue、Athena)の利用経験 ・機械学習の基礎知識 ・データ可視化ツールの利用経験
◆概要 社内向けのデータ処理システムの運用・保守を担当。主に既存機能の軽微な改修やデータのメンテナンス作業を行う。Pythonを使ったスクリプトの修正やSQLの最適化がメイン。 ◆業務内容 ・既存のPythonスクリプトの改修・軽微な機能追加 ・データのクリーニング・フォーマット変換 ・SQLクエリの最適化・データベース管理 ・エラーログの確認・障害対応の補助 ・運用チームからの問い合わせ対応 ◆必須スキル ・Python(基本的なスクリプト作成経験) ・MySQL/PostgreSQLの基本的な操作 ・データの整形・変換(Pandas、CSV処理など) ・単体テスト・結合テストの経験 ・勤怠・健康面・コミュニケーションが良好な方 ◆尚可スキル ・SQLのパフォーマンスチューニング経験 ・Pythonのデータ処理ライブラリの利用経験 ・AWS(EC2、RDS、S3)の基本的な知識
▽業務内容▽ DMM共通のナビゲーションアプリケーションの改修、機能追加、保守運用 ▽求めるスキル▽ 【必須スキル】 Webアプリケーションの開発・運用経験(3年以上) Python を使った Webアプリケーション開発経験 AWS 等のクラウドインフラの利用経験 【歓迎スキル】 Terraform 等の IaC の利用経験 ▽業務環境▽ メンバー: 3名 ▽開発環境▽ クラウド環境: AWS OS: Linux 開発言語: Python/HTML/CSS/JavaScript/TypeScript フレームワーク・ライブラリ: 管理ツール: GitHub Enterprise / ZenHub etc. その他ツール: Docker / CircleCI / GitHub Actions / Datadog etc. ▽担当工程▽ ・詳細設計 ・開発 ・結合T ・ユーザーT ・保守改修 ▽アダルトコンテンツ▽ 業務で直接触れることはないが、目にする可能性がある程度 ▽就業条件▽ ・稼働時間:140~180h(週5日想定) ※案件の内容上、従業員と同様の10:00-19:00で稼働いただければと思います。 ※11時~17時はマストでご対応いただきたいです ※ミーティング等へもご参加をお願いしたいです
スキル
お任せしたいこと [役割] AI技術者 プロダクトの保守・運用ではなく、最新のAI手法を試行しながらPoCを行う研究開発中心の業務です! 画像処理技術、あるいはLLMを活用する大手企業とのAI新規ソリューション共同開発において、AIモデルの開発・訓練、性能検証を行い、結果をレポートにまとめます。また、必要に応じて納品に向けたモデルパッケージ化も担当いただきます。当社が誇るAIの先端知識と大手企業の業界知見の掛け算でソリューションを開発するためクライアントの意向を汲み取ったシステム・計画の設計が必要です。 [役割に対して求める成果] ・高精度で目的に対して適切なAIモデルの開発と検証 ・分析結果や検証結果のレポート作成 ・必要に応じたモデルのパッケージ化と納品対応 具体的な業務内容 ・例:異常検知モデル開発の場合 ・要件定義 ・画像データ確認(必要に応じて収集) ・性能指標の設定 ・データ解析(EDA) ・データ分布の確認 ・前処理手法の検討 ・Autoencoder系モデル開発 ・アーキテクチャ選定・構築 ・パイプライン構築 ・学習・検証 ・ハイパーパラメータチューニング ・モデル性能検証 ・指標算出 ・レポート作成 ・モデルパッケージ化 ・モデルの保存 ・CLIパッケージ化 ・納品対応 ・その他 ・打ち合わせへの参加 ・モデルの運用支援 ・例:類似図面検索システム開発の場合 ・要件定義 ・画像データ確認(図面データの形式・構造の確認、必要に応じて収集) ・検索精度や速度に関する性能指標の設定 ・データ解析(EDA) ・図面データの統計的解析 ・特徴量抽出のための前処理手法の検討 ・類似検索システム開発 ・特徴量抽出アルゴリズムの選定・構築 ・ベクトル化された特徴量の管理手法検討 ・検索アルゴリズムの実装と最適化 ・学習・検証 ・ハイパーパラメータのチューニング ・モデル性能検証 ・指標算出 ・レポート作成 ・モデルパッケージ化 ・検索モデルの保存と管理方法の整備 ・CLIパッケージ化 ・納品対応 ・その他 ・打ち合わせへの参加 ・モデルの運用支援 必須スキル・経験 ・Pythonを使った開発経験 ・機械学習(ML)の基本的な理解(データ前処理、モデル学習、評価など) ・PyTorch または TensorFlowなど、いずれか1つのフレームワークを使ったモデル構築経験 ・最新のAI手法を学び、論文などをキャッチアップしながら実装する意欲。「論文に興味がある」「読むのが苦でない」 嬉しいスキル・経験 ・scikit-learn、OpenCV、Hugging Faceなどの主要なライブラリの使用経験 ・Kaggle等のデータコンペ経験 ・arXivや学会論文を常にチェックしている、または論文執筆・投稿の経験 ・WandBなどの実験管理ツールの利用経験 ・認知度の高いカンファレンス(NeurIPS, CVPRなど)の発表・参加経験 チーム体制 ・エンジニア2〜4名 求める人物像 ・自律的にタスクを遂行でき、チーム全体をリードできる方 ・アカデミアとビジネスの両側面を取り入れ、AIモデルの開発に取り組める方 ・弊社のビジョンに共感し、共に成長していける方 仕事の魅力 ・学生主体の活気に満ちた職場で、新しい挑戦に取り組むことが可能 ・少人数のチームで裁量権を持ちながら稼働可能 ・新技術の調査や実験が好きな方には最適 ・論文をもとに新しいモデルを試してみるのが好きな方大歓迎 働き方 ・雇用形態: 業務委託 ・勤務形態: 週1以上の出社を希望(※相談可) ・トライアル: 初月はトライアル採用あり ・リモートワーク: コミュニケーションが円滑に取れる範囲でリモートワーク可能 ・ミーティング: 必要に応じて、対面またはオンラインでのミーティングを実施
■案件名:大手製造会社向けシステム開発 ★使用ツール VisualStudio Code (VSCode) Gitの基本操作およびソース管理 プログラミング言語 Pythonー>必須 JavaScript(あれば尚可) HTML/CSS(あれば尚可) ★勤務条件 勤務形態:出社対応(週4以上出社、要相談) ■必須スキル ・AWSのリソース設定経験(VPC, EC2, Lamda, Quicksight、IAMなど) ・Pythonのバックエンド開発経験 ・データベースの構築経験(PostgreSQLがベスト、MYSQLもしくはOracleDBでも可) ■歓迎スキル オプションスキル(あれば尚可): ・外部サービスのREST APIを利用した連携開発経験 ・Reactの開発経験 ・データ可視化(ダッシュボード)の開発経験 ■チーム規模:2-5名 ■稼働形態:常駐 ■稼働日数:週5日 ■開始時期:2025/03/01 ■単価:スキル見合い ■精算方法:140 ~ 180時間 (上下割) ■支払いサイト:30日サイト (当月末締め翌月末日支払い) ■募集人数:1人 ■商談:2回 (対面,オンライン可) ■最寄り駅:末広町駅もしくは秋葉原駅 ■作業開始/終了時間の目安:9:30~18:30 ■外国籍:外国籍OK ■PC貸与:あり ■服装規定:なし
プロジェクト概要 データ分析に特化したプロジェクトに参画いただきます。 BigQueryへのデータ蓄積からデータマート作成、Pythonを使用したデータ加工(非構造データの構造化等)、そしてLookerやTableauを使ったレポート作成までを担当していただきます。 顧客属性やアプリ利用履歴などに基づくカスタマー分析、事業貢献に関わるアプリのパフォーマンス分析、パーソナライズの高度化など、様々な分析テーマに取り組むことができます。 主な業務内容 BigQueryへのデータ蓄積とデータマート作成 Pythonを使用したデータ加工(非構造データの構造化) Looker、Tableau、Excelを使用したレポート作成 分析テーマに基づくデータ分析(顧客属性、アプリ利用履歴、解約分析など) 必須スキル Python(pandas, scikit-learn, xgboost, lightgbm)の使用経験 統計検定2級相当以上の知識 データ分析業務の経験(3年以上) 仮説立案、データ加工・集計、分析結果のアウトプットが可能な方 円滑なコミュニケーション能力 分析設計、データ収集、加工・分析、示唆検討、報告の一連の業務経験 尚可スキル データサイエンティストとしての経験 機械学習モデルの構築経験(Pythonを使用) 課題設定や仮説立案のスキル BigQuery, Google Analytics, RedShift, Airflow, Looker, Tableauの使用経験 AWSサービスやRを使用した開発経験 ポイント! データ分析の全工程を経験! 分析設計からレポート作成まで、一貫して関わることができます。 最新技術に触れられる環境! BigQueryやLookerなどモダンなツールを活用。 柔軟な勤務環境! リモートとオフィスワークのハイブリッドで働きやすい!
スキル