並び順
- おすすめ順
- 新着順
- No elements found. Consider changing the search query.
- List is empty.
案件一覧
( 5,654 件中 121 - 130 件を表示) 【業務概要】 グローバル企業向けのサプライチェーンSaaS開発において、プロダクト開発をご支援いただきます。 具体的な業務内容としては下記がございます。 ・フロントエンド/バックエンド/インフラの設計・開発・運用(ご経験に応じて担当領域を調整) ・パフォーマンスボトルネックの分析・改善、およびそれらを自動化するための仕組みづくり ・顧客フィードバックをもとにした機能改善/新機能開発の企画〜実装 ・AIツールを活用した設計・実装・ドキュメント整備などの開発効率化 ・デイリーリリースやホットフィックス対応を前提とした継続的デリバリー運用 プロダクトの成長スピードに対してエンジニアリソースが不足している状況のため、 AI活用を含むフルスタックなソフトウェア開発に精通し、 自走して開発を推進いただける方を募集させていただきます。 【条件】 ・単価:80~90万円 ・時期:1月~長期 ・出社:フルリモート(初日出社なし) ・地方:可 ・募集人数:1名 ・年齢:~40歳まで ・個人事業主:可 ・外国籍:可(要事前面談) ・精算:140-180h ・PC貸与:なし ・面談:WEB1回 【必須スキル】 ・Go,Reactでの開発経験5年目安 ・要件定義以降一貫した開発経験 【尚可スキル】 ・テックリード経験 ・0→1での新規開発経験 ・AIを活用した開発経験 ・ビジネスサイドとの要件のすり合わせ 【開発環境】 ・バックエンド:Go,Python ・フロントエンド:TypeScript/JavaScript(React) ・インフラ:GCP ・その他技術:CloudSQL(PostgreSQL),BigQuery,各種AIツール ・開発手法:スクラム 【備考】 ・勤務時間:フルフレックス
【案件】団体保険システム統合開発支援(Python/Django) 【内容】 損保会社向け団体保険システムにおける統合・カスタマイズ開発案件です。 現行の2システムを1つに統合し、契約管理領域(画面、帳票、データ連携バッチ、保険料計算機能等)の開発を担当します。 要件定義〜本番移行まで一貫して対応いただきます。 本番リリースは2027年12月を予定しています。 開発環境: Python(画面・バッチ)/Java(帳票)/SQL/Shell Django/MySQL/Linux/PDFBox AWS/JP1/Adobe Acrobat Pro/CI/CD 【必須スキル】 ①アプリ基盤要員(1名) ・バッチジョブネット整理、JP1定義設計・登録経験 ・ログ取得などアプリ基盤処理に関する知識 ・アプリ・基盤チーム間での方式検討・構築経験 ②システム移行要員(1名) ・システム/データ移行経験 ・顧客折衝、移行方式検討・計画策定スキル ・SQL/Shellによるデータ変換・クレンジング経験 【尚可スキル】 ・新種保険/団体保険の業務経験 ・AWSの基礎知識 ・ETLシステム構築・運用経験 ・ESETなどの基盤構築パラメータ設計経験 【勤務地】小川町 【時間】9:00〜18:00 【期間】即日〜長期 【単金】〜80万 (スキル見合い) 【精算幅】150-200h 【募集人数】2名(基盤1名、移行1名) 【面談】1回(弊社同席)
スキル
■業務内容 【私たちについて】 私たちは日本の産業におけるサイバーセキュリティの強化を当たり前のものにするために、セキュリティ確認を簡素化・自動化するプラットフォームを開発している、小規模で黒字かつ自己資金による運営のチームです。 週4リモート・週1出社のスタイルで働いており、主に英語を使用していますが、時には日本語での会話もあります。 技術スタックとしては、大規模なフレームワークよりもシンプルなライブラリを好んで使用しています。現時点では、React、TypeScript、PostgreSQL、GCP を使ってアプリケーションを構築しています。フロントエンドは Vite でバンドルされ、スクリプトは bash で書かれています。今後、技術選定は柔軟に見直す予定です。 コードのパフォーマンス、保守性、テスト性を非常に重視しており、特にセキュリティに対しては細部まで気を配っています。開発スピードは速いですが、「壊してはいけないもの」を理解して丁寧に作っています。 【参画していただきたいプロジェクト例】 ・新たなユーザー向け機能の企画・設計・実装・リリース ・GCP、GCP、Azure の API を使ったコンプライアンスチェックの自動化 ・デザインシステムの設計・実装・ドキュメント化 ・CI/CD の改善や自動テストの強化 ・自社プロダクトやシステムへの「レッドチーム」的テスト(攻撃者視点での検証) ■求めるスキル(必須) ・TypeScript を用いたアプリケーション開発の**シニアレベルの経験(約5年)**がある方(フロントまたはバックエンド問わず) ・フロントエンド・バックエンドの両方に1年以上の経験がある方(理想的には React と PostgreSQL) ・Git を使いこなし、コードレビューやコード品質改善の経験がある方 ・ユーザー向けの大きな機能の設計・実装・リリースに関わりたい方 ・小規模かつ優秀なチームでスピード感のある開発を楽しめる方 ・様々な役割をこなす柔軟性のある方 ・「速く作る」と「丁寧に作る」のバランスを理解し、状況に応じて判断できる方 ・最終的なユーザー体験にこだわり、「使ってよかった」と思えるソフトウェアを作りたい方 ■求めるスキル(尚可) ・セキュリティ分野への興味がある ・自動化ツールや Web クローラーの開発経験 ・Figma を使ったデザイン経験やデザインへの感度がある ・スタートアップ初期メンバーとしての経験 ・GCP / AWS / Azure への深い知識 ・TypeScript / React / PostgreSQL を使った OSS への貢献経験 ・B2B SaaS プロダクトの開発経験 ・英語と日本語の両方に堪能 ■キーテクノロジー React.js,GCP ■面談回数:1回想定 ■週稼働日数:〜週5日 ■PC貸し出し: ■業務時間: ■リモート状況:ハイブリッド(週1-2出社) ■勤務地:確認中 ■案件番号:155_005
スキル
航空業界向けの新規システム開発プロジェクトにおいて、旅客機管理に関する業務システムのバックエンド開発をご担当いただきます。 現在チーム内では要件整理が完了し、これから製造工程に本格的に入るタイミングでの増員募集です。 詳細設計〜実装・テストまでを一貫して担当できる方を求めています。 バックエンドはPython、フロントエンドはVue.jsで構成されています。 ※フロント側の経験がある方は歓迎ですが、必須ではありません。 基本はリモート勤務ですが、必要に応じて都内オフィス(港区)への出社対応をお願いする場合があります。 ■開発環境: ■必須スキル: ・Pythonを用いた開発経験(2年以上) ・詳細設計〜テストまで一人称で対応可能な方 ■歓迎スキル: ・Vue.jsを用いたフロントエンド開発経験 ■勤務地:基本リモート ■募集人数:1人 ■単価:~40万 ■精算幅:確認中 ■面談回数:2回 ■就業時間:確認中 ■年齢:~45歳 ■支払サイト:30日
========================= 【案件】フロントエンジニア募集 【内容】 製造業向け生成AIパッケージの開発にて Azure OpenAIを活用した生成AIアプリの構築、frontend開発を担当していただきます。 【勤務地】基本リモート キャッチアップ期間は大崎出社(1ヶ月) 【期間】随時~ 【必須スキル】 ・TypeScript, Next.jsの開発経験 【尚可スキル】 ・Pythonの開発経験 ・GitHubでの開発、Dockerでの開発、生成AI(特にAzure OpenAIかOpenAI API) ・製造業の知識、インフラ(Azure等)、Langchain ・Azure CLI、terraformの使用経験、Linuxの知識 【単金】90~95万 【面談】1回(場合によって2回になる可能性あり) 【精算幅】140~180h 【支払サイト】35日 【備考】 ・外国籍不可 =========================
機械学習エンジニアとしてサービスの改善/開発を行っていただきます。主にデータを活用したアルゴリズムの開発とその基盤開発を担当していただきます。 機械学習技術を用いたサービス開発および改善。具体的には推薦システムや診断といったサービスに従事していただきます。 機械学習モデルの安定的な運用・基盤整備(ML pipeline/MLOps) 香りのデータを活かしたチャレンジングな課題の解決(R&D) データ利活用のためのデータ基盤整備(Data Engineering/Data pipeline) ■工程:要件定義,基本設計,詳細設計,開発,単体テスト,結合テスト,総合テスト,運用 ■開発環境: 開発言語: Python フレームワーク: FastAPI, Flask, PyTorch, MeCab データベース: MySQL ビッグデータ: BigQuery インフラ: AWS, ECS, Docker, Terraform, GCP, VertexAI その他: GitHub Actions, Sentry ■必須スキル: ・機械学習、コンピュータサイエンス、数学に関する基本的な知識 ・機械学習を用いたシステムやアルゴリズムの実装経験 ・Git、GitHub を用いたチーム開発経験 ■歓迎スキル: ・Webサービスの設計・開発経験 ・機械学習を使ったサービスの開発経験 ・機械学習技術の研究開発経験 ・推薦システム、自然言語処理を用いたサービスの開発経験 ・分散処理システム(Hadoop, Spark, MPI, etc.)の知識・経験 ・データパイプライン/ML pipeline(Workflow eingine)の知識・構築経験 ・AWS や GCP などクラウド用いたインフラ構築経験 ・DWH、特に BigQuery を利用したデータ分析基盤の構築経験 ■勤務地:神田 ■募集人数:1人 ■単価:100 ■精算幅:140~180 ■面談回数:2回 ■就業時間:10:00~19:00 ■リモート可否:可(応相談) ■年齢:〜40歳 ■支払いサイト:30日
【フルリモート/週5/Python】ペタバイト級のビッグデータを統合するモダンデータスタック(データ基盤)のデータエンジニア お任せしたいこと [役割]データエンジニアとして、社内外のあらゆるシステムから生成される数千億レコードのログデータやトランザクションデータを収集・統合し、分析チームや機械学習モデルがいつでも活用できる状態にするための、スケーラブルなデータパイプラインおよびデータウェアハウス(DWH)の構築・運用をお任せします。 [役割に対して求める成果]データ品質(正確性・網羅性・鮮度)を厳格に担保しながら、ペタバイト級のデータ処理を低コストかつ高速に実行できるアーキテクチャの設計、およびビジネスの成長に合わせて柔軟に拡張可能な「止まらないデータ基盤」の実現。 具体的な業務内容 ・PythonおよびApache Airflow等のオーケストレーションツールを用いた、スケーラブルで冪等性(Idempotency)のあるETL/ELTデータパイプラインの詳細設計・実装 ・GCP(BigQuery)またはSnowflake環境におけるデータウェアハウスのアーキテクチャ設計、テーブル設計、および高度なSQLクエリチューニング ・Pub/SubやApache Kafka等を利用した、リアルタイムストリーミングデータ処理基盤の設計・開発 ・dbtを活用したデータモデリングの推進と、データリネージの可視化・データ品質テストの自動化 ・Terraformを用いたデータ基盤インフラのコード化(IaC)と、GitHub Actionsを利用したCI/CDパイプラインの構築・運用による開発プロセスの効率化 必須スキル・経験 ・Pythonを用いたソフトウェア開発経験(3年以上) ・大規模データに対するETL/ELTパイプラインのアーキテクチャ設計および実装経験 ・クラウド環境(GCP, AWS, Snowflake等)におけるデータウェアハウスまたはデータレイクの構築・運用経験 ・高度なSQLを用いたデータ抽出および実行計画を意識したクエリチューニングの実務経験 ・Git/GitHubを用いたチーム開発およびPull Requestベースのコードレビュー経験 歓迎スキル・経験 ・Apache Airflow, Prefect, Dagster等のデータオーケストレーションツールの運用経験 ・dbtを用いたデータ変換・データモデリングの実務経験 ・Apache Spark(PySpark)等の分散処理フレームワークを用いた大規模データ処理経験 ・データガバナンス(データカタログの導入、厳密なアクセス権限管理など)に関する深い知見 ・ソフトウェアエンジニアとしてのWebバックエンドAPI開発経験 開発環境 言語・フレームワーク:Python 3.1x, SQL, dbt インフラ・データ基盤:GCP (BigQuery, Cloud Storage, Pub/Sub, Cloud Run), Snowflake ツール・ミドルウェア:Apache Airflow, Terraform, GitHub, GitHub Actions, Jira, Slack, Notion 開発チームについて プロダクトマネージャー1名、データアーキテクト1名、データエンジニア5名(今回募集枠含む)、アナリティクスエンジニア3名、データサイエンティスト4名の体制です。「データは会社の血液である」という強い認識のもと、単にデータを運ぶだけでなく、そのデータがビジネスの意思決定やAIモデルにどう使われるかを意識し、データ品質の向上とパイプラインの堅牢性を極めるエンジニアリング文化が根付いています。 求める人物像 ・「データが欠損している」「処理が遅延している」といった異常に対して強い危機感と当事者意識を持ち、根本原因の解決に執念を持てる方 ・モダンデータスタック(MDS)の最新トレンドを継続的にキャッチアップし、既存のレガシーな処理をより効率的なアーキテクチャへとリプレイスを提案・実行できる方 ・フルリモート環境下において、データサイエンティストやビジネスサイド(マーケティング等)とも自発的かつ円滑にテキストや通話でコミュニケーションが取れる方 仕事の魅力 国内トップクラスのトラフィックから生み出されるペタバイト級のビッグデータを自在に操り、事業成長の基盤を自らの手で創り上げる、非常にスケールと社会的インパクトの大きなポジションです。Pythonの高度なプログラミングスキルに加え、Airflowやdbtといったモダンなデータスタックの最前線で複雑なデータアーキテクチャ設計に挑むことで、データエンジニアとして圧倒的な専門性と市場価値を獲得することができます。 働き方 リモート環境 [フルリモート] フルリモートで働いていただけます。
案件概要 担当業務 ・購買行動支援チャットサービスを展開している企業にて、フルスタックエンジニアとして参画して頂きます。 ・PM/CTO/エンジニアと複雑な要件をすり合わせながら、バックエンドを中心としてインフラやフロントを跨ぐ主要機能の設計・実装をリードをしていただきます。 開発環境 ・フロントエンド: Next.js、Chrome Extension ・バックエンド: TypeScript/Hono/Drizzle、Python ・データベース: PostgreSQL、Qdrant(ベクトルDB) ・インフラ: AWS、Terraform ・CI/CD: GitHub Actions ・監視: Datadog ・AI: OpenAI/Anthropic API 等 求めるスキル 必須スキル ・Webアプリケーションのバックエンド開発実務経験5年以上 ・LLMを組み込んだアプリケーションの実装経験 ・クラウドインフラ(AWS/GCP等)の構築・運用経験 歓迎スキル ・テックリードとしてのチームを牽引された経験(5名以上規模) ・TypeScriptまたはJavaScriptの実務経験3年以上 その他 精 算:140-180h(想定) 時 期:長期 場 所:フルリモート 面 談:1回 サイト:月末締め翌月15日支払い(15日サイト)
⭐募集背景 大手金融グループのシステム領域を支えるクライアント企業にて組織全体の業務効率化や開発プロセスの見直し、新しい価値の創出に向けた取り組みが進んでいます。 その中で、日々の業務や開発工程にAIを取り入れ、作業負荷の軽減や品質向上、プロセス改善につなげていくことが重要なテーマとなっています。 一方、現場の課題整理からAI活用の検討、PoC、実装、定着化までを横断的にリードできる専門人材が不足しており、外部パートナーの協力が不可欠な状況です。 本募集では、AIを活用した業務改善や開発効率化を推進する立場として、企画・技術検証・実装支援を一気通貫で担っていただける方を求めています。 クライアントの現場担当者とともに、現場での課題解決と新しい価値創出の両面を推進していただくポジションです。 ⭐主な業務内容 開発・業務プロセスの課題整理、AI活用テーマの特定 生産性向上を目的としたAI活用施策の企画・PoC推進 プロンプトエンジニアリングを活用した業務効率化支援 RAGを活用したナレッジ検索・問い合わせ業務改善の仕組み構築 AIツール・業務支援ソリューションの導入および定着化支援 モデル選定・比較評価を含む適用可能性の検討 クラウドAIサービス利用に伴う基礎的なインフラ・セキュリティ設計 (IAM、権限管理、通信制御、暗号化など) ステークホルダー調整、ロードマップ策定、推進管理 新しい業務ソリューション/サービス企画に向けた技術検証 ⭐稼働条件 募集ポジション:AI活用リード/AIエンジニア/プロンプトエンジニア ※スキル・経験に応じて調整させていただきます 稼働開始:即日~ 期間:3ヶ月〜(延長の可能性あり) 稼働量:160時間/月 単価:80〜130万円/月(時給5,000〜8,000円) ※役割・領域によって変動 働き方:ハイブリッド/フルリモート応相談 募集人数:2~3名 ⭐必須スキル・経験 (※すべて満たす必要はございません) 業務または開発プロセスへの理解を前提としたAI活用の実務経験 プロンプトエンジニアリングの実務経験(1年以上) RAGを用いた業務効率化・ナレッジ活用改善の経験 LLM/SLMなどモデルの比較・評価・選定の経験 クラウド(AWS/Azure/GCP)でのAIサービス利用に伴う基礎的なインフラ・セキュリティ設計 (IAM、権限管理、VPC基礎、暗号化など) AI関連施策または業務改善プロジェクトの推進経験 現場部門との調整・推進の実務経験 ⭐歓迎スキル・経験 (※すべて満たす必要はございません) 開発生産性向上や業務改善プロジェクトの経験 業務改革/コンサルティング経験 AIツール・業務支援システムの導入経験 大規模組織でのAI活用ルール策定・横展開経験 新規ソリューション/サービス企画経験 金融・大規模業務システムに関わる経験
【案件】 データエンジニア募集(Snowflake経験者) 【内容】 ・Snowflakeでのデータ取込み処理 ・Snowflake内での加工(ELT)処理、およびデータマート作成 ・ETL処理の開発および、単体テスト~総合テスト 【勤務地】 基本テレワーク ※出社が発生する場合は目黒 【期間】 即日〜長期 【必須スキル】 ・Snowflakeの実務経験 (Snowflake SQL、Snowpipe、Task、Copy intoの連携処理) ・ETL/ELTの実装経験 ・ストアドプロシージャの経験 ・詳細設計~総合テストまでの経験 ・Pythonの読解スキル(既存処理がPythonのため) 【尚可スキル】 ・要件定義~基本設計の経験 ・AWS環境下での実務経験 (S3、IAM、Lambda、SES、Cloudwatch) 【単金】95万円 【精算幅】140-180h 【募集人数】1名 【面談】1回(弊社同席) 【商流】現場→弊社 【備考】 ・弊社稼働実績あり
スキル