検索条件
この条件の案件数:6

Sparkのフリーランス求人・案件一覧

1 - 30/件 全6件

面談1回

【リモート相談可能】AI SaaSのデータエンジニアのフリーランス求人・案件

80~100万円/月額
業務委託(フリーランス)

案件の内容

案件概要:AI SaaSのデータエンジニア 業務内容: データエンジニアとして、全社横断的なデータ基盤構築・開発をリードしていただきます。 自社AIプロダクトにおけるデータ基盤の設計構築や、 DX事業の顧客に対するデータ活用プロジェクト支援などデータ活用に関する業務を横串でお任せします。 最先端のAIアルゴリズムの研究開発を行っている日本トップクラスのAIスペシャリストと協業しながら、 生成AIを含め最先端のAI技術を活用するためのデータ基盤構築に関わっていただくことが可能です。 開発環境: コード管理 : Git(GitHub) 言語:Python OS:Linux データスタック: Fivetran,dbt,snowflake,Databricks, Apache Airflow,Confluentなど クラウド: Microsoft Azure,AWS,Google Cloud Platform インフラ: Docker, Terraform ドキュメント管理: Notion コミュニケーション: Slack, Zoom タスク管理: Notion 場所:湯島※リモート相談可能 外国籍:不可

求めるスキル

• データ基盤およびモダンデータスタックへの理解と実導入・運用・活用経験 • パブリッククラウド(Microsoft Azure、AWS、GCPなどのクラウドサービス)の利用経験 • データモデリングとデータベース設計 • Python、SQLなどのデータ処理に必要なプログラミング言語のスキル

案件担当のコメント

稼働が安定しており、安心して働ける現場でございます。

面談1回

【Python/リモート】バックエンド・データエンジニア募集のフリーランス求人・案件

110~120万円/月額
業務委託(フリーランス)
品川駅

案件の内容

大手飲食業のお客様に向けたデータ支援をいただきます。 原価や売上などの情報を利用し、データパイプラインの開発等を担当いただきます。 現場内にてデータエンジニアとして業務ご支援をいただきます。 ※データサイエンティスト/アナリストではなくデータエンジニアの募集となります 開発環境: Python, Java,EMR, Spark, PySpark Redshift, BigQuery,AWS Glue MySQL, PostgreSQL

求めるスキル

・AWSを利用したDWH、ETLの開発実務経験1年以上 ・Glueとredshiftの利用経験 ・要件定義、基本設計、詳細設計の経験

案件担当のコメント

稼働が安定しており、安心して働ける現場でございます。

面談1回

【Scala,Python/リモート】バックエンド・求人システムのバックエンドエンジニア募集のフリーランス求人・案件

70~80万円/月額
業務委託(フリーランス)

案件の内容

プロダクトオーナーやデザイナー、フロントエンドエンジニアと密に連携しながら、要件定義、設計、開発、運用まで、一気通貫で実施します。 また機能開発だけでなく、リファクタリングや依存ライブラリの更新、パフォーマンス改善等の様々な保守運用開発も実施します。 開発環境: サーバーサイド:Scala, Play Framework, ZIO, Spark, Flink プロビジョニング:Terraform, Ansible フロントエンド:JS, TypeScript, Vue.js 監視:DataDog, Kibana クラウドサービス:AWS, GCP 分析基盤:fluentd, BigQuery, Athena, Google Data Studio, Redash AWS:ECS, Fargate, Kinesis Data Stream, Lambda, EMR, RDS, Aurora, S3, CloudFront, ElastiCache 開発ツール:Github, Slack, Intellij IDEA, Jenkins, JIRA, SlackBot 仮想化基盤:Docker その他使用言語:Python, Go ミドルウェア:Elasticsearch, nginx, MySQL, ClickHouse

求めるスキル

・Scala によるアプリケーション開発の実務経験(1年以上) ・スクラム開発の実務経験(1年以上)

案件担当のコメント

稼働が安定しており、安心して働ける現場でございます。

面談1回

【Azure/リモート】インフラ・Azure構築案件のフリーランス求人・案件

120~130万円/月額
業務委託(フリーランス)

案件の内容

在庫管理等の分散処理システムをHadoop on Sparkで組んでおり DMCから逆輸入による導入を実施。

求めるスキル

・Terraform、Ansible使用経験 ・Hadoopの知見/知識/経験 ・クラウドの知見/知識/経験 ・アーキテクト能力 ・システムを俯瞰してみる能力 ・テックリード能力

面談1回

【AWS/フルリモート(新浦安)】ライブ配信サービスのインフラエンジニア募集のフリーランス求人・案件

60~80万円/月額
業務委託(フリーランス)

案件の内容

【仕事内容】 Q&Aに特化したライブ配信アプリを開発しております。 インフラエンジニアとしてアプリの開発に加わっていただけるメンバーを募集しております。具体的にはライブ配信アプリのインフラ環境の設計、構築、運用をお任せします。 ■チーム体制 ・PdM:1名 ・バックエンドエンジニア:2名 ・モバイルエンジニア:3名 ・プロダクトデザイナー:1名 ■環境 • 分散DB(Cloud Spanner) • 言語:Go言語 • 通信 :connect-go proto • コンピューティング:Kubernetes → Cloud Run • DWH・パイプライン構築 ◦ BigQuery ◦ Apache Spark ■働き方 フルリモート 週1回(月or金)出社頂ける方が理想です。 外国籍:不可

求めるスキル

・AWSやGCPなどのクラウド環境を使ったアーキテクチャ設計、インフラ設計、アプリケーション設計、運用(実務経験2年以上) ・工程一連の実務経験をお持ちであること ・L2/L3の基本的なネットワーク理解 ・HTTPS, DNSなどの基本的なプロトコル理解 ・Gitによるコード管理の経験

案件担当のコメント

稼働が安定しており、安心して働ける現場でございます。

面談1回

【Python/リモート】バックエンド・データエンジニア募集のフリーランス求人・案件

110~120万円/月額
業務委託(フリーランス)
品川駅

案件の内容

大手飲食業のお客様に向けたデータ支援をいただきます。 原価や売上などの情報を利用し、データパイプラインの開発等を担当いただきます。 現場内にてデータエンジニアとして業務ご支援をいただきます。 ※データサイエンティスト/アナリストではなくデータエンジニアの募集となります 開発環境: Python, Java,EMR, Spark, PySpark Redshift, BigQuery,AWS Glue MySQL, PostgreSQL

求めるスキル

・AWSを利用したDWH、ETLの開発実務経験1年以上 ・Glueとredshiftの利用経験 ・要件定義、基本設計、詳細設計の経験

案件担当のコメント

稼働が安定しており、安心して働ける現場でございます。

1 - 30/件 全6件

Sparkのフリーランス求人・案件について

Sparkエンジニアのフリーランス求人・案件ページです。フリーランスエンジニア向け求人・案件サイト 1on1Freelanceでは、Sparkエンジニアのフリーランス求人・案件を多数掲載中。言語や単価など様々な条件から求人・案件情報を検索できます。