絞り込み
スキル
ランク
認証状況
稼働状況
都道府県
52 人のフリーランスが見つかりました (0.02 秒)
ずんだもんやゆっくり実況系の台本制作承ります!45本以上の制作実績や5万回以上再生が回った動画あり
社会人歴8年目のリュウと申します。 WEB制作会社、ベンチャー系の経営コンサルティング会社を経て 現在は製造メーカーでDX推進を行っております。 パッケージだけではなく、クライアント様に合わせて お値段や業務内容は対応いたしますので、お気軽にご相談くださいませ。 ◆経歴 【WEB制作会社(2018-2020)】 職種:WEB編集 主な業務:WEBサイトの制作進行管理や文章作成・校正、インタビューや写真撮影 獲得スキル:写真撮影、文章作成・校正 【ベンチャー系経営コンサルティング会社(2020-2023)】 職種:コンサルタント/データ分析アシスタント 主な業務:大企業様に常駐し、データ分析・日次や月次の資料作成・業務効率化 獲得スキル:パワポによる資料作成、VBAやマクロ開発、Wordpressによるサイト制作・修正 【製造メーカー(2023-現在)】 職種:DX推進/データエンジニア/データサイエンティスト 主な業務:データ基盤構築、ダッシュボード作成、業務効率化 獲得スキル:Tableauの操作支援やダッシュボード作成、GASの作成 ◆稼働時間 週20時間程度 平日の19時以降で2~3時間程度 土日は全日稼働可能です ◆資格 ・ITパスポート ・ネットマーケティング検定 ◆可能な業務/スキル ・Tableauの操作支援やダッシュボード作成 ・ずんだもん、ゆっくり実況系の台本制作 ・写真撮影 ・パワポによる資料作成 ・GASの作成 ・文章作成や文章校正 ・VBAやマクロ開発 ・Wordpressによるサイト制作、修正等
データの収集/自動化/分析を任せてください!
はじめまして。データ自動化・スクレイピングを得意としているフリーランスエンジニアです。 データアナリスト・データエンジニアの経験を活かします。 Pythonを使ったWebスクレイピングや業務効率化ツールの開発を中心に活動しています。 【提供できるサービス】 - ECサイトや求人サイトからのデータ収集(価格調査、商品リスト、求人情報 など) - 定期的なデータ自動取得ツールの作成 - 収集データをExcel / CSV形式に整形して納品 - 簡単に使えるスクリプト・ツールの提供 【強み】 - 正確でスピーディーなデータ収集 - わかりやすい成果物(Excel/CSV形式での納品) - 業務効率化につながる自動化の提案 - 小規模案件から継続案件まで柔軟に対応 「大量の情報を手作業でまとめるのに時間がかかっている」 「競合サイトの価格を定期的にチェックしたい」 「日常業務を少しでも自動化したい」 そんなお悩みを解決できるよう、丁寧かつ迅速に対応いたします。 まずはお気軽にご相談ください。よろしくお願いいたします!
エンジニア出身のデータサイエンティスト!分析からモデル構築、開発まで承ります。
データサイエンティスト歴8年目、様々な外注案件で働いています。
Pythonを使用したデータ解析、AIには自信があります。
大学院で医療AIの研究をしています。 Python:5年 MATLAB:5年 深層学習フレームワークは主にPytorch、Tensorflowですが、業務に合わせて変更可能です。
大手素材メーカーで7年間、課題解決の実績を積んだデータサイエンティスト
Python歴4年
バックエンド中心で開発を行ってきました
上場企業含めて2社で合計4年以上エンジニアとして勤務してきました。 1社目はLINEの業務ツール作成をしてきていましたので、LINE関連の仕事であれば一定は回答ができると思います。 2社目では会計を中心とした、バックオフィス向けツール開発に従事していたため会計周りの知識も一定あります。 エンジニアとしての経歴は以下の通りです。 経歴としてはAWSでの開発がメインです。GCPなども対応可能です。 AWSでの主な使用サービスとして、 Lambda Glue SageMaker DynamoDB StepFunctions Athena などのサーバレス分析サービスがあります。 学生時代はAIの研究をしてきており、AIについてはKaggleなどのAIコンペに出て数100人中11位など一定のスキルがあります。 LLMのような最新ツールでも、SlackBotの形式で数日でPoCを作ってきた実績もあります(Slack SDKとLangChainの組み合わせ)。 可能な業務 - Webサイトのスクレイピング - LINEの自動配信 - バックエンドのシステム開発 - AWS構成のレビュー ※守秘義務の都合上、記載できない実績もございます。 個別にはお話できるものもございますので、ご興味を持っていただけましたらお気軽にご連絡ください。 活動時間 日中であれば柔軟に対応いたします。急ぎの場合でもお気軽にご相談ください。 リモートでの対応がメインとなります。名古屋であればお伺いも可能ですので一報くださればお伺いいたします。 ご興味持っていただけましたら、メッセージでお気軽にお声がけください。 どうぞよろしくお願いいたします!
シリコンバレーエンジニアに育てられたエンジニア
・普段の業務内容と経験 本業では都内のヘルスケア系のスタートアップのR&Dでデータ分析や機械学習アルゴリズムの開発を行っています.R&Dと言ってもスタートアップのR&Dですので開発したアルゴリズムの実装のためにフロントでReactを触ったり,バックエンドの調整や運用などもしているので幅広くなんでも触れます. また,副業で,大学時代に交流のあった会社や行政からウェブアプリやFlutterでのアプリケーション開発を依頼されたこともあります. □キャッチフレーズに関して キャッチフレーズの「シリコンバレーエンジニアに育てられたエンジニア」ですが,学生時代に,make schoolのサマーキャンプに参加していました. その際に,知り合ったシリコンバレー在住のエンジニア(日本人)が主催するプログラミングスクールで講師補助のバイトをしており,様々なご指導をいただいたこともありキャッチフレーズとして使わせていただきました. ※make schoolは。スタートアップで求められるプロダクト開発ができる人材の育成を目的としているシリコンバレー発のプログラミングスクールです. □可能な言語と環境 言語:AI系(NLP)8年,Python 8年,Rails 4年,React 4年,Flutter 1年 バックエンド:AWS 8年,GCP8年,Firebase 4年,Azure 2年 バックエンドに関してですが,基本的にWebや機械学習系の立ち上げがメインです.Iotなどの込み入ったものでも対応は可能ですのでぜひお声がけしていただけますと幸いです. そのほかネイティブアプリの開発も可能です. □業務可能な時間について 本業は裁量労働制ですので,日中の打ち合わせ等にも対応することが可能です.比較的時間が自由に使えますのでお声がけ待っています. また,メールやslackの返信も比較的早い方(忙しくない限り30分以内くらい)かと思いいます. □実績例 ・行政向け観光スタンプラリーアプリ(React・Flutter,Firebase,GCP) ・社内向けアプリケーション(React・Firebase,ElasticSearch,GCP) ・教育効果及びマーケティングデータ分析(BigQuery,GCP) ご興味持っていただけましたら,メッセージでお気軽にお声がけください. どうぞよろしくお願いいたします.
- スクレイピング・データ分析・業務効率化が得意なデータサイエンティスト -
アクセスありがとうございます。 Yuuuuu000と申します。 【2025/06/07】 これまで別のクラウドソーシングサービスをメインで利用しておりましたが、 パッケージ出品のため、こちらでも活動してまいります。 みなさまのお役に立てればと思います。 【経歴】 銀行(融資・営業)→大手通信事業者会社(データサイエンティスト)→個人事業主 【スキル】 ・機械学習データ分析/予測、データ収集/レポーティング ・SEOライティング(IT、生成AI、データサイエンス、金融、暗号資産) ・Webスクレイピング ・Python、R、SQL、PySpark、PostgreSQL ・GitHub、GitLab、AWS(EC2、S3、EKS、EMR、RedShift)、GCP(BigQuery、BigQuery ML、ComputeEngine、AI Platform)、Docker、JupyterLab、JupyterNotebook、GoogleColaboratory、Tableau ・テキスト生成AI(ChatGPT Pro、Gemini Advanced、Claude Pro、Perplexity、Felo、DeepSeek、Kimiなど) ・画像生成AI(Stable Diffusion、Midjourney、DALL-E、imageFX、ChatGPT-4oなど) ・動画生成AI(Sora、KLING、Lumaなど) ・AIエージェント(Codex、manus、ChatGPT Operator、Browser use) ・基本情報技術者試験 ・生成AIパスポート試験 ・一種外務員資格 ・日商簿記検定2級 ・銀行業務検定2級各種 ・統計検定2級 ・実用英検2級 よろしくお願いいたします。
データアナリストとして20年、DX推進担当者として5年。データの活用方法の提案はお任せ下さい
データ分析・DX推進のスペシャリストです。 データ分析歴 20年以上、統計解析・予測分析・データ可視化を強みとしています。 直近では、DX推進・機械学習にも取り組み、経済産業省のDX推進プログラムで「総合優秀賞」を何度も獲得、企業のDX課題解決を多数支援するなど実績を挙げています。PythonやBIツールを活用し、データ活用による業務改善・意思決定支援に貢献いたします。 ▼ 可能な業務/スキル データ分析・統計解析(Python, SQL, Tableau, Power BI) 機械学習/AIモデル開発(回帰分析、分類、クラスタリング、ディープラーニング、画像認識、物体検出、自然言語処理) データ可視化・レポート作成(ダッシュボード開発、KPI設計) DX推進コンサルティング(業務デジタル化、データ戦略提案) 環境データ解析(公害防止、環境モニタリングデータの解析) ▼ 資格 技術士(環境部門、総合監理部門) 基本情報技術者 / 応用情報技術者 プロジェクトマネージャ データサイエンティスト検定(DS検定)リテラシーレベル JDLA-G検定 ▼ 実績例 製造業向けDX支援:図面データからの自動見積もりシステム開発 小売業の人事DX:従業員データ解析用のBIツール導入 製造業DX:業務効率化のためのBIツール導入、基幹システム、バックオフィスシステム導入支援 受注・売上の確認/予測ダッシュボード:BIツールを用いたリアルタイム分析基盤の構築 自然言語処理を用いた引き合い情報の解析:問い合わせデータを解析し、トレンドや商談成立の可能性を予測 SAS Hackathon 2023参加:データ可視化担当 Rising未来のデータサイエンスコンテスト:データサイエンス部門「最優秀賞」受賞 ▼ 活動時間/連絡について 現在分析会社勤務中のため、基本的には土日と平日の夜間のみの対応となります。 ▼ 得意/好きなこと データを活用した問題解決 DX推進・業務改善の提案 BIツールを活用したデータ可視化 環境・社会課題のデータ分析 ご興味を持っていただけましたら、メッセージでお気軽にお声がけください! どうぞよろしくお願いいたします。
一部上場企業で自社グループ全体に向けたデータサイエンス業務に5年以上従事しています。
データサイエンティスト歴5年。 ETLや可視化分析を中心に,データ分析による業務支援を行ってきました。 現在は生成AIを用いた社内向けAIアシスタントの開発・運用をしております。 顧客のDX課題を丁寧に探り,データ収集から加工,可視化,分析までを支援しております。 ▽実績 ・Tableauを使ったダッシュボード作成,ETL ・Pentahoを用いたETL ・KNIMEを用いたETL,データ分析 ・Automation Anywhereを用いたRPAの設計,実装 ・EXCEL VBAを用いたデータ処理,分析 ・Azureを用いたAIアシスタントの開発・運用 ・Pythonを用いたAIアシスタントの実装 ・Power Automateを用いたRPAの実装 ▽活動時間/連絡について 20:00〜23:00 上記時間以外でも,ご相談いただければ調整させていただきます。 お気軽にお声がけいただけますと幸いです。
化学系製造メーカーでデータ加工の自動化処理の構築を含むデータサイエンティストとして勤務
プロフィールをご覧いただき、ありがとうございます。 以下に経歴や可能な業務などを記載しておりますので、ご覧ください。 【経歴】 ・大学では工学系を専攻 ・化学製造メーカーにて製品の研究・開発に従事 ・社内業務として、Pythonを用いた自動化アプリケーション開発やデータ処理業務を担当 ・現在、副業としてITエンジニア業務にもチャレンジ中 【スキル】 ・ Python: 5年 ・ Django: 2年 ・ HTML/CSS : 2年 ・ JavaScript : 2年 ・ React/Next.js : 現在勉強中 ・ 統計検定3級 【現職での実施業務】 ・Pythonを用いたデータ処理・自動化ツール開発 ・Jupyter上でのデータ分析・機械学習 ・BeautifulSoup/Seleniumを用いたスクレイピングプログラムの作成 ・DjangoでのWebアプリケーションの開発(小規模・社内ツール向け案件が中心) 【業務について】 ・副業として週10~15時間の勤務が可能です ・オンラインMTG対応可能、必要に応じて土日も業務実施可能です ・納期を厳守し、丁寧かつ迅速な応答を心がけます
データサイエンス学部に通う大学生
大学ではPythonを用いた機械学習を学び、Pandas、NumPy、Scikit-learn、TensorFlowなどのライブラリを活用し、データ処理や可視化からモデル構築・評価まで実践しています。また、学祭ではSNS運用を担当し、投稿内容の企画・作成・分析を通じて、来場者数の増加に貢献しました。 企業では、不動産会社でのエンジニア経験やコンサルティング会社での海外インターン経験があり、多様な業務に携わりました。さらに、ビジネスフォーラムでは動画・画像編集や資料作成を担当し、イベントプロモーションを成功に導いた実績があります。営業活動では、新規顧客の開拓や契約獲得を行い、顧客ニーズを的確に捉えた柔軟な対応力を磨いてきました。 技術力とコミュニケーション力を活かし、幅広い業務に対応可能です。データ分析やクリエイティブ制作から営業まで、成果を追求しながら柔軟に取り組みます。 ▼可能な業務/スキル Pythonを用いたデータ分析 動画編集/画像編集 営業 ▼実績例 回帰分析を用いた予測モデルの構築(大学プロジェクト) 学祭におけるSNS運用(投稿内容の企画・作成・分析を担当) ビジネスフォーラムでの動画/画像編集(イベントプロモーション用) 営業活動における新規顧客開拓および契約獲得 ※守秘義務の都合上、詳細な実績は記載を控えておりますが、個別でお話しできる内容もございます。 ▼活動時間/連絡について 柔軟に対応可能です。急ぎの案件や調整が必要なタスクについてもお気軽にご相談ください。 ▼得意/好きなこと データ分析を通じて課題を解決すること クリエイティブな制作活動(動画・画像編集) 顧客とのコミュニケーション 20カ国以上を旅した経験から海外旅行が好きです 小中高と野球に打ち込み、現在も野球観戦を楽しんでいます ご興味を持っていただけましたら、ぜひメッセージでお気軽にお声がけください。どうぞよろしくお願いいたします!
データの魔術師
・運営サービスや業務内容 ・依頼を検討していること
アカデミア、メーカー、総コンにてデータサイエンス分野でバリューを出してきたプロフェッショナル
【概要】 NAISTにて医療分野における画像認識アルゴリズムの研究で修士号を修める。その後、総合メーカーにてAIエンジニア、BIG4にてデータサイエンティストやコンサルタントを経験。現在は事業会社にてデータ利活用に関する事業開発に取り組む。 【スキル】 Python:8年 C++:1.5年 C#:0.5年 R:0.5年 git:4年 docker:7年 Excel:1年 特に機械学習(scikit-learn)や深層学習(TensorFlow, PyTorch)などの開発経験があります。データ分析(pandas, statmodels, stan)も幅広く経験があります。 他、スクレイピングや簡単なGUIアプリ開発など業務効率化ツール開発の経験があります。 コンサルタントとして従事していた際にはExcelを用いたデータ分析も経験しております。 【実務経験】 ・カメラ画像を用いた画像認識アルゴリズム開発(分類・セグメンテーション・姿勢推定・ルールベース) ・機械学習/統計モデリングを用いた工場データ分析 ・データ分析による意思決定支援
クラウド × データ × 自動化、全部やります。
システム/データエンジニア歴約10年、GCPを用いたデータ基盤構築やETLパイプラインの設計・運用、効果検証レポートの自動化等を経験しました。要件整理から実装、運用まで一貫して対応可能です。ご相談ください。
新着のランサー
サーバ・インフラエンジニア
その他プログラマ・エンジニア
デスクトップアプリエンジニア
スマホアプリエンジニア