タグ

Kaggleに関するmisshikiのブックマーク (251)

  • モデルの気持ちになって情報を与えよう

    これは Kaggle Advent Calendar 2023 12/10 の記事です。 ディープラーニングでは何を考えたらいいのか?「モデルの気持ち」などと言いますが、もっと具体的にどういうことなのか?私も素人でわからないのですが、今年参加したコンペで読んだ solution を題材に「情報を与える」という観点からモデルの気持ちを推測してみます。 「それ、俺も書いたが?」みたいなのはたくさんあるかと思いますが advent calendar ゆえどうかご容赦を。記憶をたよりに雑に書いて調べ直していません。 Classification の根拠を segmentation で与えるG2Net 2 Detecting Continuous Gravitational Waves はノイズに埋もれたデータに重力波の信号が含まれているかを判定する二項分類のコンペでした。入力は spectrogr

    misshiki
    misshiki 2023/12/11
    “今年参加したコンペで読んだ solution を題材に「情報を与える」という観点からモデルの気持ちを推測してみます。”
  • 【Kaggle AdC '23】米国の大学・企業でのKaggle実績の受け取られ方雑感 - tkm2261's blog

    お久しぶりです。tkmです! Kaggle AdC '23の6日目として「米国の大学・企業でのKaggle実績の受け取られ方雑感」についてつらつらと書いて行きたいと思います。 qiita.com 昨年Kaggledays Championship at Barcelonaでの優勝から、Kaggleとは少し離れてしまっていますが枠が空いているということで技術的ではないポエムですが投稿します! 注意:これは私が体験した極めて主観的な感想であり一般化して受け取るのは危険です。 TL;DR 実績にそれほど効果はないが、獲得賞金を交えて話すとたまに効く。 正直、実績にそれほど効果はないしGMだからってそれで超すごい!みたいになることはない。 こっちの大学でも機械学習の授業でKaggleは一応習うが特にガチる人は見たことないし、教授としてもコンペと研究は違うと認識しているのでKaggleの実績単体で超

    【Kaggle AdC '23】米国の大学・企業でのKaggle実績の受け取られ方雑感 - tkm2261's blog
    misshiki
    misshiki 2023/12/07
    “TL;DR 実績にそれほど効果はないが、獲得賞金を交えて話すとたまに効く。”
  • kaggle LLM コンペ 上位解法を自分なりにまとめてみた話|Japan Digital Design, Inc.

    お久しぶりです、三菱UFJフィナンシャル・グループ(以下MUFG)の戦略子会社であるJapan Digital Design(以下JDD)でMUFG AI Studio(以下M-AIS)に所属する蕭喬仁です。 厨二心をくすぐる名前でadvent calendarに登録していますが、もう直ぐ三十路ということでアカウント名の替え時が最近の悩みです。 さて、今年はOpenAIからリリースされたChatGPTを皮切りに生成AIが世間のトレンドとなっていますが、弊社でも「文章生成AIによる過去相場要約機能」の提供のような生成AIを用いたプロダクト開発やR&Dを進めています。中でも、検索を用いて外部知識を生成AIに埋め込むことでタスクの性能を高めるRetrieval-augmented Generation (以下RAG)は、大量の業務資料やマニュアルを保持するMUFGのような大企業にとっては非常に相

    kaggle LLM コンペ 上位解法を自分なりにまとめてみた話|Japan Digital Design, Inc.
    misshiki
    misshiki 2023/12/05
    “kaggleではLLM Science Exam というRAGがテーマになっていたコンペティションが6月から10月に開催されました。”
  • 初心者でも大丈夫!GitHub Copilot Chatで始めるKaggle画像系コンペ - Qiita

    この記事は Safie Engineers' Blog! Advent Calendar 2023 の3日目の記事です! はじめに セーフィー株式会社 で画像認識AIの開発エンジニアをしている水野です。2023年10月1日付で現職にジョインしたのですが、業で語れるネタがまだ無いので趣味でたまに参加している Kaggle と流行りの生成AIを絡めた記事を投稿します。KaggleについてはKaggle Competitions Masterのランクを保持していますので、コンペに関する知見も織り交ぜながらお話しできればと思います。 早速ですが、このような悩みをお持ちの方はいないでしょうか? Kaggleに登録し、定番のタイタニックコンペを終えて、次は画像系コンペに参加してみたいが、どのように進めたらいいのか分からない 公開Notebookをベースラインとして作業をしているが、コードの意味が理解

    初心者でも大丈夫!GitHub Copilot Chatで始めるKaggle画像系コンペ - Qiita
  • Kaggle Tokyo Meetup 2023 参加記 - 俵言

    この記事は Kaggle Advent Calendar 2023 の2日目の記事です。 帰ってきた!Kaggle Tokyo Meetup! connpass.com コロナ禍で2019年以来開催できなかった Kaggle Tokyo Meetup が約4年半ぶりに開催されました!この間に幾人もの方が Kaggle を始め、あるいは Kaggle を去り、また幾人もの方が tier を上げたことでしょう。 (僕は Master にはなれたものの未だに GM になれず...*1 ) 2か月前に行われた関東Kaggler会と同様に当に久々に行われたオンサイトイベントであり、幸運にも参加することができました。非常に楽しくまた学びのある機会だったので、振り返りも兼ねて参加記(という名の感想)を書こうと思います。 因みに会場は奇しくも4年前に Kaggle Days Tokyo が行われたのと同

    Kaggle Tokyo Meetup 2023 参加記 - 俵言
  • 最近のMetric Learningの始め方(コンペを見据えて) - Qiita

    Kaggle Advent Calendar 3日目の記事です。 今回はKaggleなどのコンペで Metric Learning を試すときにとりあえず最初に実装するコードをまとめました。 UMAPを使ったembeddingの可視化とか faiss を使った検索とかはこの記事で扱ってないです。 1. Metric Learning って何? 予測値じゃなくて特徴量間の距離に注目して学習する方法 同じクラス内ではなるべく近い距離になるように 違うクラス間ではなるべく遠い距離になるように もっと詳しくしたい人は Qiita 内でもいい記事たくさんあるのでどうぞ。 モダンな深層距離学習 (deep metric learning) 手法: SphereFace, CosFace, ArcFace #DeepLearning - Qiita Softmax関数をベースにした Deep Metri

    最近のMetric Learningの始め方(コンペを見据えて) - Qiita
    misshiki
    misshiki 2023/12/04
    “Kaggleなどのコンペで Metric Learning を試すときにとりあえず最初に実装するコードをまとめました。 UMAPを使ったembeddingの可視化とか faiss を使った検索とかはこの記事で扱ってないです。”
  • Kaggle_LLMコンペの攻略法を解説.pdf

    Cheating the UX When There Is Nothing More to Optimize - PixelPioneers

    Kaggle_LLMコンペの攻略法を解説.pdf
    misshiki
    misshiki 2023/12/01
    全43ページのスライド資料。
  • Kaggleで銅・銀・金メダルを取るプロセス|カレーちゃん

    Kaggleで銅メダル、銀メダル、金メダルを取るプロセスの違いや、具体的に何をすべきかについて質問がありました。 Twitterで回答を募集したところ、次の回答をもらいました。 過去に似たコンペ2,3コンペ漁って1~10位までの解法に目を通しつつ、現コンペのディスカッションを全部追って効くものを試すと銀メダルは取れるという肌感覚 https://t.co/si4GwbM4wD — 杏仁まぜそば (@an_nindouph) November 17, 2023 自分もこれと同じ感覚です。以下、少し説明します。 銀メダルを取るために必要なもの 銀メダルを獲得するために必要だと思ったのが、次の3つです。 最低限のデータ分析コンペの実力 データ分析について、最低限のみんなが知っていることを知っておくことが必要と言えます。「Kaggleで勝つデータ分析技術」の知識があれば、十分に戦えると思います。

    Kaggleで銅・銀・金メダルを取るプロセス|カレーちゃん
  • ISUCON13にLLM活用担当で参戦しました - LayerX エンジニアブログ

    こんにちは、LayerX CTOの@y_matsuwitterです。最近はパン作りにハマっています。無心に小麦と酵母の声を聞くことで精神の安寧を求めています。 この記事は LayerXテックアドカレ2023 19日目の記事です。前回は @shota_tech が「Golinter 雰囲気で使っていたから調べ直した #LayerXテックアドカレ」を書いてくれました。次回はEMオフィスの@serimaより「Engineering Officeの話」がポストされる予定なのでご期待ください。 ISUCON13 昨日開催のISUCONに参加してきました。とても楽しい問題ですし、これだけの人数での開催を支えている運営の皆さんには頭が上がりません。個人でもLayerXとしてもスポンサーさせていただきました。ありがとうございます! 10年近く一緒に出場している.datというチームで、私はプロンプトを

    ISUCON13にLLM活用担当で参戦しました - LayerX エンジニアブログ
    misshiki
    misshiki 2023/11/27
    “ISUCON”
  • 優秀なエンジニアをどう集めるべきか?日本で最も多くの「Kaggle Grandmaster」を抱えるRistの担当者に聞いた、エンジニアの採用と育成のヒント|@DIME アットダイム

    さまざまな業界でIT化やDX推進が叫ばれる中、企業にとって優秀なエンジニアの採用と育成は不可欠だ。しかし激化する人材獲得競争の中でも特に市場価値の高いIT人材を採用することは容易ではない。引く手数多のエンジニア転職もしやすく、採用後の定着率に頭を悩ませる人事担当者も多い。そんな中、株式会社Ristには世界最大級のデータサイエンティストコミュニティ「Kaggle(カグル)」で最上位の称号「Grandmaster(グランドマスター)」を持つエンジニアが日で最も多く所属している。優秀なエンジニアを採用し、育成する方法について、株式会社Rist代表取締役副社長の長野慶氏に話を聞いた。 世界最大級のデータサイエンティストコミュニティ「Kaggle」 Kaggleとは、全世界で1500万人以上が参加する、データサイエンティストのコミュニティだ。最大の特徴は「Competition(コンペ)」と呼ば

    優秀なエンジニアをどう集めるべきか?日本で最も多くの「Kaggle Grandmaster」を抱えるRistの担当者に聞いた、エンジニアの採用と育成のヒント|@DIME アットダイム
  • Colaboratory on X: "You can now safely store your private keys, such as your @huggingface or @kaggle API tokens, in Colab! Values stored in Secrets are private, visible only to you and the notebooks you select. https://t.co/dz9noetUAL"

    misshiki
    misshiki 2023/11/02
    “huggingfaceやkaggleのAPI トークンなどの秘密キーを Colab に安全に保存できるようになりました。 Secret に保存された値は非公開であり、あなたとあなたが選択したノートブックのみに表示されます。” 良い。少し楽になる。
  • Kaggleで世界トップレベルになるための思考法。Grandmaster小野寺和樹の頭の中 - Findy Engineer Lab - ファインディエンジニアラボ

    Kaggleとは、世界最大級の機械学習およびデータ分析のコンペティションです。コンペの主催企業や研究機関などがデータや分析のテーマを提供。その内容に基づいて世界中の参加者たちが機械学習モデルの精度を競います。 Kaggleにおけるランクの最高峰がGrandmasterであり、ゴールドメダル5枚とソロゴールドメダル(個人参加でのゴールドメダル)1枚がランク取得の条件となります。日人でGrandmasterの称号を得ている数少ない方の一人が、NVIDIAの小野寺和樹(@0verfit)さんです。小野寺さんは「Kaggleに参加すること」を同社での仕事にしています。 どうすれば、スキルを向上させKaggleの上位ランクに入賞できるのでしょうか。今回は小野寺さんに、Kaggleに取り組むうえでどのような思考や行動をしているのかについてインタビューしました。 *…インタビューはオンラインで実施しま

    Kaggleで世界トップレベルになるための思考法。Grandmaster小野寺和樹の頭の中 - Findy Engineer Lab - ファインディエンジニアラボ
    misshiki
    misshiki 2023/11/02
    “世の中には「○○の手法を思いついたけれど、やらなかった」人がたくさん。「思いついた」と「思いついて行動した」にはかなりの差があって、その大変さに向き合える人がコンペで上位に入っている気がしますね。”
  • [Product update] TensorFlow Hub is moving to Kaggle Models | Kaggle

    misshiki
    misshiki 2023/10/30
    “TensorFlow Hub は Kaggle Modelsに移行します。11月15日以降、tfhub.dev へのリンクはKaggle Modelsの対応するリンクにリダイレクトされます。”
  • kaggle LLMコンペ 上位解法まとめ

    はじめに 科学分野の5択問題を解くLLMの精度を競うKaggle - LLM Science Exam というkaggleコンペが2023/10/11まで開催されていました。 コンペ終了後に公開された上位チームの解法からたくさん学びがあったので、備忘録も兼ねてまとめていきたいと思います。 コンペ概要 問題文(prompt)とA~Eの選択肢(option)が与えられ、それを解くモデルの精度を競うコンペでした。 テストデータはSTEM分野のWikipedia記事からGPT3.5に作成させたことがDataタブで明言されていました。 上位チーム解法まとめ 1. Approach 全てのチームが、問題の生成元となった記事をwikiテキストデータセットから検索(Retrieval)し、関連するテキスト(context)もモデルに入力するRAGと呼ばれるアプローチを採用していました。 RAGを行わないと

    kaggle LLMコンペ 上位解法まとめ
    misshiki
    misshiki 2023/10/20
    “全てのチームが、問題の生成元となった記事をwikiテキストデータセットから検索(Retrieval)し、関連するテキスト(context)もモデルに入力するRAGと呼ばれるアプローチを採用していました。”
  • コンペ素人でもチームを組めば半年でKaggleとSIGNATEでメダルが取れた話 - Qiita

    はじめに 10月からprimeNumberにジョインしましたwakama1994です。 今回は私が転職活動と並行して行ったデータコンペの参加について書きます。コンペ参加は敷居が高いと感じてましたが、チームを組むことで敷居が下がり、メンバーからも学べることも多く、今後も継続してコンペに出たいと思えるようになりました。 データコンペをこれから始めたい方に向けて「チームで参加したら参加ハードルも下がって、楽しい!」ことをお伝えできればと思っています。 コンペ出る前の経験値 前職(新卒入社)でも3年ほどデータサイエンスを業務で使用 プログラム上の結果を読み解くのはある程度理解できていたが、その根のモデリングや処理のプロセスについては理解不足 ゆくゆくはモデリングについても理解すべき思ってはいたものの、行動には移せてない状況 なぜコンペに行き着いたのか? 転職活動をやっていく中で、中途で採用される

    コンペ素人でもチームを組めば半年でKaggleとSIGNATEでメダルが取れた話 - Qiita
  • Kaggleのハードルを下げたい! - Qiita

    Image generated by OpenAI's DALL·E-3. はじめに こんにちは! 突然ですが、Kaggleのハードルって高くないですか?特に初見だと、複雑なルールや大量のデータなどに圧倒されてしまう人も多いかもしれませんね。また、全て英語なので非英語話者にとってはそこもハードルを上げる原因になっていると考えられます。実際は慣れれば簡単なことも多いのですが、Kaggle慣れするまでにやや時間がかかるのも事実です。そこで、少しでもKaggleのハードルを下げたいと考えて記事を執筆しました。 対象読者様 この記事は、以下のような方をメインに想定して執筆しました。 AIデータ分析機械学習に興味があって、Kaggleに参加しようと思ったけどハードルが高くて躊躇している方 Kaggleに参加したはいいものの、ドロップアウトしてしまった方 Kaggleのハードルを乗り越えたい方

    Kaggleのハードルを下げたい! - Qiita
  • Kaggleコンペ(LLM Science Exam)の振り返りと上位解法まとめ

    コンペURL どんなコンペ? LLM(ChatGPT)が作った科学・技術・工学・数学分野の問題をKaggle notebookという限られた環境下(主にメモリ13GBと9時間以内に完了)でどのくらいの精度で解けますか?という自然言語処理系のコンペ。 以下に入出力例を示しています。 ・入力 (質問)バタフライエフェクトとは何ですか? (A)バタフライ効果とは、巨大な球体が不安定な平衡点から... (B)バタフライ効果は、古典物理学における必要条件... (C)バタフライ効果は、古典物理学における物理現象の... (D)バタフライ効果とは、巨大な球体が不安定な平衡点から.... (E)バタフライ効果は、物理学における因果関係の概念の適用と.... ・出力 E A B (解答を可能性の高い順番に出力) 評価指標はMAP@3(Mean Average Precision)でした。 ベースライン解法

    Kaggleコンペ(LLM Science Exam)の振り返りと上位解法まとめ
  • AI Report 2023

    Kaggle is the world’s largest data science community with powerful tools and resources to help you achieve your data science goals.

    misshiki
    misshiki 2023/10/16
    20名以上のKaggleコミュニティメンバーが書いたエッセイ集(英語...テキストで提供してくれたら翻訳しやすいのだが...)。
  • プログラミング初心者が1年でKaggle・Signateでメダルを取った話 - Qiita

    0.この記事を読む方へ 初めまして。私の名前は「Kag」です。私はPythonの勉強を開始して一年後にはKaggleとSignateでメダルを取ることが出来ました。この記事は、KaggleやSignateに興味がある人、始めたものの何をすればよいのかわかない人、Pythonの勉強を新たに挑戦したい人を意識した記事です。少しでも多くの人がKaggleやSignateに興味を持って、コンテストをさらに盛り上げることにつながれば望です。 目次 1.プログラミングとの出会い 2.プログラミングへの挑戦のきっかけ 3.初期の挑戦と乗り越えた困難 4.コンテスト初参戦からメダル獲得まで 5.一年間の学び 6.初学者へのアドバイス 7.結び 1.プログラミングとの出会い 初めに私のスペックを紹介します。プログラミング初心者が~~系の記事はたくさんありますよね。初心者といいながらイメージしていた初心者と

    プログラミング初心者が1年でKaggle・Signateでメダルを取った話 - Qiita
  • Llama 2

    misshiki
    misshiki 2023/09/14
    トレーニング済みのモデルを簡単に発見し、利用できるKaggle Mdoelsっで“Llama 2”が使えるようになったとのこと。