並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 5 件 / 5件

新着順 人気順

評価の検索結果1 - 5 件 / 5件

  • 目標設定の基本

    NTT Com Open TechLunch #7「エンジニアリングマネージャー と 目標設定」の登壇資料です。20分くらいの短いセッションなので網羅的ではありません 2. 吉羽龍太郎 / Yoshiba Ryutaro アジャイル開発、DevOps、クラウドコンピューティング、インフラ構築自 動化、、組織改革を中心にオンサイトでのコンサルティングとトレーニン グを提供。Scrum Alliance認定スクラムトレーナー(Regional, CST-R) チームコーチ(CTC) / 認定スクラムプロフェショナル(CSP) / 認定スク ラムマスター(CSM) / 認定スクラムプロダクトオーナー(CSPO) 2

      目標設定の基本
    • なぜ我々は GitHub Copilot Enterprise の導入を見送ったのか - 一休.com Developers Blog

      CTO 室の恩田です。 今回は GitHub Copilot Enterprise を評価してみて、現時点ではまだ採用しないことを決めた、というお話をご紹介したいと思います。 きっかけ とあるエンジニアが Slack で自身の times チャネルに時雨堂さんの GitHub Copilot Enterprise のススメという記事を投稿したことが発端でした。特に感想はなく URL に 👀 だけが添えられていたので、後で見るぐらいのメモだったんだと思います。 それを見かけた別のエンジニアが技術雑談チャネルにその投稿を共有して、これは凄そうと話題を向けたところ、CTO の「評価してみる?」の一言で、有志が集って評価プロジェクトが始まりました。 雑談チャネルできっかけとなる投稿が共有されてから、30分足らずの出来事でした(笑)。 この話題が出たのは金曜日でしたが、週明け早々に稟議を終え、火曜

        なぜ我々は GitHub Copilot Enterprise の導入を見送ったのか - 一休.com Developers Blog
      • どう考えてもC評価の部下に、Bをつける上司の心のうち カゴメ・有沢正人氏が行った、公正に差をつけるための評価制度

        本イベントでは、人事・労務担当者がおさえておくべき2024年の法改正の概要とその裏側を読み解いていきました。カゴメ株式会社 常務執行役員/カゴメアクシス株式会社 代表取締役社長 兼 経営管理部長の有沢正人氏とKKM法律事務所代表の倉重公太朗氏が登壇し、法改正の裏側や今後の人事課題について議論が交わされました。本記事では、カゴメで実施されているジョブ型雇用についてお話しされた内容をお届けします。 カゴメ・有沢正人氏が語る、雇用や働き方の変化 倉重公太朗氏(以下、倉重):ではここからは対談コーナーということで、カゴメの有沢さんに来ていただいております。(有沢さんは)大人気ですけど。 有沢正人氏(以下、有沢):いやいや。 倉重:自己紹介をお願いしてもいいでしょうか。 有沢:よろしくお願いします。私は今のカゴメが4社目で、もともとは銀行員でした。銀行では公的資金をいただき国有化されまして、みなさん

          どう考えてもC評価の部下に、Bをつける上司の心のうち カゴメ・有沢正人氏が行った、公正に差をつけるための評価制度
        • 今年「部門」を廃止、小学館漫画賞を通して考える「マンガ賞」の現在とこれから

          今年「部門」を廃止、小学館漫画賞を通して考える「マンガ賞」の現在とこれから 審査員の島本和彦&ブルボン小林にも話を聞いた 2024年4月16日 18:00 121 44 マンガ大国・日本。「手塚治虫文化賞」「講談社漫画賞」「マンガ大賞」「次にくるマンガ大賞」……プロのマンガ家による作品を表彰するマンガ賞が、日本にはいくつもある。そんな名だたるマンガ賞の中でも、69年というひと際長い歴史を持つのが小学館漫画賞だ。第69回となる今年度は山田鐘人原作・アベツカサ作画「葬送のフリーレン」、松井優征「逃げ上手の若君」、絹田村子「数字であそぼ。」、稲垣理一郎原作・池上遼一作画「トリリオンゲーム」の4作品が受賞した。3月に開催された贈呈式では、参列者も聞いていて思わず笑みがこぼれるような、受賞者・審査員の“マンガ愛”が弾けるスピーチの数々が披露された(参照:やっぱり私はマンガが大好き!受賞者・審査員の思

            今年「部門」を廃止、小学館漫画賞を通して考える「マンガ賞」の現在とこれから
          • LLMによるLLMの評価とその評価の評価について

            LLMをプロダクトに活用していく上でプロンプトの出力結果を評価していかなければいけない訳ですが、可能な限り自動で定量評価できると改善もしていきやすくなり大変助かります。 そこで所謂LLM-as-a-Judgeと呼ばれるLLMに評価してもらう手法を取るわけですが、やはり「このスコアはどれくらい信じられるのか...?」という疑問が湧いてきて"評価の評価"がしたくなってきます。 というところで、本記事では使いそうなLLM-as-a-Judgeの手法について調べた後、"評価の評価"の仕方を調べてみた結果をまとめていきます。 LLM-as-a-Judgeの手法 まず初めに、LLM-as-a-Judgeにも様々な手法が存在するので、それらを確認していきます。 スコアベース 一番ベーシックなものはスコアをつけてもらうやり方です。 次のように実際のインプット、それに対するLLMの回答をプロンプトに加えて、

              LLMによるLLMの評価とその評価の評価について
            1