白金鉱業.FM

データサイエンスやAI界隈の話題を中心に、BrainPad社のデータサイエンティスト有志メンバーがアツいと感じていることを自由に話すポッドキャスト番組です。

70. LLM回2回目!ChatGPTプラグインとクレームっぽい名前の論文?そして世界中でバズったDrag Your GANなど!

2023年05月29日

MP3ファイルをダウンロード

内容紹介

またまた辻さんと金さんから教わりました!LLM研究プロジェクトの話+最近気になったLLMのトピックについて!

出演者

asano
asano
Hyperion_13
Hyperion_13
kim_junhyeong
kim_junhyeong

感想などは白金鉱業.FMのハッシュタグ #白金鉱業fm につぶやいてもらえるととても喜びます!
匿名でのお便りもgoogle formにてお待ちしております!

目次

※ podcastの各プラットフォームでは下記詳細が見切れることがあります。
 その場合は白金鉱業FMホームページをご参照ください。

00:27~:ブレインパッドの「LLM/Generative AIに関する研究プロジェクト」

06:07〜:ChatGPTのプラグイン

5/12に、有料版の「ChatGPT Plus」ユーザー向けに、Webブラウジング機能とサードパーティプラグインのベータ版が提供開始されました。早速いくつかのプラグインを試した金さんにお話を伺いました。

  • ブラウジング機能 → β版
    • Bing Chat
    • 検索 → クリック → コンテンツを読む
    • 回答のソースがわかるのでより信憑性のある会話ができる
  • Code interpreter → α版

24:00〜:プロンプトエンジニアリングの論文

Plan-and-Solve Prompting: Improving Zero-Shot Chain-of-Thought Reasoning by Large Language Models

  • CoTのようにstep-by-stepで考えるのではなく、一度小さいタスクを洗い出してから順に実行するPlan-and-Solve Promptを提案した論文
  • LLMも計画性がある思考の方が性能が出しやすい模様 https://blog.langchain.dev/plan-and-execute-agents/

30:36〜:Inverse Scaling Law(クレームっぽい名前?)の論文

An Inverse Scaling Law for CLIP Training

  • 従来の認識:画像/テキストエンコーダの規模が大きいほど、トレーニングに必要な画像/テキストトークンのシーケンス長も同様に長くなり、その結果、大規模な計算リソースが必要となると考えられていた
  • 「Inverse Scaling Law」の発見で分かったこと:エンコーダの規模が大きくなるほど、トレーニングに適用できる画像/テキストトークンのシーケンスの長さを逆に短くできるということが明らかになった
  • 今後期待できること:CLIPのトレーニングが計算リソースが限られた環境でも可能となりフィールドに新たな進歩をもたらす可能性がある
  • OpenBPのTwitterアカウントで共有したWhisperをTPUとJAXで最適化したら70倍速くなった話

42:38〜:世界中でバズったDrag Your GAN

Drag Your GAN: Interactive Point-based Manipulation on the Generative Image Manifold

  • ハンドルポイントとターゲットポイントをクリックするだけで、画像を生成。
  • ライオンの口内の歯などの隠れたコンテンツも再現可能
  • 馬の脚の曲げなどオブジェクトの剛性に従って変形することもできる