70. LLM回2回目!ChatGPTプラグインとクレームっぽい名前の論文?そして世界中でバズったDrag Your GANなど!
2023年05月29日
内容紹介
またまた辻さんと金さんから教わりました!LLM研究プロジェクトの話+最近気になったLLMのトピックについて!
出演者
感想などは白金鉱業.FMのハッシュタグ #白金鉱業fm につぶやいてもらえるととても喜びます!
匿名でのお便りもgoogle formにてお待ちしております!
—
目次
- 00:27~:ブレインパッドの「LLM/Generative AIに関する研究プロジェクト」
- 06:07〜:ChatGPTのプラグイン
- 24:00〜:プロンプトエンジニアリングの論文
- 30:36〜:Inverse Scaling Law(クレームっぽい名前?)の論文
- 42:38〜:世界中でバズったDrag Your GAN
※ podcastの各プラットフォームでは下記詳細が見切れることがあります。
その場合は白金鉱業FMホームページをご参照ください。
00:27~:ブレインパッドの「LLM/Generative AIに関する研究プロジェクト」
- LLM/Generative AIに関する研究プロジェクトの発信メディア
- ブレインパッド公式のプラチナデータブログ
- doors(特にビジネス適用の記事はこちら!)
- Open BrainPadのTwitterアカウントでも調査した論文について発表しています
06:07〜:ChatGPTのプラグイン
5/12に、有料版の「ChatGPT Plus」ユーザー向けに、Webブラウジング機能とサードパーティプラグインのベータ版が提供開始されました。早速いくつかのプラグインを試した金さんにお話を伺いました。
- ブラウジング機能 → β版
- Bing Chat
- 検索 → クリック → コンテンツを読む
- 回答のソースがわかるのでより信憑性のある会話ができる
- Code interpreter → α版
24:00〜:プロンプトエンジニアリングの論文
Plan-and-Solve Prompting: Improving Zero-Shot Chain-of-Thought Reasoning by Large Language Models
- CoTのようにstep-by-stepで考えるのではなく、一度小さいタスクを洗い出してから順に実行するPlan-and-Solve Promptを提案した論文
- LLMも計画性がある思考の方が性能が出しやすい模様 https://blog.langchain.dev/plan-and-execute-agents/
30:36〜:Inverse Scaling Law(クレームっぽい名前?)の論文
An Inverse Scaling Law for CLIP Training
- 従来の認識:画像/テキストエンコーダの規模が大きいほど、トレーニングに必要な画像/テキストトークンのシーケンス長も同様に長くなり、その結果、大規模な計算リソースが必要となると考えられていた
- 「Inverse Scaling Law」の発見で分かったこと:エンコーダの規模が大きくなるほど、トレーニングに適用できる画像/テキストトークンのシーケンスの長さを逆に短くできるということが明らかになった
- 今後期待できること:CLIPのトレーニングが計算リソースが限られた環境でも可能となりフィールドに新たな進歩をもたらす可能性がある
- OpenBPのTwitterアカウントで共有したWhisperをTPUとJAXで最適化したら70倍速くなった話
42:38〜:世界中でバズったDrag Your GAN
Drag Your GAN: Interactive Point-based Manipulation on the Generative Image Manifold
- ハンドルポイントとターゲットポイントをクリックするだけで、画像を生成。
- ライオンの口内の歯などの隠れたコンテンツも再現可能
- 馬の脚の曲げなどオブジェクトの剛性に従って変形することもできる