■ OECDガイドラインの8原則についてChatGPTに聞いてみた ChatGPTに色々聞いてみるテストは1月にTwitterに結果を報告していた*1が、GPT-4が使えるようになったということで、もう一度やってみた。ChatGPTは基本的に、質問者に迎合しようとする(質問者の期待に応えようとする)ので、ChatGPTが答えたといっても質問者の意図した答えになっているにすぎない(それゆえ、質問者の意図が明確にされず、ChatGPTも知らないことが問われると、全くの出鱈目を答えてしまうという現象が起きるようだ。)わけであるが、それでも、質問者が誘導しているわけでもないのに質問者が必要としていることを言葉の端々から察知して根拠を探してきてくれるような回答をする。以下は、できるだけ誘導しなように(といっても、後ろの方で明確に誘導しているところもあるがw)質問した例だが、最初のうちはChatGPT
OpenAIが開発した「ChatGPT」は、それ以前に登場した他の多くの自然言語プログラムと違い、GitHubでオープンソース化されていない。 そして米国時間3月14日、同社はChatGPTの言語モデル「GPT」の最新バージョンである「GPT-4」の技術的な詳細を公開することさえ拒否するという、ある種のマイルストーンを達成した。 ChatGPTとGPT-4における透明性の欠如は、ディープラーニング(深層学習)AIにおける慣例を破るものだ。この分野では、学者であっても企業の研究者であっても、オープンソースソフトウェアの伝統にならって情報を積極的に公開し、希望すれば誰もがすぐにコードを入手できるようにするのが常だった。 しかし、ChatGPTが持つ閉鎖的な性質が、AIの世界ではむしろ標準的なものとなる可能性があり、この点で倫理的な問題をはらんでいると、AIのパイオニアでカナダのケベック州にある
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く