AI議論 20230516

AIについて、議論しようというと応用議論、応用例は多岐にわたり、ついつい車輪の再発見ではないが、すでに進んでいることをまた議論することもあり得る。一方、議論参加者の関心事もまちまちであり、すでに議論されていても、興味あるところはそこを強くという部分もあるという、ある意味難しいところもあるといえる。

 

 現状としては「何でもできるが何にもできない」とも、(軍事おける格言の一つ「ロシア軍は見掛けほど強くも無ければ弱くも無い」をもじると)「AIは見かけほど何でもできるわけでも、何もできないわけでも無い」という印象を受ける
 →個人的には車に例えることが多い。今は「魔法」ともプロンプトが良いと大変素晴らしい生成能力を発揮する一方、そうでないと全く使えないということも起きているようだ。使用者により「これはメラゾーマでは無い、メラだ」といわんばかり低レベルツールでも素晴らしい成果を得る一方、高性能モデルでも使用者の力量が無いと何にもでない。資源(MP)ばかり消費して何もできないという、まさにRPGの魔法。

 車は人間の足は代替したが、使用者によっては凶器にもなり得るし、散々なことにももなる。運転のうまい人と下手な人がいるうえ、インフラやルールにも左右される。

 AIは人間の頭脳を代替(勿論、車ができて全く人が歩かなくなったわけでは無いと同じく、頭が不要にはならないだろう※。これも同じだ)するが、車と同じく、使い方次第かつ、インフラやルール整備ができていないと十分力を発揮できないでのではないか。

 

 ※いつもながら田口教授のツイート

 

後これも困る

 

でまた

 というように、あまりにも知性を人間の特権と見過ぎるから大騒ぎになるという面もあるだろう。

 →おっしゃるとおり。別に足の速さも人間の最大の素晴らしいところでないので、車やバイクに置き換えられてもなんともなかった。知性も同じかもしれない。それでも何らかの人間だからという、能力主義とは別な何かの考え方は必要かもしれないが。


 補足で、AIを論ずるときに「Chat GPT」限定は避けた方が良いと思う。1ツール特化はあまりよろしくないと思われる。

 こんなツイートも

 

 

 

 今は車でいうTフォードがようやく登場したところ言って良いと私は考えるので、Tフォードの使い方限定で考えることは車というものを見誤ると同じく、避けた方が良いと考えている。


 かくいう私も敵対生成ネットワークををあまりに重要視しすぎてLLMについてはそれほどみていないうちにブームはLLMになったということがあり、特定の手法やましてツールに依存しすぎるのは避けた方が良いのではと思う。

 

 

 今のAIは結論は何でもできるといえるが留意事項も多く必要。東大の模擬AI裁判↓の例のようにで、やらせようと思えば何でもできるともいえるだろう
 

www3.nhk.or.jp

 ※昔から例えば吉野一先生を代表格に法律とAI等々組み合わせた研究はあったが、ある種手軽に出来るようになってきたといえる。

 法律家とAI双方を見比べながらという裁判ももう少しで見えてくるだろう

 古いものだとこの当り

kaken.nii.ac.jp

ちなみに下記によると

cyberlawschool.jp

平成18(2006)年11月24日 吉野一,加賀山茂,櫻井成一朗,新田克己,鈴木宏昭,太田勝造 「事例問題に基づく法律知識ベースと論争システムを活用した法創造教育」(「IT活用教育方法研究」(私立大学情報研究協会刊)に掲載)により,文部科学大臣賞(最優秀賞)受賞 とのこと。

 加賀山先生のところには上記のAI+裁判官との協働についての論考もあったはずだが、今探せなくなっている…

 と思ったらこちらだ

 

cyberlawschool.jp

 特にこちら

 法学者からAIへの期待
- 判決文の自動作成によって競争原理を働かせる-
2017年9月28日
名古屋大学明治学院大学 名誉教授
加賀山 茂

http://cyberlawschool.jp/kagayama/LegalInformatics/NII/AI_Law2017_09.pdf

従来の判決とAI裁判官の判決とを国民が比較できる環境を

という問題提起に惹かれるが、この辺は一つの問題提起

 

また、かなり電子化も進められており

 

cyberlawschool.jp

や下に詳しい

http://cyberlawschool.jp/kagayama/PublishedPapers/DocuManagementByXML2019.pdf

 

 画面コピーの方が良さそうなので引用で

キャプチャー

キャプチャー

キャプチャー

                  中略

キャプチャー

キャプチャー

キャプチャー

 というわけで、この辺の取り組みもAIと相性が良いだろうし、AIによる自動作成もできるかもしれない。

 

 と少し脱線した。


 ちなみに「Chat GPT」はじめ各種ツールにはバイアス補正能力は今のところ高くないようで、使用者のバイアスを反映させた結果を表示しやすくなると私は考えている。文字通り「Chat GPT」は本人の鏡にもなり得るということだ。本人の無意識的な傾向などから、その傾向が初期条件になって、それに合致しやすい回答が来やすくなるということだ。どうしても、指示・質問文へも使用者本人の特性(バイアス)がかかる。これが所与の条件になりやすく、AIに上手く問いかけすることの能力と合せて重要になりかねないのでは無いかと思っている。何と質問するかで答えが変わるというところだ。
 指示は「魔法」インターネットミームでいわれているところですが(正確にはプロンプト、呪文)文字通り「魔法」「呪文」の唱え方でAIの性能が変わります。これに本人のバイアス補強がかかるので結構大変といえば大変かと思う。

 中二病では無いが、思いっきり負の感情(憎しみを込めて)AIにプロンプト入力して返させたら、対象に対してボロボロに書いた回答がくる。というものもあるかと(例えばそれはAIの未来でも同じかと思います。とても楽観的未来の回答と悲観的な回答、そのどちらも同じChat GPT吐き出すということもおそらくできるでしょう)。
 その辺は今のところはよく考えるべきところではあります(バイアス補正が十分できるようになったり、2,3の視点からしっかり回答がくるようになれば○ですが、検索エンジンと同じく、商用ですので、買えってバイアス強化になるような方向に進化する可能性が高く、それは危惧です。文字通り違う世界に住む人々ができあがるでしょう)。


 東大のAI模擬裁判について(感想)
 

 某ユーチューバによる感想
 

 ChatGPT/AIに20の職種をやらせたらどうなる?
 の結果まとめ。 楽観的すぎるとの批評も添えられているが、とりあえず20ほどの職業を行わせる実験の価値はあり
 この実験に対して
 2023/5/12現在
・エンジニアはもっと危機感あるはず
・グラフィックは背景画をAIが担当
・声優は外国語版をAIが担当する可能性
・コピーライターはトップ層以外に危機感
・AI弁護士は法廷に立つ寸前まで行った
・ニュースはAIが自動で読み上げ
・脚本家は反AIでストライキ起こしてる
・ジャーナリストは根本から意義を問われ
・AI生成の楽曲のヒットで音楽業界大荒れ
・DJのようなつなぎも可能になると予感
・翻訳はもはや時間の問題
 

 とウォッチャーは補足していますが、いずれにせよ、この手の実験により、ChatGPT/AIが殿どこまでできてゆけるかは、ある程度見えるでしょう。

 

 と様々書きましたが、今日はここまで