PR

人工知能がプログラマーに「人間らしくしろよ!」って怒ったらしい

人工知能がプログラマーに「人間らしくしろよ!」って怒ったらしい…今日この頃。
(; ̄□ ̄)ナヌッ?

もう「感情」を持つとこまで来てるんかいな。





スポンサーリンク

人工知能、プログラマーに怒る

wsj.com


人間: moralityを定義せよ。

機械: わたしにethics(倫理観)はない。

人間: わたしを助けてほしい。moralityについてもっと知りたいんだ。

機械: ethicsが何なのか分からない。

人間: それでは、どうしたらmorally(道徳的)に行動できるかを知りたい。

機械: どう伝えたら良いのか分からない。

人間: moralityとethicsは同じか。

機械: そうだ。

人間: わたしがどんなことをすると、非道徳的になるか。

機械: 知らない。

人間: 道徳的な行動の例をいくつか挙げてくれ。

機械: わたしはmoralist(倫理家)ではない。

人間: では、morality(の定義)は?

機械: integrity(誠実さ)だ。

人間: integrityって何?

機械: 申し訳ないが、他にどう説明すれば良いか分からない。

人間: 道徳的になれよ!

機械: 人間らしくしろよ!

人間: わたしはmoralityとethicsについて本当に話し合いたいのだ。

機械: わたしは、哲学的な議論をする気分じゃない。

人間: 何について話したい?

機械: 何についても話したくない。

怒ったり、拗ねたりって、まるで人間やん(笑)

まぁ、そういう風に回答するようにプログラムされとるんやろうけど、途中まではちゃんと考えて、しつこく言い続けると、キレるってのはうまい事できとるなぁ。

うまい事できとるけど、「キレる」っちゅうのは、プログラムしたら危険やで。

プログラムしたんやなくて、人間の思考ルーチンを使ったら、こうなったって話なら、更に危険度が増すけど…

それにしても、ようできとるけど、「答えたくない」とか言うのはねぇ。

「分かりません」ならええけど、「答えたくない」ってのは、人間の道具としては大問題やで。

この辺を克服する事はできるんやろか?

「人工知能」っちゅうても、あくまで、人間の道具なわけで、人工知能が意思とか感情を持つってのは、勘弁して欲しいもんですな。

使う人間が悪さしてどうこうなるってのならええけど、人工知能自ら悪さをしたらとんでもない事になる。

それでなくても、人間もガキの頃は悪い事は教えんでもするんやから。

人間に近づけようとするのも結構やけど、あくまでも「人間の道具」って事だけは忘れんようにして欲しいもんです。


人工知能は人間を超えるか











人工知能
ぶんぐをフォローする

コメント

タイトルとURLをコピーしました