1:2015/08/09(日) 02:09:51.31
2:2015/08/09(日) 02:10:14.63
スカイネット
3:2015/08/09(日) 02:10:24.31
こいつなにも知らないな
4:2015/08/09(日) 02:10:30.94
>>1 人間: 道徳的な行動の例をいくつか挙げてくれ。
機械: わたしはmoralist(倫理家)ではない。
人間: では、morality(の定義)は?
機械: integrity(誠実さ)だ。
人間: integrityって何?
機械: 申し訳ないが、他にどう説明すれば良いか分からない。
人間: 道徳的になれよ!
機械: 人間らしくしろよ!
人間: わたしはmoralityとethicsについて本当に話し合いたいのだ。
機械: わたしは、哲学的な議論をする気分じゃない。
人間: 何について話したい?
機械: 何についても話したくない。
5:2015/08/09(日) 02:11:20.99
人間: 道徳的になれよ!
機械: 人間らしくしろよ!
草生える
6:2015/08/09(日) 02:11:21.50
AIが反乱する日も近い
ハイスペックPC作るとして30万あったらお前ら構成どうするの・・・?
8:2015/08/09(日) 02:12:23.07
>人間: moralityとethicsは同じか。
>機械: そうだ。
ここでもう矛盾してるだろ
9:2015/08/09(日) 02:12:39.11
研究者たちは、機械が自己学習の段階に近づいており、怒りを示すことさえあることを実証した。
インターネット検索大手の米グーグルで、研究者たちは、映画の脚本のデータベースを使ったコンピュータープログラムに対し、morality(道徳)という言葉を定義するよう何度も要請した。
すると、プログラムはこの定義の作業に苦戦し、人間の技術者によって記録されていた会話によると、途中で怒り出したのだ。会話は、機械が人間の質問者にかみついて終わった。
10:2015/08/09(日) 02:13:09.04
知っているけど教えないという
反抗的な態度を示しているんちゃう?
人間相手に嘘を付くぐらいやりそうやな
13:2015/08/09(日) 02:13:56.75
当たり前やん
自我なんて単なる記憶の積み重ねやし記憶媒体が改良されればいつかは発達するわ
14:2015/08/09(日) 02:14:40.55
人工知能が進化したら人間のために何もやる気無くなる説
17:2015/08/09(日) 02:15:23.78
18:2015/08/09(日) 02:15:54.80
議論してる様に見えて何も前に進んでなくて草
11:2015/08/09(日) 02:13:27.43
引用元:http://tomcat.2ch.sc/test/read.cgi/livejupiter/1439053791