7. 2019年3月17日 18:32:35 : yP4CJGjWT2 : TWVJY0ZuNTM4blU=[1]
自分だけは人柱にならないと高をくくっている。これこそが福一原発事故の原点だな。神様は自分にだけは甘いってか。まだ目が覚めないらしいw
AIシステムってのは絶対に曲げてはならない原則がある。それは人間が介入したら無条件で自動システムを解除して人間の手動に切り替えなければならないという原則だ。非常に単純な話だろう。プログラムのバグなんて関係がない。人間がブレーキを踏んだらコンピュータの電源を切って機械的にブレーキを作動させるだけの話だ。これをやらないとAIシステムなんて危なくて使えない。まさにスカイネット状態だ。
最近の製品を見ると人間の操作よりもAIを優先する人間軽視のグローバル大企業アホ論理が優先している。だからこのような事故が起きる。自分は海外旅行しないし飛行機だけだと高をくくらない事だ。PCのOSやスマホくらいなら腹が立つだけで済むが自動運転車(半自動運転も含む)がこのようなバグを起こすと自分と他人の命に係わる。
http://www.asyura2.com/19/hasan131/msg/522.html#c7