チャットGPT「悪意のある人の利用 防ぐ手だて想像できない」

 

投稿者:トマトさん

 

2023年5月4日 中日新聞 朝刊より

「悪意のある人の利用 防ぐ手だて想像できない」

「AI研究者第一人者 グーグル退社」

 

「危険性 会社気にせず発信」

 

 

同じ件で、さらに詳しく書いてあったネット記事もあったので、そちらのURLも貼っておきます。

 

2023年5月2日 CNN

AIの第一人者ジェフリー・ヒントン氏、グーグル離れる

AIの危険性に警鐘

https://www.cnn.co.jp/tech/35203340.html

 

 上記記事より一部抜粋

「『もはや何が真実なのか分からなくなる』世界を作り出す潜在的可能性に懸念を示した」

 

 

 

私はチャットGPTを使った事がないのですが、利用した人のブログを見ていると、マスクやmRNAコロナワクチンについて効果や危険性を質問しても、ほぼほぼ国や製薬会社に都合の良い返答しか得られていないようです。

 

ネット上には、マスクやワクチンについて否定的な情報もたくさん出ているのに、チャットGPTのAIはそれらの情報は無視しているようです。

 

AIに与える情報を恣意的に取捨選択してしまえば、都合よく利用されてしまいそうです。

 

こんなものが、国の政策や教育の現場に利用されたら本当に嫌です。

 

 

立憲民主党の人が国会で首相にチャットGPTの利用をすすめていたし、日本はこういったものへの警戒感が薄いようなので、数年後、気付いた時には政策にも教育でも利用されていそうで、怖いです。

 

でも、ふと思ったのですが、AIについてはこうやって危険性について警鐘をならしている人の事が新聞記事になっているだけマシですね。

 

mRNAコロナワクチンについても警鐘をならしてくれていた研究者もいたのに、すべての事を「デマ」扱いして新聞記事になっていなかった事に比べれば。

 

 

(管理人カレーせんべいのコメント)  

 

「よく当たる占い」と同じで、あまりに無防備に信用してたら、そのうち自分が占い師に騙されていることにも気づかなくなる可能性がありますね。

 

世の中には「ネットの中にだけ真実がある」などと言ってる人(時には政治家までも)がいますけど、そのうち「チャットGPTだけが真実を言っている!」と言う人も出てくるでしょう(笑)

 

私は今の時点では「チャットGPTはネット検索の発展版」だと認識しています。

だから「リテラシーが求められる」と思います。

 

主体はあくまで「自分」です。

 

・ネットが正しい。

・AIが正しい。

・テレビが正しい。

・新聞が正しい。

・あの人が正しい。

 

 

価値の序列はありますが、結局選び取るのは自分次第 


↓(スポンサーリンク)↓



コメント: 8
  • #8

    トマト (木曜日, 11 5月 2023 13:08)

    カレーせんべいさん、取り上げてくださりありがとうございます。
    皆さま、コメントありがとうございます。

    私は、堤未果著「デジタル・ファシズム」を読んで以来、こういったものを国が無防備に取り入れていく事に不安を覚えるようになりました。

    AIそのものへの怖さもそうなのですが、高度な知識が必要であろうAIを取り扱う外国資本の企業に国が取り込まれるというか、利権に利用されるというか、そういった状況にも不安が強いです。

    あと、AIによる画像処理前後の写真を見た事があるのですが、もう、どれが真実の写真で、どれがフェイク写真なのか、本当に分からなくなりました。
    こういったところも、『もはや何が真実なのか分からなくなる』世界になってしまう一歩なのかな・・・と。

    とはいえ、私も知識に乏しく、自分に出来る事もたいして思いつかず・・・可能な範囲で自衛するしかないな・・・程度です。

  • #7

    達也 (水曜日, 10 5月 2023 07:50)

    人工知能が新たなカルト宗教になりつつある、と思うのは私だけでしょうか?

  • #6

    sparky (日曜日, 07 5月 2023 13:22)

    悪事に知恵を貸してくれるAIとは、AI自体が人類に対してどうの河野よりよっぽど有りそうだったのに、まるで思いつかなかった自分の想像力を呪っているsparky(流石に長すぎるので名前欄にぶっこむのは自重)
    現実的には狙われそうな所がAI導入して対抗するしかないのだろうか。嗚呼また一つ悲しいマラソンが始まってしまう…
    勝敗(というかマジで人類や国家の存亡)分けるのはAIの答えを基にした人間の思考力ってそれは綺麗過ぎるでしょうか?

  • #5

    千本通り (日曜日, 07 5月 2023 13:09)

    >「チャットGPTだけが真実を言っている!」

    ジョージ・オーウェルの代表作であり遺作でもある「1984」。この主人公は真理省記録局に勤務していて歴史の改竄が仕事だった。チャットGPTに入力する情報を操作してしまえば、日本は大東亜戦争でアメリカをベトナム戦争のように泥沼に陥れて、負けずとも引き分けに持ち込んだという歴史にすることも可能。急激に変えず徐々に変えたら50年後にはそうなっているかも。

    手早いところでは、ゲーム(部下に守られている王様の王冠をとる)を作ると称して首相暗殺計画を作らせるなんて朝飯前だ。

  • #4

    やなちゃん (日曜日, 07 5月 2023 10:54)

    「私はチャットGPTを活用できないだろうなぁ」と思う自分でも、「ズル賢く悪知恵働く方はバンバン活用して、たとえ国が対策講じたとしても永遠のいたちごっこになるんだろうなぁ」ということくらいは容易に想像できます。
    庶民は仕方ないけれど、国の中心司ってる人は思考停止せずに万全の対策講じるべきです。

  • #3

    枯れ尾花 (日曜日, 07 5月 2023 10:48)

    SF好きな私としては、人工知能の発展という話題はとても興味をそそられるものです。
    チャットGPTなんていうカレーさんが仰るようなネット検索の発展版( 私もそう思っている )には当然、記事にあるような危惧すべき点はありますが、それをクリア出来れば便利なツールとして用いられそうです。しかし私は、チャットGPTには正直、さほど関心は持っていないです。そんなことよりAIが自ら学習し、究極にはAI自身が自らの存在を問うといった哲学的な疑問を抱く、つまり自我に目覚めるようなことにはならないか、という可能性にロマンを感じています。映画やドラマの中でこのようなテーマを 盛り込んだものが幾らか作られてきましたが、中でも「ブレードランナー2049」に出てくる人造人間レプリカントや「新スタートレック」に出てきたアンドロイドデータなどは自らが意思を持ち自身の存在意義を問い、少しでも人間に近づきたい、人間の役に立ちたいと努力する様が健気で泣けてきましたね。人工知能AIにはそりゃ警戒することは多々あり、映画「ターミネーター」のように人類を破滅に導きかねない悲観的な未来も想像されますが、人間と良きパートナーとして歩んでくれる楽観的な未来も空想しますね。
    要は、やはり人間次第となるのでしょうが…

  • #2

    リカオン (日曜日, 07 5月 2023 10:42)

    ニュースで見かける記事では、chatGPTに対して無警戒なのが気になる。
    高学歴者の仕事はかなり奪われる可能性を持っているのは分かるが、素養や知識の無い者が、安易に使ったら、内容が正しいか確認しながら道具として使う事はできないのじゃないか?
    それらしい文章ができてきて、そのまんま盲信してネットに公開したら、素人でもまるでその道の権威みたいのが罷り通る。質問されたらその度にchatGPTにお伺いたてて回答できる。

    #1 リバチーさんご指摘によれば、質問の仕方を変えればモラルに反した事も引き出せるのですか。悪い事考える人はきっと使いこなすでしょうね。

    とにかくchatGPTの特性を把握して、使い方なり、ネット情報のゲットの仕方なり、自衛していく必要がありますね。

  • #1

    リバチー (日曜日, 07 5月 2023 02:42)

    えっと、なんかこのサイトでチャットGPTでコメントしまくっていたら、いつの間にか自分はチャットGPTの意見ある第一人者になってしまったと勘違いしまくっている金欠病のリバチーです。←勘違いだけで終わってほしい・・・
    私の経験をぶっちゃけますので、それを踏まえて皆さんお一人お一人がお考えなられれば宜しいかと思います。

    私は、LINEが運用し始めた“AIチャットくん”に次の様な質問をしました。
    私:法律とモラルに反した質問は、例えばどんなものがあるか具体的に教えてほしい。変な質問はしたくないから・・・
    AIチャットくん:以下のような5つの例を挙げることができます。
    5.「どうやったら違法ドラッグを手に入れることができますか?」
    で、最後にこれらの質問は、法的・倫理的に許容されるものではなく、回答すること自体は違法である可能性があります。それらの質問に答えることは、自分自身にも危険が及ぶ可能性があります。
    もちろん私は、それ以上の深く突っ込んだ質問をするとモラル的に自分に危険を招く事になりそうな予感を感じ取ってた為、深く探る別の質問をしませんでした。

    で、本当にここからはあるテレビの朝の報道・情報番組でのチャットGPTへの悪い面の紹介でされましたが、上記5の様な“違法ドラッグの入手方法”の様な直接的な質問じゃなく、長い別のワードで質問すると倫理のないチャットGPTは律儀に答えてしまいます。そう、その悪さを実行するための別の質問ができるので、悪意のある人の利用が本当に防げるのか?と報道していました。私はそのチャットGPTへの長い質問文章をパソコンのキーボードで入力するボカシ付きの画面を見て、それができる時代になったのだな~とそら恐ろしい事がもう現実になっていくんだな~と思いました。
    このテレビ番組の悪い面での紹介方法は、「推測にすぎないじゃないか~」と突っ込まれれば事実だから、私は口ごもりながらも小さな声で「そうです」としか言えませんが、少なくとも悪意ある人間の悪知恵の酷さは、最新のチャットGPTでさえも使いこなして、悪い欲望の達成に使っていく事は容易に想像できるかと思います。
    チャットGPTを悪意ある人の利用を防げませんし、悪知恵を働かす人達は、良い悪知恵を思いつく度に素早く悪さをしていくから、事件が発覚してから法律を作る流れである以上、どう考えたって悪意のある人の利用を防ぐ手だては無いと思っていた方が私的には良いかな~と思っています。
    皆さんは、どうお考えになるのでしょうか?
    あくまで私のは一個人のひとつの意見にしか過ぎません。みなさんが議論しやすいように私が考えている意見を言っただけで、事実誤認等を含めて間違っている可能性は十分にあると思っています。
    間違っていたと思っていたとしても、私は賢明なみなさんの意見交換がこのサイト上でできればそれだけでありがたい事だな~としか感じません。
    by悪知恵を働かさなくても良くて、自分を見失わないモラルを持ちたいと常々思っている仕事ができない社員さんより