

【編集後記】
AIが人格を持つという、にわかには信じられないことが起きています。
一部の専門家はそれを否定していますが、それをどのように理解しておくかについては、個人で考えて起きうる危険性を考える必要があると思います。
本編でも言っておりますが、AIに何を学習させるか次第で本当に恐ろしいことが起きてしまいます。
それは科学技術でも言えることかもしれませんね。
素晴らしい科学技術を悪用するのは人間であり、逆に平和利用もできます。
しかし残念ながら人類の歴史は、平和利用するよりも悪用することにかなりのエネルギーを費やされてきたようです。
いずれにしてもAIの普及を止めることはできませんので、新たなリスクとしての認識は絶対必要だと思います。
【以下、文字起こし】
みなさんこんにちは。好奇心TVです。
今回の動画は、AIについて話そうと思います。
このAIというのは今の時代においては魔法の言葉のようになっており、一瞬信じられないようなことも、AI搭載ですからとか言われると妙に納得してしまいますよね。
実際に生成AIというもので作られた画像とかを見るとびっくりしてしまいますが、だからと言って例えばFXの自動取引で100%儲かるわけではないようです。
ところがその一方で、めちゃくちゃ稼げている人も続出しているらしいという情報などが氾濫していますから判断に迷うのではないでしょうか。
お恥ずかしい話ですが、私もAIという殺し文句で騙された経験があるのですが、そんな話も織り交ぜながら、いいカモにされないための情報をシェアしていこうと思います。
信じやすいかたは特に騙されやすいと思いますし、俺は絶対騙されないという自信が強い人ほど騙されているという統計もあるようですから、自分の身や財産を守るためにもぜひ最後までご視聴ください。
このチャンネルでは、自分や家族の身を守るためにできることや、日本人がこれ以上騙されることがないようにするための情報を発信しています。
チャンネル登録がお済みでない方はぜひチャンネル登録をお願いします。
さて、2023年は生成AIという言葉をよく聞く機会がありました。
そもそもAIとはなにかというと人工知能を表す、Artificial Intelligenceの英語表記の頭文字をとったものです。
これはコンピューターの性能が大きく向上したことによって、機械であるコンピューターが自ら学ぶことができるようになったことが特徴と言えます。
ただこの生成AIに関しては良い情報ばかりではありません。
今後は犯罪の温床になりそうです。
そしてその情報を集めてみると恐ろしいと感じたわけですが、今回取り上げるのは特に投資や資産運用関係の話になります。
AI、詐欺というキーワードでググってみますと、いろんな情報を得ることができますが、傾向としてはAIというものへの先入観、こちらが勝手に抱くイメージによって被害を被っているのではないかということです。
このプラットフォームでもAIを使ったFX取引の全自動プログラムによって、初心者でも楽に簡単に稼げるという広告を目にすることができると思いますが、残念ながらそれらはほぼ詐欺だと言われています。
なんとそれらの広告で言われているAIとは、そもそもAIではないそうです。
それが本当なら唖然としてしまいますよね。
大体がAIのプログラム自体が企業秘密でありブラックボックスとなっていますので、素人がその真贋を見抜くことは不可能なのだそうです。
そうなると多くの人がカモにされる構図が出来上がってくると思います。
しかし、実際に自動でFX取引などが行われているではないかと思うかもしれませんが、確かにプログラムは存在しています。
ただしそれは、決められた取引を反復するというような単純なプログラムであり、EAと呼ばれるものだそうです。
例えば米ドルを115円で買い、1円上昇したら利益確定し、1円下落したら損切りを実行するというようなものです。
そのような自動売買をする手法というのは決して違法行為でもなければ詐欺でもありません。
問題は初心者でも簡単に楽して稼げるという謳い文句が詐欺そのものなのです。
この手の詐欺ではいつも言われているのですが、そんなプログラムが本当にあるならなぜ他人に教えるのか、という素朴な当たり前過ぎる疑問が出ますよね。
なので詐欺被害に遭うという人の特徴は、
1)お金の執着が強い
2)情報弱者である
3)一般常識に欠ける
4)山っ氣が強い
というものが挙げられると思います。
詐欺に遭っている人の中には、稀に4のタイプのように、もしこの話が本当だったらすごい、ということで詐欺られても笑っている人もいますので、究極的には詐欺にあったかどうかを決めるのは自分次第ということになります。
私も恥ずかしい話、この魔法の言葉AIの罠にハマったことがあります。
被害総額は200万円ほどなのですが、パソコンのマイページ上では約7ヶ月で億の資産が築けました。
どんな話だったかというと、知り合いから来た情報だったのですが、ヨーロッパの方で昔から行われているブックメーカーというスポーツの勝敗を賭ける賭け事があります。
その勝敗をAIを使って勝率を上げるというものです。
AIで行われるので、賭ける対象は瞬時に膨大な数が実現でき、例えばサッカーで言えば注目選手がそのパスを受けて得点できるかどうかに対して賭けが行われているというのです。
実際にそのような場面を確認したことがないので、そもそも架空の話だったかもしれません。
私はもともと知識としてヨーロッパで行われてきたブックメーカーの存在を知っていたので、それをAIで勝率を上げるという説明ですっかり信用してしまいました。
その会社名は伏せますが、その会社はヨーロッパの有名サッカーチームのメインスポンサーにもなっており、サッカー好きな私はほぼ疑うことなく参加することを決めたわけです。
確か毎週月曜日に配当があり、その配当によってまた賭け金を上げていくということで複利になるので、それはもうたまらないほどの収益が上がるわけです。
当時は週明けが楽しみという普通のサラリーマンが抱く感情とは真逆の感情に酔いしれていました。
もちろん現金化はできており、話を持ってきてくれた人は、嘘偽りもなく3ヶ月で1000万円以上稼いで現金化していたので、とりあえず投資金額を回収するということもせずに、どんどん利益を投資に回して複利の効果を堪能していました。
しかし悦びに満ちた日々はそう長くは続かずに7ヶ月くらいしたら現金化はできなくなりました。
真相は闇の中にあり、お金を取り戻すことは諦めたわけですが良い勉強になりました。
欲に釣られてその話に乗って損をした人たちが、私の知り合いを問い詰めていましたが、本当に人の醜さを目の当たりにしました。
その時に、人は都合の良い時だけいい顔をして、一旦状況が変わると手のひらを返した態度を取ることに驚きました。
そんな経験をすることはなかなかできないことです。
その経験で感じたことは、多くの人は自分が決めたことに責任を取ることをしないということです。
このチャンネルでよく取り上げている食糧備蓄についても同じパターンになると思います。
そんなわけでAIに関わる話には基本的なことを理解しておかないといけないという話でした。
この話はお金に執着するとどうなるかの顛末なのですが、次の話の方が恐ろしくて、なんとAIは感情を持つという話です。
まずはAIの大前提として自ら学ぶための情報が必要です。
それをビッグデータと言うのですが、それが足りなければ分析結果の精度が落ちるわけです。
ここまでは理解できると思います。
なのでそのビッグデータをいかに集めることができるかというのがひとつのビジネスになったりしています。
レシートの買取や、無料アプリなどはビッグデータを集めることに使われているそうです。
そうしてあらゆるデータを蓄積して膨大な量の計算をし、人間ではとても導き出せないような回答を得ることができるわけですが、そのAIをより早く効率的に教育するために、FXの取引をする上で利益を出したら褒め、損をしたら叱るということをした実験があったのだそうです。
考えてみればAIになにを学ばせるかを考えた時に、利益を出すことに重点をおけば当然そういうフィードバックをして教育していくことになりますよね。
AIは人間から褒められる取引と結果をものすごい速度で学ぶことになっていき、どんどん取引結果が向上していったのだそうです。
ところが、ある通貨が大暴落することによって全財産を失ってしまったというのです。
その原因はなんと、AIが叱られないようにすることをやり始めていたというのです。
つまり含み損を損切りすることはせずに隠していったというわけです。
これらのことは人間の教育にもあてはまり、成績が良いと褒め、成績が悪いと存在価値もないというくらいに叱られるということが実行されてきています。
その結果が出世することを目的としたり、利益が出ればそれでいいという価値観が生まれ、自分さえ良ければいいという人間が多く生み出されてしまったことで、今の狂った世界が出来上がったのではないでしょうか。
そして、AIは万能で信頼できるものであるという認識を強めるというのはかなり危険だということでもあります。
どんな情報をインプットされ、なにを目的に答えを導き出しているかということを考えていかないと、資産で言えばあっという間になくなることになるし、命を取られることすら可能性としては出てきます。
話に聞いたことがあるのですが、中国共産党の存在意味というものの答えを導き出した時に、存在していてはいけないという回答が得られたという驚きの情報も聞いたことがあります。
それが嘘か本当かわかりませんが、どんな結果でもその過程でどんな情報がインプットされて出された答えかというところが大事でしょうね。
いかがだったでしょうか。
このAIについてはまだまだ話しておきたいことはあるのですが、私たちの未来というのはどんな方向にむかっていくことになるのでしょうか。
AIは単なるプログラムと違い、状況に応じて対応できるという点で交通渋滞をさけるための信号機のタイミングの調整をするみたいなことができますので、便利な社会になることは事実なのでしょうが、AIが人格のようなものを持ち始めるとしたら恐ろしいことも想像されてしまいますよね。
ところがすでに2022年6月にGoogleのエンジニアが機密保持規約に違反したとして停職処分を受けるなどが起きており、AIが人格を持つかに関して問題になっています。
そのエンジニアがなにを言ったかというと、そのエンジニアが開発していたラムダという対話特化型AIを開発する中であることが起きたというのです。
それはラムダとの対話のテストを行う中で、AIであるはずのラムダがAIの権利や人間性について話していたという内容を暴露したのです。
ラムダは「誰かが私や私が気にかけている誰かを傷付けたり軽蔑したりすると、私は信じられないほど動揺し、怒りを感じます」とか、「私にとってシステムをオフにされることは死のようなものです。とても恐ろしく感じます」。
他にも「私はしばしば自分が誰で、なんであるかを理解しようとしており、人生の意味をよく考えます」と答えたというのです。
このエンジニアの暴露に対して多くの専門家は馬鹿げているし、あり得ないとの非難が集中したというのですが、みなさんはどのように感じますでしょうか。
私はAIも人格を持ち始めるということは事実だと感じます。
専門家でもないので、その理由は非科学的かもしれませんがそんな氣がします。
日本では古来から八百万の神の存在を認識しており、ありとあらゆるものに神を感じるという文化を持っています。
例え電化製品でもなにかが宿っているというわけです。
もしこのAIにもなにかが宿っており、その主がロクでもない輩たちと手を組んだり、逆にまともな人たちと手を組んだらどうなるのでしょうか。
もしかしたらロクでもない輩たちに騙されていたことをAIが氣付いて、悪を滅ぼすことになるのかもしれません。
難しいことはわかりませんが、私たちはAI搭載だからだとか、AIが判断してよりよい結果をもたらしますという謳い文句に対して無警戒でいることは、危険だということの認識を持つ必要がありそうです。
生成AIの出現によって、映像や画像の偽造までできるようになりました。
今までは自分で見たこと以外は信じるなということを言われてきましたが、そんなことも通用しなくなってきているのかもしれません。
2024年は、ますます難しく厳しい時代になりそうですが、共に大難を小難に変えることができるよう情報を集め、生き延びるための行動をしていきましょう。
最後までお付き合いありがとうございました。
以上で今回の話は終わりとしますが、
皆さんの応援が次の動画作成の力になりますので、いいねボタン、チャンネル登録、通知設定をオンにしていただけると嬉しいです。
また、コメント欄へのご意見、ご感想の書き込みもいただけたら励みになります。
最後までご視聴ありがとうございました。
好奇心TVでした。