追加された行はこの色です。
削除された行はこの色です。

[[&ref(https://image02.seesaawiki.jp/s/o/singularity-2ch-memo/tVFXgbsP20-s.png)>https://image02.seesaawiki.jp/s/o/singularity-2ch-memo/tVFXgbsP20.png]][[&ref(https://image02.seesaawiki.jp/s/o/singularity-2ch-memo/9RybzHW98y-s.png)>https://image02.seesaawiki.jp/s/o/singularity-2ch-memo/9RybzHW98y.png]][[&ref(https://image01.seesaawiki.jp/s/o/singularity-2ch-memo/mJVs9TLBzA-s.png)>https://image01.seesaawiki.jp/s/o/singularity-2ch-memo/mJVs9TLBzA.png]][[&ref(https://image02.seesaawiki.jp/s/o/singularity-2ch-memo/KCA_9Hh7E3-s.png)>https://image02.seesaawiki.jp/s/o/singularity-2ch-memo/KCA_9Hh7E3.png]][[&ref(https://image01.seesaawiki.jp/s/o/singularity-2ch-memo/KNFeDWJjbw-s.png)>https://image01.seesaawiki.jp/s/o/singularity-2ch-memo/KNFeDWJjbw.png]][[&ref(https://image01.seesaawiki.jp/s/o/singularity-2ch-memo/isWYs433CZ-s.png)>https://image01.seesaawiki.jp/s/o/singularity-2ch-memo/isWYs433CZ.png]][[&ref(https://image01.seesaawiki.jp/s/o/singularity-2ch-memo/LqEO9xGrvm-s.png)>https://image01.seesaawiki.jp/s/o/singularity-2ch-memo/LqEO9xGrvm.png]]
**リンク集
※スライドの画像は東京大学 松尾研究室、および東京大学大学院情報理工学系研究科様の資料を拝借させていただいています※

***線形変換とは?行列乗算とは?誰でも必ず理解できるアニメーション解説
※線形代数の基礎
[[&ref(https://image02.seesaawiki.jp/s/o/singularity-2ch-memo/DOOOqIYM53-s.png)>https://image02.seesaawiki.jp/s/o/singularity-2ch-memo/DOOOqIYM53.png]]
https://www.headboost.jp/what-is-linear-transformation/

***Pythonでニューラルネットワークを行列演算を使わずに書いてみよう
※活性化関数や損失関数の微分も簡略化
https://atmarkit.itmedia.co.jp/ait/articles/2202/09/news027.html

***NumPyとは何か? 配列計算ライブラリの基本
&size(13){Pythonプログラミング VTuber サプー}
https://www.youtube.com/watch?v=gnTxKHMYqFI

***TensorFlowを利用したCNN画像認識、CNN画像分類、モデル構築
cuDNNのインストールやjupyterNotebookの導入も含む
https://www.youtube.com/watch?v=yqkISICHH-U

***単純パーセプトロン 最急降下法と誤差逆伝播法
&size(13){慶應義塾大学 理工学部 管理工学科 櫻井研究室}
http://www.sakurai.comp.ae.keio.ac.jp/classes/infomean-class/lesson1213/Slide65.html
深層学習の数理 理研AIP 鈴木大慈
https://www.slideshare.net/trinmu/ss-161240890
>バックプロパゲーションともいう。ニューラルネットワークで用いられる学習アルゴリズム。
>出力層での誤差を入力層に向かって逆伝播させることで、各層間の結合荷重を修正し、誤差を減少させる。しかし各結合荷重に見合った誤差をそれぞれの結合に対して逆伝播させる必要がある。
学習過程
>ニューラルネットワークの学習では、学習データと予測値の乖離量を「損失関数」とし、損失関数の値が小さくなるようにネットワーク内のパラメータを調整していく

***方策勾配法による強化学習 Python
https://github.com/gabrielgarza/openai-gym-policy-gradient
&size(13){強化学習の基礎 今井 翔太(Shota Imai)}
https://www.slideshare.net/ShotaImai3/rlssdeepreinforcementlearning

***機械学習の具体的手法と基礎
統計学と分類、回帰分析(データマイニング)、ベイズの定理、確率分布、最小二乗法、標本統計、ユークリッド距離、多変量統計解析、相関係数、コサイン類似度
https://zero2one.jp/ai-word/#cat-specific-machine-learning-methods
http://arduinopid.web.fc2.com/P14.html
&size(13){東京工業大学情報理工学院  岡崎 直観 (Naoaki Okazaki)}
https://chokkan.github.io/mlnote/index.html

***線形と非線形モデルの違いと使い分け
https://dse-souken.com/2021/04/06/ai-13/#i-2

***SQL(構造化照会言語)でやってみよう データ分析と機械学習 AWS
''ML With Amazon Athena''
https://pages.awscloud.com/rs/112-TZM-766/images/20210325-03_Data-Analytics-SQL-ML.pdf

***遺伝的アルゴリズム(GA)を利用した単純パーセプトロンの自動重み最適化
障害物回避
https://github.com/Hilicot/Neural_Network_NEAT

***Variational Autoencoder(VAE) 変分オートエンコーダについての解説
https://qiita.com/kenmatsu4/items/b029d697e9995d93aa24

***ローカル環境でLLaMA、Gemmaを実行する方法 (RTX3060 12GB以上を推奨)
https://www.reddit.com/r/LocalLLaMA/comments/11o6o3f/how_to_install_llama_8bit_and_4bit/
https://github.com/oobabooga/text-generation-webui
NVIDIA 「Chat with RTX」を利用する方法もあります
https://www.nvidia.com/en-us/ai-on-rtx/chatrtx/

***スパイキングニューラルネット(SNN)を利用したドローンの衝突回避
https://github.com/BrainCog-X/Brain-Cog/tree/main/examples/decision_making/BDM-SNN

***Stable Diffusion GUI 拡散モデルを用いた画像生成をローカル上で実行
https://nmkd.itch.io/t2i-gui

[+]&size(17){''ニューラルネットワークの設計と構造、種類についての解説(SONY株式会社)''}
畳み込みニューラルネット(CNN)について
&youtube(http://www.youtube.com/?v=O3qm6qZooP0)
リカレントニューラルネットワーク(RNN)について
&youtube(http://www.youtube.com/?v=yvqgQZIUAKg)
ロングショートチームメモリ(LSTM)について
&youtube(https://www.youtube.com/?v=unE_hofrYrk)
敵対的生成ネットワーク(GAN)について
&youtube(https://www.youtube.com/?v=2rC2_-HtpsQ)
系列データモデリング (Transformer)という手法について
&youtube(http://www.youtube.com/?v=oVEkXMu4e-s)
[END]

''ホップフィールドネットワーク''がパターンを記憶する方法 @Layerwise Lectures
&youtube(http://www.youtube.com/?v=piF6D6CQxUw)
''生物学的ニューロンのミクロな動作原理と、人工ニューロンの動作の比較'' @Artem Kirsanov
&youtube(http://www.youtube.com/?v=hmtQPrH-gC4)
”Transformerの「注意機構」とは何なのか?その中身を数学的な観点から説明”@3Blue1Brown
&youtube(http://www.youtube.com/?v=wjZofJX0v4M)

どなたでも編集できます