Category: 機械学習・ディープラーニング
記事 (122)
-
AlpacaEval、AlpacaEval 2.0とは?LLMの指示追従性能を測る評価ベンチマークを解説
AlpacaEvalとAlpacaEval 2.0の概要、LLMの指示追従性能を比較する仕組みやwin rateなど主要指標をわかりやすく解説。
-
方策反復法とは?意味とベルマン方程式との関係について
方策反復法の意味を、強化学習における役割やMDPを前提とした仕組み、方策評価・方策改善の流れ、ベルマン方程式との関係とあわせて解説。
-
REINFORCEとは?方策勾配定理との関係をわかりやすく解説
REINFORCEの基本から、確率的方策で収益の期待値を最大化する仕組みと、方策勾配定理との関係をわかりやすく解説します。
-
方策勾配法と方策勾配定理の意味について解説
方策勾配法と方策勾配定理の意味を、強化学習における方策ベースと価値ベースの違いや期待収益の考え方とともにわかりやすく解説。
-
カリキュラム学習(Curriculum Learning)とは?簡単なことからAIを育てる方法
カリキュラム学習とは、簡単なデータから難しい課題へ段階的に学ばせる手法。仕組みやメリット、強化学習での活用をやさしく解説します。
-
方策評価と方策改善とは?強化学習の基本サイクルをわかりやすく解説
強化学習における方策評価と方策改善の意味、役割、違い、関係性を初心者向けに解説。価値関数とのつながりや最適な方策を導く基本サイクルがわかります。
-
Bellman方程式と状態価値関数、行動価値関数(Q関数)について
強化学習における状態価値関数と行動価値関数(Q関数)の定義、直感、Bellman方程式、両者の関係をわかりやすく整理して解説します。
-
RNN(Recurrent Neural Network:再帰型ニューラルネットワーク):時系列データの学習を支える仕組み
RNNの基本構造や隠れ状態の役割をやさしく解説。時系列データや文章を順序を保って学習できる仕組みを学べます。
2025-08-15 機械学習・ディープラーニング -
GRPO(Group Relative Policy Optimization)の “数式が言いたいこと” を噛み砕いてみる
GRPO(Group Relative Policy Optimization)の数式を直感的に解説。アドバンテージやグループ相対評価、PPOとの違いを噛み砕いて整理します。
2025-05-03 機械学習・ディープラーニング -
LLMにおける「reasoning」とは? — わかりやすく解説
LLMにおけるreasoning(推論)とは何かを、文章生成との違い、必要な理由、能力を高める工夫とあわせてわかりやすく解説します。
-
【Voice Conversion】So‑VITS‑SVC 4.1 Stable 実行メモ
声質だけを別人のものに変換するVoice Conversionの概要と、So‑VITS‑SVC 4.1 Stableの導入・実行手順を初心者向けに詳しく解説。
2025-04-28 機械学習・ディープラーニング -
長期記憶を持つ?言語モデルのアーキテクチャ「Titans」の革新性をわかりやすく解説
Titansの仕組みと革新性を解説。推論時の記憶を活用し、TransformerやRNN/LSTMの長期記憶と長文処理の課題をどう克服するかをわかりやすく紹介。
-
scikit-learnにおけるDBSCANの使い方と意味について
scikit-learnでDBSCANを使う方法と意味を解説。密度ベースのクラスタリングの特徴、epsとmin_samplesの役割、ノイズ判定までわかりやすく紹介。
-
ImportError: cannot import name 'load_metric' from 'datasets'の解決方法について
datasets 3.0.0以降でload_metricが使えずImportErrorになる原因と、evaluateライブラリへ移行してrougeを読み込む修正方法を解説。
-
ARモデル(自己回帰モデル、AutoRegressive model)の意味と性質について
ARモデルの意味と性質をわかりやすく解説。過去データから将来を予測する仕組み、基本式、係数、次数の考え方を学べます。
-
UltraFeedbackの意味と使い方について:生成されたフィードバックによる大規模言語モデルの強化
UltraFeedbackの意味と使い方を解説。AIが生成したフィードバックで人手のコストを抑えつつ、DPOなどを通じてLLMの性能を高める仕組みを紹介します。
-
大規模言語モデルの要約性能の評価指標の一覧について
大規模言語モデルの要約性能を評価する主要指標を解説。ROUGE、BLEU、METEORなどの特徴や長所・短所を一覧で整理します。
-
【8冊】推薦システムの書籍の一覧について
推薦システムの基礎やマトリクス分解、理論と実践を学べる日本語・英語のおすすめ書籍8冊を一覧で紹介します。
2024-12-21 機械学習・ディープラーニング -
PyTorchを利用したTensorBoardXの使い方について
PyTorchでTensorBoardXを使い、機械学習モデルの学習過程を可視化する方法を解説。インストール手順とSummaryWriterの基本的な使い方を紹介します。
-
N-gramの意味とnltkを利用した実装例について
N-gramの意味や基本的な考え方を、文字・単語単位の具体例とともに解説し、nltkを使った実装例まで紹介します。
-
【scikit-learn】ElasticNetの意味と使い方について
scikit-learnのElasticNetをわかりやすく解説。Lasso回帰とRidge回帰を組み合わせる意味、正則化の考え方、数式、使い方を学べます。
-
【Scikit-learn】線形回帰の意味と使い方について
Scikit-learnで線形回帰を使う方法を初心者向けに解説。意味や仕組み、予測モデルの作り方をPythonの例とともにわかりやすく紹介します。
-
【scikit-learn】回帰分析の評価指標について
scikit-learnで回帰分析モデルを評価する方法を解説。R²やRMSEなど代表的な評価指標の意味と計算方法を線形回帰の例でわかりやすく紹介。
-
【scikit-learn】リッジ回帰の意味と使い方について
scikit-learnでリッジ回帰の意味と使い方を解説。正則化の仕組みやαの役割、線形回帰との違い、実装の基本を初心者向けに紹介します。
-
【scikit-learn】ガウス混合モデル(GMM)の意味と使い方について
scikit-learnでガウス混合モデル(GMM)を使う方法を解説。特徴やk-meansとの違い、クラスタリングの基本手順をやさしく紹介します。
-
【scikit-learn】主成分分析(PCA)の意味と使い方について
主成分分析(PCA)の意味や考え方、次元削減で特徴を保つ仕組み、scikit-learnを使った実装方法をわかりやすく解説します。
-
Scikit-learnによるグリッドサーチとハイパーパラメータチューニングについて
Scikit-learnを使ったグリッドサーチで、決定木やSVMのハイパーパラメータを効率よく調整し、モデル精度を高める方法を解説します。
-
【scikit-learn】決定木による分類の意味と使い方について
決定木の基本構造や分類の考え方、scikit-learnを使った実装方法を初心者向けにわかりやすく解説します。
-
【scikit-learn】k近傍法(k-NN)の使い方と意味について
scikit-learnでk近傍法(k-NN)の意味と仕組み、分類の流れ、多数決による予測方法、基本的な実装の考え方をわかりやすく解説します。
-
【超入門】ChatGPTなどの言語モデルはなぜ嘘をついてしまうのか?わかりやすく話します
ChatGPTなどの言語モデルが嘘のような誤情報を出す理由を、ハルシネーションの例と確率的な仕組みから超入門向けに解説します。
-
LLM(大規模言語モデル)の軽量化の手法について
LLMの軽量化手法を解説。計算負荷やメモリ消費を抑える目的、リソース制約への対応、運用コスト削減、リアルタイム処理の利点を紹介。
-
【scikit-learn】モデルを保存・読み込みする方法について
scikit-learnで訓練済みモデルを保存・読み込みする方法を解説。再利用で学習時間を削減し、API活用や再現性確保にも役立ちます。
-
【scikit-learn】サポートベクターマシン(SVM)の使い方と意味について
scikit-learnでSVMの使い方と意味を解説。超平面、最大マージン、サポートベクター、カーネル法の基本をわかりやすく学べます。
-
【scikit-learn】ランダムフォレストの意味と使い方について
scikit-learnでランダムフォレストの意味や仕組み、分類・回帰での使い方を初心者向けにわかりやすく解説します。
-
【scikit-learn】ModuleNotFoundError: No module named 'sklearn'の解決方法について
Pythonで「ModuleNotFoundError: No module named 'sklearn'」が出る原因と、scikit-learnをインストールして解決する方法を解説します。
-
【scikit-learn】ラッソ回帰の意味と使い方について
ラッソ回帰の意味や特徴量選択の仕組み、L1正則化の数式、scikit-learnでの実装方法をわかりやすく解説します。
-
【scikit-learn】特徴量スケーリングの意味と使い方について
scikit-learnで特徴量スケーリングを行う意味と基本的な使い方を解説。異なる尺度のデータをそろえる必要性や、効果が高いケースをわかりやすく紹介します。
-
【scikit-learn】カテゴリー変数をエンコーディングする方法について
scikit-learnでカテゴリー変数を数値データに変換するエンコーディング方法を、必要性と代表的な手法を交えてわかりやすく解説します。
-
【scikit-learn】データを訓練データとテストデータに分割するtrain_test_splitについて
scikit-learnのtrain_test_splitで訓練データとテストデータを分割する方法を解説。データ分割の必要性や過学習を防ぐ考え方も学べます。
-
【ディープラーニング】密ベクトルと疎ベクトルの意味と例について
密ベクトルと疎ベクトルの違いを、ゼロ要素の多さという観点からわかりやすく解説。具体例や機械学習での使いどころも紹介します。
2024-11-23 機械学習・ディープラーニング -
α-divergence(アルファダイバージェンス)の意味と性質について
α-divergenceの意味を、定義式や式変形、2つの確率分布の違いを測る尺度としての性質、KLダイバージェンスとの関係とあわせて解説します。
-
JSダイバージェンスの意味と性質について
JSダイバージェンスの意味、定義式、KLダイバージェンスとの違い、対称性や確率分布間の類似度指標としての性質をわかりやすく解説。
-
大規模言語モデル(LLM)と語彙(vocabulary)の関係と意味について
LLMにおける語彙の意味をわかりやすく解説。単語・サブワード・文字レベルの違いや、トークナイザとの関係、未知語処理の考え方を学べます。
-
【デコーディング手法】top_p(nuclear sampling)の意味と使い方について
top_p(nuclear sampling)の意味や仕組み、確率分布から候補語を絞る方法、テキスト生成での使い方をわかりやすく解説します。
-
【深層学習】活性化関数Parametric ReLU (PReLU)の意味と性質について
Parametric ReLU(PReLU)の意味と性質を解説。ReLUとの違い、Dying ReLU問題を防ぐ仕組み、負の傾きを学習する特徴をまとめます。
2024-11-10 機械学習・ディープラーニング -
【Transformers】エラーValueError: Asking to pad but the tokenizer does not have a padding token. Please select a token to use as `pad_token`・・・・解決方法
Transformersで「padding tokenがない」と出るValueErrorの原因と解決方法を解説。pad_tokenの設定方法をコード付きで紹介します。
-
大規模言語モデルにおけるpadding_token[PAD]の意味について
大規模言語モデルや自然言語処理で使うpadding_token[PAD]の意味を解説。入力文の長さをそろえる役割や使い方をやさしく紹介します。
-
【Transformers】警告The attention mask and the pad token id were not set. As a consequence・・・の解決方法
Transformersでattention maskとpad token idが未設定と出る警告の原因と、text-generation時の正しい対処法を解説します。
-
【深層学習】単純パーセプトロンと論理演算(AND、OR、XOR)について
深層学習の基礎として、単純パーセプトロンの仕組みとAND・OR・XORの論理演算での扱いを通じ、線形分離の考え方を解説します。
2024-11-09 機械学習・ディープラーニング -
【深層学習】単純パーセプトロンの意味と学習について
単純パーセプトロンの意味や役割、二値分類の仕組み、入力・重み・バイアス・ステップ関数による学習の基本をやさしく解説します。
2024-11-09 機械学習・ディープラーニング -
【図解】計算グラフと誤差逆伝播法について
計算グラフの基本と、ニューラルネットワーク学習で使う誤差逆伝播法の仕組みを図解でわかりやすく解説します。
2024-11-08 機械学習・ディープラーニング -
【深層学習】Leaky ReLU(Leaky Rectified Linear Unit)の意味と性質について
Leaky ReLUの意味と性質を解説。ReLUとの違い、負の入力に反応する仕組み、dying ReLU問題を防ぐ特徴をわかりやすく紹介。
2024-10-28 機械学習・ディープラーニング -
【深層学習】Dying ReLU問題とReLU(Rectified Linear Unit)について
ReLU関数の仕組みと特徴、勾配消失を抑える利点、学習中にニューロンが停止するDying ReLU問題をわかりやすく解説します。
2024-10-28 機械学習・ディープラーニング -
【深層学習】ReLU(Rectified Linear Unit、ランプ関数)の意味と性質について
ReLU(Rectified Linear Unit)の定義をわかりやすく解説。入力が0未満で0、0以上でそのまま出力する性質と数式表現を学べます。
2024-10-27 機械学習・ディープラーニング -
【深層学習】活性化関数と非線形関数の意味について
深層学習における活性化関数の役割を解説。非線形性が必要な理由と、シグモイドやReLUなど代表的な関数の特徴を学べます。
2024-10-27 機械学習・ディープラーニング -
ニューラルネットワークの信号の伝達と順伝播(行列計算)について
ニューラルネットワークにおける信号の伝達と順伝播の仕組みを、入力層・隠れ層・出力層の流れや重み・バイアス、行列計算の役割とともにわかりやすく解説します。
2024-10-26 機械学習・ディープラーニング -
【入門・理論】深層学習について理解する
深層学習の仕組みやニューラルネットワークの基礎、画像認識・音声認識・自然言語処理への応用をわかりやすく解説します。
2024-10-19 機械学習・ディープラーニング -
【深層学習】ニューラルネットワーク(NN)の基礎知識について
ニューラルネットワーク(NN)の基礎を解説。脳の神経回路を模した仕組み、ディープニューラルネットワークとの違い、ノード・エッジ・重みの役割を学べます。
2024-10-19 機械学習・ディープラーニング -
Bradley–Terry modelの意味と例題、ロジスティック回帰について
Bradley–Terry modelの意味を、チームの強さから勝率を求める例題で解説し、ロジスティック回帰との関係もわかりやすく紹介します。
-
【Transformers】温度(temperature)の意味とは?ソフトマックス関数の調整について
Transformersのtemperatureがテキスト生成のランダムさをどう変えるのかを、softmax関数による確率分布の調整から解説します。
-
【PyTorch】MNISTを学習させて手書き文字認識、画像分類を行う方法
PyTorchでMNISTデータセットを学習し、手書き数字の認識と画像分類を行う方法を解説。予測ラベルと正解ラベルの確認手順も紹介。
-
【PyTorch】nn.Moduleとモデルの構築と使い方について
PyTorchのnn.Moduleの役割と基本的な使い方を解説。継承によるモデル定義、レイヤーの宣言、構築手順を初心者向けに紹介します。
-
【Transformers】AutoModelForCausalLMの意味と使い方について
TransformersのAutoModelForCausalLMとは何かを解説。因果的言語モデルの意味、特徴、テキスト生成での使い方をわかりやすく紹介。
-
【Transformers】LLMにおける文脈的なlogitの意味
logitの基本定義から、ロジスティック回帰での使われ方、LLMでの文脈的な意味の違いまでをわかりやすく解説します。
-
【機械学習】教師なし学習とは?主な手法と特徴、応用例について
教師なし学習の基本を解説。ラベルなしデータからパターンや構造を見つける特徴、クラスタリングなど主な手法、応用例をわかりやすく紹介。
2024-10-09 機械学習・ディープラーニング -
【機械学習】教師あり学習とは?分類と回帰問題について
教師あり学習の基本を解説。ラベル付きデータで入力と出力の関係を学び、分類問題と回帰問題の違いを具体例でわかりやすく紹介します。
2024-10-09 機械学習・ディープラーニング -
機械学習とは?機械学習の種類と応用分野について
機械学習の基本概念をやさしく解説し、教師あり学習・教師なし学習などの種類と代表的な応用分野を紹介します。
2024-10-08 機械学習・ディープラーニング -
CVPRとは?ゆるーくわかりやすく解説
CVPRの意味や役割を、コンピュータビジョン・パターン認識・生成AIの例を交えてゆるくわかりやすく解説します。
-
【Hugging Face】Transformersのインストール方法について
Hugging FaceのPythonライブラリTransformersのインストール方法を解説。前提条件の確認から導入手順までわかりやすく紹介します。
-
【Hugging Face】ライブラリTransformersについて
Hugging FaceのTransformersライブラリの概要を解説。BERTやGPTなどの事前学習済みモデル、NLP・画像・音声タスクへの活用法や特徴をわかりやすく紹介します。
-
【入門・実践】Hugging Face、Transformersライブラリの使い方について
2024-10-07 機械学習・ディープラーニング -
【PyTorch】Tensorの統計量、平均、分散、標準偏差について
PyTorchでTensorの合計・平均・分散・標準偏差を計算する方法を解説。sum()やmean()などの基本的な統計量の求め方をサンプルコード付きで紹介します。
-
【PyTorch】形状の操作とブロードキャスティングについて
PyTorchでテンソルの形状を操作する方法とブロードキャスティングの基本を解説。view()によるリサイズや次元の追加・削除を例付きで学べます。
-
【PyTorch】Tensorの基本的な算術演算、行列演算について
PyTorchでTensorに対する加算・減算・乗算・除算などの基本的な算術演算と、行列演算の使い方をコード例付きでわかりやすく解説します。
-
【PyTorch】Autogradで自動微分する方法について
PyTorchのAutogradで自動微分を行う方法を解説。計算グラフの仕組みやrequires_grad=Trueの使い方、勾配計算の基本がわかります。
-
PyTorchの基本要素(Tensor、Autograd、nn、Dataset)のまとめについて
PyTorchの基本要素であるTensor、Autograd、nn、Datasetの役割と特徴を、テンソルやGPU計算の基礎からわかりやすく整理して解説します。
-
【windows】CPU、GPU版のPyTorchの環境構築の方法について
WindowsでPyTorchを使うための環境構築手順を解説。CPU版とGPU版それぞれの準備、Python、Visual Studio、CUDA、cuDNNの導入までまとめます。
-
【PyTorch】CPUとGPU上にTensorを作成する方法について
PyTorchでCPUとGPU上にTensorを作成する方法を解説。リストやNumPy配列からの生成、ゼロ・一定値での初期化、基本的な使い方を学べます。
-
深層学習フレームワークのPytorchとは?活用事例や背景について
Metaが開発した深層学習フレームワークPyTorchの概要を解説。歴史や背景、柔軟性、GPU対応などの特徴と活用事例を紹介します。
-
meta-llama/Llama-3.2-1Bの使い方について【天ぷらが好きか聞くと・・・】
Metaの軽量言語モデルLlama-3.2-1Bの特徴、対応言語、利用許可の取得方法、Hugging Faceでの使い方を解説します。
-
線形回帰と最小二乗法による回帰係数の推定について
線形回帰の基本を解説。単回帰と多重線形回帰の違い、回帰モデルの式、最小二乗法で回帰係数を推定する考え方をやさしく学べます。
2024-09-17 機械学習・ディープラーニング -
scikit-learnのデータセットの読み込みの使い方!sklearn.datasetsについて
scikit-learnで使えるデータセットの種類や特徴、toyデータセット・実世界データセット・外部データの読み込み方を初心者向けに解説します。
-
scikit-learnとは?機能や使い方・できることについて解説!
scikit-learnの特徴や使い方、できることを初心者向けに解説。Pythonで使える機械学習ライブラリの機能をわかりやすく紹介します。
-
トイプロブレムと第一次AIブームについて
トイプロブレムの意味と、第一次AIブームで単純な問題設定が重視された背景、現実の複雑な課題に弱かった限界を解説します。
2024-09-13 機械学習・ディープラーニング -
ロジスティック回帰と分類問題・流れ・ロジット・偏回帰係数について
ロジスティック回帰の基本を、分類問題の流れ、ロジット、偏回帰係数、シグモイド関数とともにわかりやすく解説します。
2024-09-13 機械学習・ディープラーニング -
機械学習のまとめ
機械学習の概要から歴史、教師あり・教師なし・強化学習の種類、代表的な手法、評価・解釈性までを体系的にまとめた記事。
2024-09-11 機械学習・ディープラーニング -
自然言語処理とコーパス・具体例について
コーパスとは何かを、自然言語処理や言語学での役割、特徴、注釈付きコーパスや専用コーパス、具体例とあわせてわかりやすく解説します。
-
NLTKとWordNetの基本的な使い方・類義語について
NLTKでWordNetを使う基本を解説。インストール方法から、Synsetで単語の意味・類義語・反意語を調べる方法まで紹介します。
-
MDPの定義・具体例・状態価値関数・方策・練習問題について
MDPの定義を、状態・行動・遷移確率・報酬の4要素から解説し、具体例や状態価値関数、方策、練習問題まで学べる記事です。
-
強化学習について
強化学習の基礎から、バンディット問題、MDP、ベルマン方程式、方策反復、DQN、方策勾配法、PPO、応用例までを体系的に整理。
2024-09-01 機械学習・ディープラーニング -
強化学習とバンディット問題・練習問題について
強化学習の基礎としてバンディット問題の問題設定を解説。環境・エージェント・行動の定義や考え方を練習問題とともに学べます。
-
自然言語処理とシソーラスについて
シソーラスの意味や役割、自然言語処理での活用、意味のあいまいさや最新語彙への対応の課題、WordNetなどの代表例を解説します。
2024-08-30 機械学習・ディープラーニング -
自然言語処理と分布仮説について
分布仮説とは何かを自然言語処理の視点で解説。単語の意味が文脈や共起に依存する考え方を、具体例とともにわかりやすく紹介します。
-
自然言語処理(NLP)について
自然言語処理(NLP)の概要をわかりやすく整理。言語モデル、N-gram、Word2Vec、BERT/GPT、形態素解析、感情分析、LLMの基礎を俯瞰します。
2024-08-29 機械学習・ディープラーニング -
「Gemma-2-9B」の力を試す!アニメと数学についてGoogleのAIに質問してみた
GoogleのAI「Gemma-2-9B」にアニメと数学について質問し、その応答から性能や特徴、pythonでの実行環境を紹介する記事。
-
PythonでDatasetsのmapメソッドを使ったデータ整形の方法
PythonのDatasetsライブラリでmapメソッドを使い、データセットの各サンプルに関数を適用して前処理・データ整形する基本手順を解説します。
-
交差エントロピーの数式解説!機械学習における重要性
交差エントロピーの意味や数式、真の分布と予測分布の関係、分類問題で機械学習に重要な理由をわかりやすく解説します。
-
KLダイバージェンス(Kullback-Leibler Divergence)!基礎から実際の計算まで
KLダイバージェンスの意味・定義・別名をわかりやすく解説し、離散型確率分布の式と計算の考え方まで基礎から学べる記事です。
-
数学に特化した言語モデル!NuminaMath-7B-TIRグラフの表示や数学の問題を解く
NuminaMath-7B-TIRの概要や特徴、数式生成・数学的推論・問題解決への活用、Pythonでのグラフ表示や数学問題の解き方を紹介します。
-
ValueError: The checkpoint you are trying to load has model type `gemma2` but Transformers does not recognize this architecture.の解決方法!gemma2の読み込み
Transformersでgemma2読み込み時に発生する「model type 'gemma2'を認識しない」エラーの原因と、アップデートによる解決方法を解説します。
-
meta-llama/Meta-Llama-3-8Bの使い方!導入から活用までの徹底解説
Meta-Llama-3-8Bの特徴、Hugging Faceでの導入手順、Pythonによる実行方法、活用例までをわかりやすく解説します。
-
Ultralytics YOLOv10とFlaskで作る物体検知アプリ
UltralyticsのYOLOv10とFlaskで、画像アップロードから結果表示まで行う物体検知アプリの作り方を解説します。
-
YOLOv10で鳥を見つけよう!Ultralyticsを使用した物体検出
YOLOv10の概要やモデルの種類を紹介し、Ultralyticsを使って鳥画像の物体検出を試す手順をわかりやすく解説します。
-
bert-base-japanese-v2の使い方!MASKされた日本語を推測する
東北大学開発の日本語BERT「bert-base-japanese-v2」の特徴と、MASKされた語を推測するMLMの使い方をやさしく解説。
-
huggingfaceの.cacheの肥大化!シンボリックリンクで解決!
Hugging Faceの.cache肥大化対策として、Windows 11でキャッシュを大容量ドライブへ移し、シンボリックリンクで運用する手順を解説します。
-
Flaskで始める固有表現抽出!SpaCyとGiNZAを使った固有表現抽出(ner)の作り方!
Flaskで固有表現抽出を始めたい人向けに、SpaCyとGiNZAを使ったNERの基本、抽出対象、人名・地名・組織名を判定するアプリの作り方を解説します。
-
数値微分の基本!前進差分法、後退差分法、および中心差分法について
数値微分の基本として、前進差分法・後退差分法・中心差分法の考え方と違いを、機械学習での活用例も交えてわかりやすく解説します。
-
勾配法について!関数の最小値をpythonで求める
勾配法の基本手順や学習率・更新式をわかりやすく解説し、pythonで関数の最小値を求める方法を紹介します。
-
勾配(gradient)について!意味とディープラーニングへの応用について
勾配の意味を、偏微分からなるベクトルとして基礎から解説。特徴を整理し、ディープラーニングでの学習や最適化への応用もわかりやすく紹介します。
-
deepsetのbert-large-uncased-whole-word-masking-squad2の使い方!Question Answering
deepsetのbert-large-uncased-whole-word-masking-squad2の特徴と、SQuAD2.0で学習されたBERT系QAモデルの使い方を解説します。
-
bert-large-uncased を使ってみよう!MLMを試す!
bert-large-uncasedの特徴と使い方を解説。336M paramsの英語事前学習BERTで、MLMによるマスク予測を試します。
-
bert-base-casedの使い方!Case Sensitiveを確認する!
bert-base-casedの使い方を解説。BERTの基本、MLMの仕組み、bert-base-uncasedとの違い、Case Sensitiveの挙動を分かりやすく確認します。
-
bert-base-uncasedの使い方!マスクされた単語を推測する!
bert-base-uncasedの特徴と使い方を解説。BERTの基本、MLMによるマスク単語予測、transformersでの実装例を紹介。
-
ソフトマックス(softmax)関数について解説!具体的に計算する!
ソフトマックス関数の概要と定義、分類問題で各クラスの確率に変換する仕組みを、具体例と計算を交えてわかりやすく解説します。
-
【Transformers】SwallowをHugging Faceで使う方法
日本語特化LLM「Swallow」の特徴やモデル種類をふまえ、Hugging FaceとTransformersで使う方法をわかりやすく紹介します。
-
スパコン「富岳」で学習したFugaku LLMをHugging Faceからダウンロードして使う方法
スパコン「富岳」で学習された日本語LLM「Fugaku LLM」を、Hugging Faceから認証トークン取得後にダウンロードして使う方法を解説。
-
PythonのTransformersライブラリでできること!pipelineの使い方について解説!
PythonのTransformersライブラリでpipelineを使い、感情分析などの自然言語処理タスクを簡単に実行する方法をわかりやすく解説します。
-
シグモイド関数と微分・グラフについて
シグモイド関数の定義、微分の求め方、導関数をシグモイド関数で表す形、グラフの特徴をわかりやすく解説します。
-
アノテーションツール「Label Studio」の導入方法!Anaconda使用
AnacondaでLabel Studioを導入する手順を解説。仮想環境の作成、必要パッケージのインストール、起動方法までまとめます。
-
PyTorchにおけるモデルの保存と読み込み!2つの方法
PyTorchで学習済みモデルを保存・読み込む2つの方法を解説。モデル全体の保存と、state_dictを使ったパラメーター保存の手順を紹介します。
-
UCS(均一コスト探索)について解説!経路探索の例付き
UCS(均一コスト探索)の仕組みを、評価関数f(n)=g(n)の意味やbest-first searchとの関係、経路探索の具体例とともにわかりやすく解説します。
2023-08-06 機械学習・ディープラーニング -
Bayesian Networksのd-separation
Bayesian Networksのd-separationを解説。条件付き独立の判定方法を、chain・fork・v-structureの3種類と証明の考え方で整理します。
2023-08-04 機械学習・ディープラーニング