1. ハードウェアトポロジとメモリ構造
1.1. NUMA の構造
1.1.1. NUMA ノードとメモリ階層
1.1.2. ローカルアクセスとリモートアクセス
1.2. リソースの物理配置
1.2.1. PCIe / NIC / NVMe の NUMA 配置
1.2.2. DMA / IOMMU(I/O の物理基盤)
1.3. CPU / メモリの物理特性
1.3.1. CPU キャッシュ階層(L1/L2/L3)
1.3.2. メモリ帯域 / レイテンシ
2. 仮想化アーキテクチャの基礎
2.1. ハイパーバイザの構造
2.1.1. Type1 / Type2
2.1.2. VT-x / AMD-V
2.1.3. EPT / NPT(2nd Stage Translation)
2.2. 仮想化方式のトレードオフ
2.2.1. フル仮想化
2.2.2. パラバーチャライゼーション
2.2.3. エミュレーション
3. CPU スケジューリングと計算資源管理
3.1. CPU スケジューラの基礎
3.1.1. CFS / RT / NOHZ の構造
3.1.2. タイムスライス / コンテキストスイッチ
3.1.3. vCPU / pCPU モデル
3.2. 割り込み制御
3.2.1. IRQ / MSI-X
3.2.2. APIC / interrupt steering
3.3. CPU ピニングとアイソレーション
3.3.1. vCPU ピニング
3.3.2. isolcpus / nohz_full
3.3.3. スレッド分離(I/O / アプリ)
4. メモリ管理
4.1. ページとアドレス空間
4.1.1. ページング / 仮想メモリ
4.1.2. NUMA のメモリアロケーション(応用)
4.2. Hugepage の適用
4.2.1. 2MB / 1GB Hugepage
4.2.2. Transparent Hugepage の制御
4.2.3. ホスト / ゲストの Hugepage 整合性
4.3. メモリ共有とオーバーコミット
4.3.1. KSM(Kernel Samepage Merging)
4.3.2. バルーニング
4.3.3. メモリのオーバーコミット戦略
5. I/O 共通機構と抽象化
5.1. I/O の物理基盤(共通概念)
5.1.1. DMA と IOMMU の本質
5.1.2. IRQ と I/O パスの関係
5.2. virtio アーキテクチャ
5.2.1. 抽象化レイヤとしての virtio
5.2.2. virtqueue / vring の構造
5.3. 割り込み抑制 / 最適化
5.3.1. NAPI(割り込み抑制の共通概念)
5.3.2. interrupt coalescing
5.3.3. poll モデル(DPDK への前提)
6. ストレージ I/O
6.1. 仮想ディスクモデル
6.1.1. raw / qcow2 の構造と性能
6.1.2. キャッシュ戦略(writeback / none / directsync)
6.2. ホスト I/O パス
6.2.1. io_uring
6.2.2. I/O スケジューラ(none / mq-deadline / bfq)
6.2.3. NVMe / LVM / ZFS の最適化
7. ネットワーク I/O と高速化アーキテクチャ
7.1. Linux ネットワークスタック
7.1.1. softirq とパケット処理
7.1.2. RPS / RFS / XPS
7.2. 仮想ネットワークモデル
7.2.1. virtio-net
7.2.2. vhost-net / vhost-user
7.3. 限界性能の突破
7.3.1. SR-IOV
7.3.2. PCI Passthrough
7.3.3. DPDK(カーネルバイパス)
8. 総合最適化
8.1. IRQ・NUMA の総合最適化
8.1.1. NIC × NUMA × IRQ の配置戦略
8.1.2. IRQ affinity の最適化
8.2. ホスト OS の制御
8.2.1. sysctl の役割
8.2.2. cgroup / cpuset によるリソース保証
8.2.3. バックグラウンド処理の抑制
8.3. ワークロード別最適化
8.3.1. NFV(レイテンシ最優先)
8.3.2. DB(I/O 特性最適化)
8.3.3. HPC(計算・メモリ帯域)
VM パフォーマンス最適化


