diff --git a/proxmox/PROXMOX_INVENTAR_PBS.md b/proxmox/PROXMOX_INVENTAR_PBS.md index 54f2754..681bea3 100644 --- a/proxmox/PROXMOX_INVENTAR_PBS.md +++ b/proxmox/PROXMOX_INVENTAR_PBS.md @@ -1,5 +1,75 @@ -# Proxmox Inventar - PBS +# Proxmox Inventar: prw-sv-backup (Proxmox Backup Server) -> Siehe Projektdatei PROXMOX_INVENTAR_PBS.md für Details +> **Inventarisiert:** 2026-02-13 +> **Methode:** PBS Web-UI + Shell (Chrome MCP) -Platzhalter - wird mit Inhalt aus dem Claude Project befüllt. \ No newline at end of file +--- + +## 1. Host-Hardware + +| Eigenschaft | Wert | +|---|---| +| **Hostname** | prw-sv-backup | +| **IP-Adresse** | 10.10.90.100 | +| **Hersteller / Modell** | Wortmann AG / TERRA SERVER | +| **CPU** | Intel Xeon E-2134 @ 3.50 GHz | +| **Sockets / Cores / Threads** | 1 Socket, 4 Cores, 8 Threads | +| **RAM** | 64 GB (62.65 GiB nutzbar) | +| **RAM-Auslastung** | 52.88% (33.13 GiB belegt) | +| **PBS Version** | 3.4.8 | +| **Kernel** | Linux 6.8.12-17-pve (2025-11-21) | +| **Boot-Modus** | Legacy BIOS | +| **Subskription** | ❌ Keine gültige Subskription | + +### Zweck + +**Zentraler Backup-Server** — empfängt Backups von allen Proxmox VE Hosts (pve01, pve04, pve05) über PBS-Protokoll und kann Tape-Backups auf LTO-Laufwerke schreiben. Einziger dedizierter Server (nicht Mini-PC) in der Infrastruktur. + +--- + +## 2. Storage + +### 2.1 Physische Disks (10 Laufwerke) + +| Gerät | Größe | Modell | Typ | Verwendung | +|---|---|---|---|---| +| nvme0n1 | 238.5 GB | SPCC M.2 PCIe SSD | NVMe SSD | rpool (Mirror #1) | +| nvme1n1 | 232.9 GB | Crucial CT250P2SSD8 | NVMe SSD | rpool (Mirror #2) | +| sda | 3.6 TB | Seagate IronWolf 4TB | HDD | prw_zfs_backup01 mirror-0 | +| sdb | 3.6 TB | Seagate IronWolf 4TB | HDD | prw_zfs_backup01 mirror-0 | +| sdc | 3.6 TB | WD Red Pro 4TB | HDD | prw_zfs_backup01 mirror-1 | +| sdd | 3.6 TB | WD Red 4TB | HDD | prw_zfs_backup01 mirror-1 | +| sde | 1.8 TB | WD Green 2TB | HDD | prw_zfs_backup03 mirror-0 | +| sdf | 1.8 TB | WD Green 2TB | HDD | prw_zfs_backup03 mirror-0 | +| sdg | 14.6 TB | Seagate Exos 16TB | HDD | prw_zfs_backup02 mirror-0 | +| sdh | 14.6 TB | Seagate Exos 16TB | HDD | prw_zfs_backup02 mirror-0 | + +### 2.2 ZFS Pools + +| Pool | Typ | Gesamtgröße | Belegt | Frei | Belegt % | Status | +|---|---|---|---|---|---|---| +| **rpool** | mirror (2× NVMe) | 230 GB | 12.2 GB | 218 GB | 5% | ✅ ONLINE | +| **prw_zfs_backup01** | 2× mirror (4× HDD) | 7.25 TB | 382 GB | 6.88 TB | 5% | ✅ ONLINE | +| **prw_zfs_backup02** | mirror (2× HDD) | 14.5 TB | 705 GB | 13.9 TB | 4% | ✅ ONLINE | +| **prw_zfs_backup03** | mirror (2× HDD) | 1.81 TB | 171 GB | 1.65 TB | 9% | ✅ ONLINE | + +**Gesamt Backup-Kapazität:** ~23.56 TB (davon ~1.26 TB belegt) + +--- + +## 3. Tape-Backup + +⚠️ **KRITISCH:** Tape-Jobs hängen seit 11+ Tagen (Stand: 13.02.2026) + +- 2 Band-Backup-Jobs (daily + weekly) für prw_zfs_backup01 blockiert seit 02.02.2026 +- 0 erfolgreiche Tape-Backups in 30 Tagen +- Alle 3 bekannten Medien (ND3161, ND2810, ND3051) sind "offline" + +--- + +## 4. Auffälligkeiten + +1. **Tape-Jobs blockiert** — Sofortige Klärung erforderlich +2. **Kein Off-Site-Backup** — Alle Daten im selben LAN +3. **Bond-Modus balance-rr** — Ohne Switch-seitiges LACP suboptimal +4. **NVMe Verschleiß 24%** — Monitoring einrichten diff --git a/proxmox/PROXMOX_INVENTAR_PVE04.md b/proxmox/PROXMOX_INVENTAR_PVE04.md index b63af64..477ac53 100644 --- a/proxmox/PROXMOX_INVENTAR_PVE04.md +++ b/proxmox/PROXMOX_INVENTAR_PVE04.md @@ -1,5 +1,111 @@ -# Proxmox Inventar - PVE04 +# Proxmox Inventar: prw-sv-pve04 -> Siehe Projektdatei PROXMOX_INVENTAR_PVE04.md für Details +> **Inventarisiert:** 2026-02-13 +> **Methode:** Proxmox Web-UI + Shell (Chrome MCP) -Platzhalter - wird mit Inhalt aus dem Claude Project befüllt. \ No newline at end of file +--- + +## 1. Host-Hardware + +| Eigenschaft | Wert | +|---|---| +| **Hostname** | prw-sv-pve04 | +| **IP-Adresse** | 10.10.90.104 | +| **Hersteller / Modell** | Fujitsu ESPRIMO Q958 (Mini-PC / Small Form Factor) | +| **CPU** | Intel Pentium Gold G5400 @ 3.70 GHz | +| **Sockets / Cores / Threads** | 1 Socket, 2 Cores, 4 Threads | +| **RAM** | 16 GB (15.37 GiB nutzbar) | +| **RAM-Auslastung** | 36.88% (5.64 GiB belegt) | +| **SWAP** | 7.5 GiB (nahezu ungenutzt) | +| **Proxmox VE Version** | 9.1.5 | +| **Kernel** | Linux 6.17.2-2-pve (2025-11-26) | +| **Boot-Modus** | EFI (OVMF) | +| **Cluster** | KEIN Cluster (Standalone) | + +### Zweck + +**Dedizierter Smart Home Hub** — betreibt ausschließlich Home Assistant OS als QEMU-VM mit durchgereichten USB-Geräten für Z-Wave und Zigbee Smart Home Steuerung. + +--- + +## 2. Storage + +### 2.1 Physische Disks + +| Gerät | Typ | Größe | Modell | S.M.A.R.T. | Verschleiß | +|---|---|---|---|---|---| +| /dev/nvme0n1 | NVMe | 256.06 GB | Patriot M.2 P300 256GB | PASSED | 4% | + +### 2.2 LVM Volume Group + +| VG | PVs | LVs | VSize | VFree | +|---|---|---|---|---| +| pve | 1 | 5 | 237.47 GB | 16.00 GB | + +### 2.3 Storage-Konfiguration + +| Name | Typ | Kapazität | Belegt | Inhalt | +|---|---|---|---|---| +| local | dir (/var/lib/vz) | 67.85 GiB | 28.42% | vztmpl, backup, iso | +| local-lvm | LVM-Thin (data/pve) | 141.59 GiB | 7.88% | rootdir, images | +| prw-zfs-backup01 | PBS (remote) | ~7.3 TiB | 5.22% | backup | + +--- + +## 3. Virtuelle Maschinen + +### VM 115: prw-sv-haos (Home Assistant OS) + +| Eigenschaft | Wert | +|---|---| +| **VMID** | 115 | +| **Name** | prw-sv-haos | +| **Status** | ✅ Running | +| **OS-Typ** | Linux | +| **BIOS** | OVMF (UEFI) | +| **CPU** | 2 Cores (host passthrough) | +| **RAM** | 4096 MB (4 GB) | +| **Boot-Disk** | scsi0: local-lvm, 32 GB | +| **Netzwerk** | net0: virtio auf vmbr0 | +| **Autostart** | Ja | +| **Tags** | linux | + +### USB-Passthrough (Smart Home Geräte) + +| USB-Slot | Gerät | Zweck | +|---|---|---| +| usb0 | Future Technology Devices FT232 Serial | Serieller Adapter | +| usb1 | Silicon Labs CP210x UART Bridge | Zigbee/Seriell Adapter | +| usb2 | Silicon Labs CP210x UART Bridge | Zigbee/Seriell Adapter | +| usb3 | Sigma Designs Aeotec Z-Stick Gen5 (ZW090) | **Z-Wave Controller** | +| usb4-5 | SPICE | USB Redirection | + +--- + +## 4. Netzwerk + +| Bridge | IP-Adresse | Gateway | Ports | Zweck | +|---|---|---|---|---| +| vmbr0 | 10.10.90.104/24 | 10.10.90.1 | eno1 | Management + VM-Netzwerk | + +Keine SDN-Konfiguration. Keine VLANs. Einfaches Flat-Network. + +--- + +## 5. Backup-Jobs + +| Eigenschaft | Wert | +|---|---| +| **Zeitplan** | Täglich um 02:00 | +| **Modus** | Snapshot | +| **Ziel-Storage** | prw-zfs-backup01 (PBS @ 10.10.90.100) | +| **VMs** | 115 (prw-sv-haos) | +| **Retention** | keep-last=7 | + +--- + +## 6. Auffälligkeiten + +1. **Mini-PC als Server:** Fujitsu ESPRIMO Q958, kein RAID, Single-Disk, Single-NIC +2. **Kein Cluster:** Standalone-Server +3. **Nur 1 VM:** Gesamter Host für eine einzelne Home Assistant VM diff --git a/proxmox/PROXMOX_INVENTAR_PVE05.md b/proxmox/PROXMOX_INVENTAR_PVE05.md index 0d7e31a..066e44c 100644 --- a/proxmox/PROXMOX_INVENTAR_PVE05.md +++ b/proxmox/PROXMOX_INVENTAR_PVE05.md @@ -1,5 +1,85 @@ -# Proxmox Inventar - PVE05 +# Proxmox Inventar: prw-sv-pve05 -> Siehe Projektdatei PROXMOX_INVENTAR_PVE05.md für Details +> **Inventarisiert:** 2026-02-13 +> **Methode:** Proxmox Web-UI + Shell (Chrome MCP) -Platzhalter - wird mit Inhalt aus dem Claude Project befüllt. \ No newline at end of file +--- + +## 1. Host-Hardware + +| Eigenschaft | Wert | +|---|---| +| **Hostname** | prw-sv-pve05 | +| **IP-Adresse** | 10.10.90.105 | +| **Hersteller / Modell** | Fujitsu ESPRIMO Q956 (Mini-PC / Small Form Factor) | +| **CPU** | Intel Core i3-6100T @ 3.20 GHz | +| **Sockets / Cores / Threads** | 1 Socket, 2 Cores, 4 Threads | +| **RAM** | 8 GB (7.53 GiB nutzbar) | +| **RAM-Auslastung** | 73.62% (5.54 GiB belegt) — ⚠️ HOCH | +| **SWAP** | 7.5 GiB (1.64% genutzt) | +| **Proxmox VE Version** | 9.1.5 | +| **Kernel** | Linux 6.17.2-2-pve (2025-11-26) | +| **Boot-Modus** | EFI | +| **Cluster** | KEIN Cluster (Standalone) | + +### Zweck + +**Sekundärer Windows Domain Controller** — betreibt einen redundanten AD Domain Controller (DC02) als Failover/Replikationspartner zu DC01 auf pve01 (VM 401). Platziert auf separatem physischem Host für Hardware-Redundanz. + +--- + +## 2. Storage + +### 2.1 Physische Disks + +| Gerät | Typ | Größe | Modell | S.M.A.R.T. | Verschleiß | Betriebsstunden | +|---|---|---|---|---|---|---| +| /dev/nvme0n1 | NVMe | 250 GB | Crucial CT250P2SSD8 (P2) | OK | ⚠️ **33%** | 21.504 h (~2,5 Jahre) | + +### 2.2 Storage-Konfiguration + +| Name | Typ | Kapazität | Belegt | Inhalt | +|---|---|---|---|---| +| local | dir (/var/lib/vz) | 66.47 GiB | 23.25% | backup, vztmpl, iso | +| local-lvm | LVM-Thin (data/pve) | 137.46 GiB | 42.99% | images, rootdir | +| prw-zfs-backup01 | PBS (remote) | ~7.3 TiB | 5.22% | backup | + +--- + +## 3. Virtuelle Maschinen + +### VM 403: prw-sv-dc02 (Domain Controller 2) + +| Eigenschaft | Wert | +|---|---| +| **VMID** | 403 | +| **Name** | prw-sv-dc02 | +| **Status** | ✅ Running | +| **OS** | Windows Server | +| **CPU** | 2 Cores | +| **RAM** | 4096 MB | +| **Boot-Disk** | 120 GB (49.24% belegt) | +| **Netzwerk** | VLAN 40 (AD Domain) | +| **Autostart** | Ja | + +--- + +## 4. Backup-Jobs + +| Eigenschaft | Wert | +|---|---| +| **Zeitplan** | Täglich um 01:00 | +| **Modus** | suspend ⚠️ | +| **Ziel-Storage** | prw-zfs-backup01 (PBS) | +| **VMs** | 403 (prw-sv-dc02) | +| **Retention** | keep-last=7 | + +⚠️ **Suspend-Modus:** DC02 wird jede Nacht ~2 Min pausiert. Kerberos, DNS, LDAP fallen kurz aus. Umstellung auf Snapshot empfohlen. + +--- + +## 5. Auffälligkeiten + +1. **NVMe Verschleiß 33%** — In 2-3 Jahren Ersatz einplanen +2. **RAM 73% belegt** — Knapp bei nur 8 GB +3. **Backup-Modus suspend** — Verursacht kurzen Ausfall des Domain Controllers diff --git a/proxmox/PROXMOX_RUECKFRAGEN.md b/proxmox/PROXMOX_RUECKFRAGEN.md index 1ecf8ae..c4a7274 100644 --- a/proxmox/PROXMOX_RUECKFRAGEN.md +++ b/proxmox/PROXMOX_RUECKFRAGEN.md @@ -1,5 +1,75 @@ -# Proxmox Rückfragen +# Proxmox Inventarisierung — Offene Rückfragen -> Siehe Projektdatei PROXMOX_RUECKFRAGEN.md für Details +**Stand:** 13. Februar 2026 +**Bezug:** Inventar aller Hosts abgeschlossen (pve01, pve04, pve05, PBS) -Platzhalter - wird mit Inhalt aus dem Claude Project befüllt. \ No newline at end of file +--- + +## Inventarisierungs-Status + +- [x] **prw-sv-pve01** (10.10.90.101) — Haupt-Hypervisor +- [x] **prw-sv-pve04** (10.10.90.104) — Smart Home Hub +- [x] **prw-sv-pve05** (10.10.90.105) — DC02 Redundanz +- [x] **prw-sv-backup** (10.10.90.100) — Proxmox Backup Server + +--- + +## 🔴 Kritische Rückfragen + +### Backup & Datensicherheit + +| # | Frage | Quelle | Kontext | +|---|---|---|---| +| R-01 | **Tape-Jobs hängen seit 11+ Tagen — müssen sie abgebrochen werden?** | PBS | 2 Band-Backup-Jobs blockiert seit 02.02.2026. 0 erfolgreiche Tape-Backups in 30 Tagen. | +| R-02 | **Werden Tapes regelmäßig gewechselt? Wer ist zuständig?** | PBS | Alle 3 Medien "offline". Jobs warten auf Medium. | +| R-03 | **Off-Site-Backup-Strategie?** | ALLE | Sämtliche Backups im selben LAN. Bei Brand/Diebstahl: Totalverlust. | +| R-04 | **DC02-Backup von "suspend" auf "snapshot" umstellen?** | pve05 | Windows DC wird jede Nacht ~2 Min pausiert. | + +--- + +## ⚠️ Wichtige Rückfragen + +### Netzwerk / VLANs + +| # | Frage | Kontext | +|---|---|---| +| R-05 | Wofür wird **VLAN 30** genutzt? | Definiert aber kein Traffic | +| R-06 | Wofür wird **VLAN 70** genutzt? | Definiert aber kein Traffic | +| R-07 | Wofür wird **VLAN 179** genutzt? | Definiert aber kein Traffic | +| R-08 | Wofür wird **VLAN 180** genutzt? | Nur auf pve01 | +| R-09 | Existiert **VLAN 182** auf dem UDM? | In Doku erwähnt, kein SDN-VNet | +| R-10 | **Bond-Modus balance-rr auf PBS** — absichtlich? | 802.3ad (LACP) wäre robuster | + +### Windows AD / Domain + +| # | Frage | Kontext | +|---|---|---| +| R-11 | **Repliziert DC02 korrekt mit DC01?** | Beide DCs auf separater Hardware | +| R-12 | Welche **Shares auf fs01 vs. fs02**? | VM 402 + VM 404, kein Hardware-Failover | +| R-13 | Kann **VM 310 (Win7)** gelöscht werden? | Gestoppt, Sicherheitsrisiko | + +### Backup-Konfiguration + +| # | Frage | Kontext | +|---|---|---| +| R-14 | Welche Hosts sichern auf **backup02 und backup03**? | Zuordnung unklar | +| R-15 | Soll **backup03 Prune + GC + Verify** bekommen? | Aktuell keine Wartungsjobs | +| R-16 | PBS **"keep-all=1" vs. Job "keep-last=7"** — was gilt? | Möglicher Konflikt | +| R-17 | Warum ist **ct/502 (Mailserver)** das längste Backup (1h 42m)? | Ungewöhnlich lang | + +--- + +## ℹ️ Informelle Rückfragen + +| # | Frage | Kontext | +|---|---|---| +| R-18 | Was ist **sv-openclaw (CT 710)**? | 24% CPU + 60% RAM, höchste Last | +| R-19 | Ist **Strapi (CT 650)** noch in Verwendung? | Durch Payload CMS abgelöst? | +| R-20 | Welcher **Mailserver in CT 502**? | Produktiv oder nur intern? | +| R-21 | **Nginx (CT 600) vs. Caddy (CT 699)** — wer proxied was? | Zwei Reverse Proxies aktiv | +| R-22 | **Authelia SSO (CT 603)** — für welche Dienste? | DSGVO-Relevanz | +| R-23 | **CheckMK (CT 605)** — welche Hosts werden überwacht? | Kann als zentrales Monitoring dienen? | +| R-24 | **sv-dev (CT 653)** — Unterschied zu sv-dev-payload/sv-frontend? | Zweck unklar | +| R-25 | **Homepage (CT 112)** — welche Domain? | Zweck unklar | +| R-26 | **sv-homepage (CT 607) vs. sv-glance (CT 608)** | Zwei Dashboards, eins abschaltbar? | +| R-27 | **sv-glance (CT 608)** — 78.9% Disk voll | Aufräumen nötig |