First-attempt commit3a5c6e184only captured the .gitignore change; the pre-commit hook silently dropped the 343 staged moves/deletes during lint-staged's "no matching task" path. This commit re-applies the intended J1 content on top ofbec75f143(which was pushed in parallel). Uses --no-verify because: - J1 only touches .md/.json/.log/.png/binaries — zero code that would benefit from lint-staged, typecheck, or vitest - The hook demonstrated it corrupts pure-rename commits in this repo - Explicitly authorized by user for this one commit Changes (343 total: 169 deletions + 174 renames): Binaries purged (~167 MB): - veza-backend-api/{server,modern-server,encrypt_oauth_tokens,seed,seed-v2} Generated reports purged: - 9 apps/web/lint_report*.json (~32 MB) - 8 apps/web/tsc_*.{log,txt} + ts_*.log (TS error snapshots) - 3 apps/web/storybook_*.json (1375+ stored errors) - apps/web/{build_errors*,build_output,final_errors}.txt - 70 veza-backend-api/coverage*.out + coverage_groups/ (~4 MB) - 3 veza-backend-api/internal/handlers/*.bak Root cleanup: - 54 audit-*.png (visual regression baselines, ~11 MB) - 9 stale MVP-era scripts (Jan 27, hardcoded v0.101): start_{iteration,mvp,recovery}.sh, test_{mvp_endpoints,protected_endpoints,user_journey}.sh, validate_v0101.sh, verify_logs_setup.sh, gen_hash.py Session docs archived (not deleted — preserved under docs/archive/): - 78 apps/web/*.md → docs/archive/frontend-sessions-2026/ - 43 veza-backend-api/*.md → docs/archive/backend-sessions-2026/ - 53 docs/{RETROSPECTIVE_V,SMOKE_TEST_V,PLAN_V0_,V0_*_RELEASE_SCOPE, AUDIT_,PLAN_ACTION_AUDIT,REMEDIATION_PROGRESS}*.md → docs/archive/v0-history/ README.md and CONTRIBUTING.md preserved in apps/web/ and veza-backend-api/. Note: The .gitignore rules preventing recurrence were already pushed in3a5c6e184and remain in place — this commit does not modify .gitignore. Refs: AUDIT_REPORT.md §11
3 KiB
3 KiB
Smoke Test — v0.503
Date : 2026-02-22
Checklist de validation post-livraison v0.503.
1. Chat Hardening
- Rate limiter Redis fallback : arrêter Redis, envoyer des messages chat → le rate limiter in-memory prend le relais sans erreur
- Rate limiter Redis : avec Redis actif, envoyer des messages au-delà de la limite → rejet avec message d'erreur approprié
- Présence tracking : se connecter au WebSocket → statut passe à « online » ; se déconnecter → statut passe à « offline » après expiration TTL (2min)
- Heartbeat : connexion WebSocket active envoie des heartbeats → présence maintenue dans Redis
- Full-text search : envoyer des messages contenant des mots variés →
SearchMessagesretourne les résultats ordonnés parts_rank - FTS vs ILIKE : rechercher un terme partiel → vérifier que le résultat utilise tsvector et non ILIKE
2. HLS Streaming
- Master playlist :
GET /tracks/:id/hls/master.m3u8retourne une playlist M3U8 valide avec les variantes qualité - Quality switching : le player frontend affiche le sélecteur de qualité ABR et bascule entre les niveaux (128k, 256k, 320k)
- Stream status :
GET /tracks/:id/hls/statusretourne le statut de transcodage (pending, processing, ready, error) - HLS info :
GET /tracks/:id/hls/inforetourne les métadonnées HLS (durée, qualités disponibles) - Feature flag : désactiver
HLS_STREAMING→ les routes HLS retournent 404 ou message désactivé - Segments : les segments
.tssont servis avec les headers de cache corrects (immutable, max-age)
3. Cleanup Verification
- Dossier supprimé :
veza-chat-server/n'existe plus dans le repository - CI/CD : aucune référence à
chat-serverdans.github/workflows/ - Docker compose : aucun service
chat-serverdansdocker-compose.yml,docker-compose.staging.yml,docker-compose.prod.yml - Proxy config : aucune route
chat-serverdans la configuration Caddy/reverse proxy - Incus scripts : aucune référence
chat-serverdans les scripts de déploiement - GitHub templates : aucune mention de
chat-serverdans les templates d'issues/PR
4. Infrastructure
- docker-compose.yml : volume HLS partagé entre
backendetstream-serverest monté correctement - docker-compose.staging.yml : même vérification du volume HLS partagé
- docker-compose.prod.yml : même vérification du volume HLS partagé
- Variables d'environnement :
HLS_STREAMINGetHLS_STORAGE_DIRsont définis dans le service backend - Redis : connexion Redis fonctionnelle pour rate limiter + présence + PubSub
- PostgreSQL : migration tsvector appliquée, index GIN créé, trigger auto-update actif
Résultat
| Section | Statut |
|---|---|
| Chat Hardening | ⬜ |
| HLS Streaming | ⬜ |
| Cleanup Verification | ⬜ |
| Infrastructure | ⬜ |
| Global | ⬜ |