Le podcast 🎙️ AWS ☁️ en 🇫🇷
Episode 293
Apr 25, 25 • 00:45:11
With Pascal Martin, Principal Engineer, AWS Container Hero, Bedrock Streaming
Dans cet épisode, nous faisons le tour des meilleures pratiques pour maîtriser et optimiser les coûts dans le cloud AWS. De la puissance du tagging à l’efficacité de l’autoscaling, en passant par les instances Spot, Graviton, ou encore les outils de visualisation comme Cost Explorer et Anomaly Detection, Pascal Martin, Principal Enginner chez Bedrock Streaming et AWS Hero, partage leurs stratégies, leurs réussites et… quelques surprises sur la facture. Vous découvrirez aussi : - Comment planifier ses réservations et dimensionner ses ressources avec précision. - Pourquoi DynamoDB n’est pas un outil d’archivage, et comment l’utiliser efficacement. - Quels sont les coûts cachés liés aux logs, au réseau ou aux API, et comment les éviter. - L’impact d’une bonne gestion des jobs longs, du CI/CD et des VPC sur les dépenses globales. Un épisode riche en retours d’expérience concrets, destiné à tous ceux qui veulent faire rimer cloud avec résilience, efficacité et économies.
Links
Vous trouverez ici les liens vers les outils, technologies et autres artciles mentionnés dans cet épsiode.
Le livre de Pascal : Le Plan Copenhague
Bedrock Streaming
M6+
Compute Optimizer
De l'analytique sur Arm chez bedrock Streaming
Cost and Usage Dashboard powered by Amazon QuickSight