
Aurich Lawson | Getty Photographs
Salutations, chers lecteurs, et félicitations, nous avons atteint la fin de notre série en quatre events sur la façon dont Ars Technica est hébergé dans le cloud, et cela a été un voyage. Nous avons passé en revue notre infrastructure, notre pile d’functions et notre stratégie CI/CD (c’est-à-dire “l’intégration proceed et le déploiement continu” – le processus par lequel nous gérons et maintenons le code de notre web site).
Maintenant, pour conclure, nous avons un peu de sujets à aborder. Dans cette dernière partie, nous discuterons de certains détails de configuration restants dans lesquels je n’ai pas eu l’event de plonger dans les events précédentes, y compris le fonctionnement de notre système de liveblogging testé au fight (c’est étonnamment easy, et pourtant il a résisté à des tens of millions de lecteurs martelant pendant les événements Apple). Nous verrons également remark nous gérons le DNS faisant autorité.
Enfin, nous terminerons sur quelque selected que je voulais examiner depuis un sure temps : les offres de providers ARM 64 bits basées sur le cloud d’AWS. Quelle half de notre infrastructure pourrions-nous transférer vers des systèmes basés sur ARM64, combien de travail cela représentera-t-il et quels pourraient être les avantages à lengthy terme, à la fois en termes de performances et de coûts ?
Mais d’abord, parce que je sais que nous avons des lecteurs qui aiment aller de l’avant, réintroduisons notre schéma fonctionnel et assurons-nous que nous sommes tous rattrapés par ce que nous faisons aujourd’hui :

Le récapitulatif : ce que nous avons
Donc, récapitulons : Ars fonctionne sur WordPress pour la web page d’accueil, une occasion WordPress/WooCommerce plus petite pour la boutique de produits dérivés et XenForo pour l’OpenForum. Toutes ces functions vivent en tant que conteneurs dans les tâches ECS (où “job” dans ce cas est fonctionnellement équivalent à un hôte Docker, contenant un sure nombre de providers). Ces tâches sont appelées et supprimées selon les besoins pour faire évoluer le web site en fonction de la quantité actuelle de trafic de visiteurs. Divers autres composants de la pile contribuent à maintenir le web site opérationnel (comme Aurora, qui fournit des bases de données MySQL au web site, ou Lambda, que nous utilisons pour lancer les tâches planifiées de WordPress, entre autres).
Sur le côté gauche du diagramme, nous avons notre pile CI/CD. Le code qui fait fonctionner Ars – qui pour nous inclut des éléments tels que nos fichiers PHP WordPress, à la fois le noyau et le plug-in – réside dans un dépôt Github privé sous contrôle de model. Lorsque nous devons modifier notre code (comme s’il y a une mise à jour de WordPress), nous modifions la supply dans le référentiel Github, puis, à l’aide de tout un ensemble d’outils, nous poussons ces modifications dans l’environnement Internet de manufacturing, et de nouvelles tâches sont créées. up contenant ces changements. (Comme pour la pile logicielle, c’est un peu plus compliqué que cela – consultez la troisième partie pour une description plus détaillée du processus !)
Les lecteurs aux yeux d’aigle remarqueront peut-être qu’il y a quelque selected de différent dans le diagramme ci-dessus : quelques-uns des providers sont surlignés en jaune. Bien repéré – ce sont des providers que nous pourrions basculer pour fonctionner sur l’structure ARM64, et nous examinerons cela vers la fin de cet article.
Mis à half les couleurs, il manque également plusieurs choses à ce diagramme. En essayant de le maintenir aussi haut que potential tout en restant utile, j’ai omis tout un tas de composants d’infrastructure plus basiques, et l’un de ces composants est le DNS. C’est une de ces choses sans lesquelles nous ne pouvons pas fonctionner, alors allons-y et parlons-en.

Aurich Lawson | Getty Photographs
Salutations, chers lecteurs, et félicitations, nous avons atteint la fin de notre série en quatre events sur la façon dont Ars Technica est hébergé dans le cloud, et cela a été un voyage. Nous avons passé en revue notre infrastructure, notre pile d’functions et notre stratégie CI/CD (c’est-à-dire “l’intégration proceed et le déploiement continu” – le processus par lequel nous gérons et maintenons le code de notre web site).
Maintenant, pour conclure, nous avons un peu de sujets à aborder. Dans cette dernière partie, nous discuterons de certains détails de configuration restants dans lesquels je n’ai pas eu l’event de plonger dans les events précédentes, y compris le fonctionnement de notre système de liveblogging testé au fight (c’est étonnamment easy, et pourtant il a résisté à des tens of millions de lecteurs martelant pendant les événements Apple). Nous verrons également remark nous gérons le DNS faisant autorité.
Enfin, nous terminerons sur quelque selected que je voulais examiner depuis un sure temps : les offres de providers ARM 64 bits basées sur le cloud d’AWS. Quelle half de notre infrastructure pourrions-nous transférer vers des systèmes basés sur ARM64, combien de travail cela représentera-t-il et quels pourraient être les avantages à lengthy terme, à la fois en termes de performances et de coûts ?
Mais d’abord, parce que je sais que nous avons des lecteurs qui aiment aller de l’avant, réintroduisons notre schéma fonctionnel et assurons-nous que nous sommes tous rattrapés par ce que nous faisons aujourd’hui :

Le récapitulatif : ce que nous avons
Donc, récapitulons : Ars fonctionne sur WordPress pour la web page d’accueil, une occasion WordPress/WooCommerce plus petite pour la boutique de produits dérivés et XenForo pour l’OpenForum. Toutes ces functions vivent en tant que conteneurs dans les tâches ECS (où “job” dans ce cas est fonctionnellement équivalent à un hôte Docker, contenant un sure nombre de providers). Ces tâches sont appelées et supprimées selon les besoins pour faire évoluer le web site en fonction de la quantité actuelle de trafic de visiteurs. Divers autres composants de la pile contribuent à maintenir le web site opérationnel (comme Aurora, qui fournit des bases de données MySQL au web site, ou Lambda, que nous utilisons pour lancer les tâches planifiées de WordPress, entre autres).
Sur le côté gauche du diagramme, nous avons notre pile CI/CD. Le code qui fait fonctionner Ars – qui pour nous inclut des éléments tels que nos fichiers PHP WordPress, à la fois le noyau et le plug-in – réside dans un dépôt Github privé sous contrôle de model. Lorsque nous devons modifier notre code (comme s’il y a une mise à jour de WordPress), nous modifions la supply dans le référentiel Github, puis, à l’aide de tout un ensemble d’outils, nous poussons ces modifications dans l’environnement Internet de manufacturing, et de nouvelles tâches sont créées. up contenant ces changements. (Comme pour la pile logicielle, c’est un peu plus compliqué que cela – consultez la troisième partie pour une description plus détaillée du processus !)
Les lecteurs aux yeux d’aigle remarqueront peut-être qu’il y a quelque selected de différent dans le diagramme ci-dessus : quelques-uns des providers sont surlignés en jaune. Bien repéré – ce sont des providers que nous pourrions basculer pour fonctionner sur l’structure ARM64, et nous examinerons cela vers la fin de cet article.
Mis à half les couleurs, il manque également plusieurs choses à ce diagramme. En essayant de le maintenir aussi haut que potential tout en restant utile, j’ai omis tout un tas de composants d’infrastructure plus basiques, et l’un de ces composants est le DNS. C’est une de ces choses sans lesquelles nous ne pouvons pas fonctionner, alors allons-y et parlons-en.