Company Logo

Is there an Fasterize outage?

Fasterize status: Systems Active

Last checked: 9 minutes ago

Get notified about any outages, downtime or incidents for Fasterize and 1800+ other cloud vendors. Monitor 10 companies, for free.

Subscribe for updates

Fasterize outages and incidents

Outage and incident data over the last 30 days for Fasterize.

There have been 0 outages or incidents for Fasterize in the last 30 days.

Severity Breakdown:

Tired of searching for status updates?

Join OutLogger to be notified when any of your vendors or the components you use experience an outage. It's completely free and takes less than 2 minutes!

Sign Up Now

Components and Services Monitored for Fasterize

Outlogger tracks the status of these components for Xero:

Acceleration Active
API Active
CDN Active
Collect Active
Dashboard Active
Logs delivery Active
Website Active
Component Status
Acceleration Active
API Active
CDN Active
Collect Active
Dashboard Active
Logs delivery Active
Website Active

Latest Fasterize outages and incidents.

View the latest incidents for Fasterize and check for official updates:

Updates:

  • Time: April 15, 2020, 8:48 a.m.
    Status: Resolved
    Update: This incident has been resolved.
  • Time: April 15, 2020, 8:04 a.m.
    Status: Investigating
    Update: We are currently investigating an issue on our TLS certificat for fasterize.com. This affect the dashboard and the API.

Updates:

  • Time: Feb. 25, 2020, 8:14 a.m.
    Status: Resolved
    Update: This incident has been resolved by KeyCDN at 8:25.
  • Time: Feb. 25, 2020, 4:32 a.m.
    Status: Monitoring
    Update: All impacted customers have been unplugged from KeyCDN
  • Time: Feb. 25, 2020, 4:14 a.m.
    Status: Investigating
    Update: We are currently investigating errors 502 emitted by KeyCDN since 04:34 (Paris time). We already ask to their support more details. Customers using the new platform with Cloudfront are not affected. We are unplugging KeyCDN on impacted customers

Updates:

  • Time: Jan. 29, 2020, 11:49 a.m.
    Status: Postmortem
    Update: ## Description de l'incident Le mardi 28 janvier 2020, l’un de nos CDN partenaires KeyCDN a émis des erreurs 502 entre 13h40 à 15h05, suite à l’indisponibilité d’un des serveurs de leur POP à Paris. L’incident a concerné une petite partie du trafic, la majorité étant routée sur un autre CDN et seul un serveur étant en erreur. KeyCDN nous a bien confirmé l’incident chez eux par mail. Cela n’a pas impacté les clients ayant migré sur le CDN d’Amazon Cloudfront. ## Plan d'actions ### Court terme * Basculer au plus vite les derniers clients sur notre nouvelle infrastructure * Mettre à jour la liste de diffusion sur [status.fasterize.com](http://status.fasterize.com) pour ne pas avoir de clients qui ne soient pas notifiés ### Moyen terme * Pouvoir désactiver simplement un CDN globalement pour ne pas avoir à agir client par client \(config par config\) * Modifier automatiquement les messages / signatures du support pour signaler l’incident
  • Time: Jan. 28, 2020, 2:45 p.m.
    Status: Resolved
    Update: KeyCDN has taken a problematic edge server out of production for further analysis. We don't see any 502 errors since 15h05. We replugged unplugged websites on KeyCDN.
  • Time: Jan. 28, 2020, 2:04 p.m.
    Status: Monitoring
    Update: We unplugged KeyCDN while waiting for a complete resolution.
  • Time: Jan. 28, 2020, 1:43 p.m.
    Status: Investigating
    Update: We are currently investigating errors 502 emitted by KeyCDN. We already ask to their support more details. The new platform AWS euwest1 is not impacted by this incident.

Updates:

  • Time: Jan. 23, 2020, 12:09 p.m.
    Status: Postmortem
    Update: # **Description de l'incident** Note : L’incident suivant est relatif au datacenter situé chez AWS \(euwest1\). Le mercredi 22 janvier 2020 entre 19h et 20h30, un problème de résolution DNS a été identifié sur l’ensemble des machines hébergées sur une de nos trois zones de disponibilité de Paris. Le système de supervision indique que pendant cette durée 6,24% des requêtes à l’origine ont échoué. Les machines présentes dans cette zone utilisant toutes le DNS interne d’AWS \(censé être hautement disponible / redondé\), elles ne pouvaient plus se connecter aux serveurs d’origine des clients. AWS a déclaré un problème de connectivité sur la zone incriminée sur sa page de status. Après identification de l’incident, nous avons modifié la configuration de nos machines pour utiliser un autre service public DNS afin de maintenir le service dans l’attente de la résolution de l’incident côte hébergeur. L’absence de résolution DNS ne permettait pas d’avoir une vision en temps réel et fiable de l’état du système \(logs et métriques\). A partir du moment où nous avons modifié les resolvers DNS, le système de supervision a commencé à rattraper le retard de logs et de métriques. Tant que ce retard n’était pas comblé, nous n’avions pas une vision temps réel des erreurs émises par la plateforme via nos système de logs et de collecte de métriques. En l’absence de supervision et de logs et suite à nos tests manuels, nous avons pensé à tort que la correction était suffisante. Il s'avère, après analyse, que les serveurs HTTP impactés n’ont pas correctement pris en compte le changement, utilisant leur propre configuration de resolver. La fin de l’incident correspond à la remise en état du service DNS par AWS. # Plan d'actions **Court terme :** * améliorer la disponibilité de notre système de résolution en évitant de dépendre d’un unique acteur * révision du système de métrique pour fiabiliser la vision temps réel de la plateforme **Moyen terme :** * amélioration de la prise en compte automatique d’une panne au niveau de la couche responsable de la communication avec les origines
  • Time: Jan. 22, 2020, 8:46 p.m.
    Status: Resolved
    Update: This incident is now resolved. From AWS : "10:25 AM PST We are investigating an issue which is affecting internet connectivity to a single availability zone in EU-WEST-3 Region. 11:05 AM PST We have identified the root cause of the issue that is affecting connectivity to a single availability zone in EU-WEST-3 Region and continue to work towards resolution. 11:45 AM PST Between 10:00 AM and 11:28 AM PST we experienced an issue affecting network connectivity to AWS services in a single Availability Zone in EU-WEST-3 Region. The issue has been resolved and connectivity has been restored."
  • Time: Jan. 22, 2020, 7:08 p.m.
    Status: Monitoring
    Update: AWS is working on the DNS resolution issue. The platform is behaving normally since the DNS resolver change.
  • Time: Jan. 22, 2020, 6:49 p.m.
    Status: Investigating
    Update: We detected an issue impacting the DNS resolution on some machines. We already fixed the issue by changing the DNS resolver. We are investigating why the DNS resolver is not working.

Updates:

  • Time: Jan. 15, 2020, 1:11 p.m.
    Status: Postmortem
    Update: # Plateforme indisponible Date du post mortem : 15/01/2020 Participants du post mortem : * David Rousselie * Mikael Robert * Nicolas Alabrune * Anthony Barré * Stéphane Rios # Description de l'incident Note : L’incident suivant est relatif au datacenter situé chez AWS \(euwest1\) suite à une attaque. Le 14/01/2020, à partir de 18h09, tous les proxys sont devenus indisponibles et les utilisateurs ont commencé à recevoir des erreurs 502. La bascule DNS s’est déclenchée automatiquement une première fois à 18h12, le trafic est revenu chez Fasterize de 18h17 à 18h21 puis a été basculé manuellement à 18h23. L’indisponibilité des proxys est due à une saturation du CPU. Les pings et le trafic sont fortement impactés \(erreur 502 et temps de réponse\) et les proxys sont perçus comme indisponibles par les frontaux. Dans ce cas là, le code d’erreur généré par les frontaux \(502\) n’est pas utilisé pour faire un failover \(ie. retry\) à l’origine, ceci pour ne pas faire un retry sur un 502 qui proviendrait de l’origine et qui pourrait aggraver un éventuel problème de l’origine. Après le débranchement de 18H23, nous constatons qu’il reste principalement un trafic suspicieux mélangeant diverses catégories d’attaques. Ces attaques échouent mais génèrent une consommation anormale sur les proxys. Nous tentons de désactiver et redémarrer les proxys : tant que le proxy ne reçoit pas le trafic, il reste stable. Après une désactivation, il reste chargé quelques minutes puis finit par retrouver un état stable \(signe qu’il n’y a pas un blocage permanent\). A 19h15, nous identifions une exception non catchée lors de l’accès au storage qui fait redémarrer les processus plantés et amplifie la consommation CPU lors du chargement des configurations clientes. Le blocage de l’attaquant sur le proxy résout le problème de charge : la consommation CPU se situe donc après le middleware de filtrage d’adresses IP. Afin d’éviter les exceptions de connexion au storage, nous désactivons l’accès au header store \(ie. Early Hints/preload\) en patchant le code \(pas de feature flag global\). La décision de rerouter le trafic sur Fasterize est prise lorsque l’attaque est clairement identifiée et mitigée. # Faits et Timeline **18h09**: premier pic d’erreurs 502 au niveau des proxys **18h10** : première alerte du système de supervision concernant l'indisponibilité des proxies **18h12** : bascule automatique vers les origines client **18h15** : l'équipe tech se réunit **18h17** : rebascule automatique vers Fasterize **18h19** : premier mail au support indiquant un problème de 502 **18h21** : bascule automatique vers les origines client **18h23** : l’ensemble des clients de la plateforme est débranché manuellement via le système de coupure d’urgence. **18h29 :** publication d’un message sur la page de status de la plateforme **18h36** : fin des erreurs 502 **18h40** : première suspicion d’attaque en constatant des URL forgées - mais difficile de lier ces URL à la consommation CPU des proxys **19h15** : identification d’une exception non catchée lors de l’accès au storage depuis les proxys => redémarrage automatique des processus plantés **19h18** : test de désactivation du storage - sans effet **19h44** : adresse IP de l’attaquant bloquée au niveau des proxys **19h45 :** nouveau message pour indiquer que nous avons identifié une saturation CPU des proxys **19h56** : envoi d’une requête d’abus à l’hébergeur de l’attaquant \(abuse@ovh\). **20h22 :** nouveau message pour indiquer que nous avons identifié la corrélation entre une attaque sur un client et la saturation CPU **20h20** : prise d’un échantillon des requêtes provenant de l’attaque pour analyse ultérieure **20h25** : mise en place d'une règle WAF au niveau CDN afin de bloquer les requêtes provenant de l’adresse IP de l’attaquant **20h29 :** nouveau message pour indiquer que le trafic est rerouté sur la plateforme. **20h50 :** fin des requêtes provenant de l’attaquant # Métriques * Niveaux de sévérité de l'incident : **Sévérité 1: arrêt du site non planifié qui affecte un nombre significatif d'utilisateurs.** * Temps de détection : 1 min * Temps de résolution : * 3 min pour être en mode dégradé, partiellement * 15 min pour être en mode dégradé \(routage à l’origine\) * 2h20 pour réactiver les optimisations # Impacts L’ensemble des clients a été impacté, une petite partie nous a contacté : tickets \(10\) \+ appels en direct \(1\) \+ SMS \(2\) Les pages et les objets cachés ont été servies normalement. Tout ce qui passait par le proxy a été impacté \(panier, fragments SmartCache\). # Contre mesures ## Actions pendant l’incident * blocage de l’attaquant * désactivation de l’accès au header store / early hints * bascule manuelle, routage du trafic à l’origine * réactivation des optimisations # Plan d'actions **Court terme :** * Identifier la ou les requêtes qui ont eu un impact sur les proxys et corriger le code du proxy. * Effectuer un failover sur l’origine depuis les fronts lors d’une erreur 502 * Distinguer les erreurs 502 provenant de l’origine vs l’infrastructure Fasterize \(erreurs 592\) * Implémenter un failover au niveau CDN **Moyen terme :** * Mise en place d’un WAF avec les règles de sécurité de base * Améliorer l’observabilité des processus proxy sur demande * Intégrer l’analyse de sécurité des dépendances * Mise en place du shuffle sharding sur les proxys
  • Time: Jan. 15, 2020, 9:01 a.m.
    Status: Resolved
    Update: Closing this incident as there have been no other attacks.
  • Time: Jan. 14, 2020, 8:03 p.m.
    Status: Monitoring
    Update: Our post-mortem will be published as soon as possible.
  • Time: Jan. 14, 2020, 7:29 p.m.
    Status: Monitoring
    Update: The traffic is now routed to Fasterize. We're actively monitoring.
  • Time: Jan. 14, 2020, 7:25 p.m.
    Status: Identified
    Update: The issue has been identified and a fix is being implemented.
  • Time: Jan. 14, 2020, 7:22 p.m.
    Status: Investigating
    Update: Our platform is under attack. We're mitigating and we hope for a recover very soon.
  • Time: Jan. 14, 2020, 6:45 p.m.
    Status: Investigating
    Update: We are continuing to investigate the issue. The traffic has been routed to the origin from 18:23. The investigation is focused on abnormal CPU consumption on the proxies layer.
  • Time: Jan. 14, 2020, 5:29 p.m.
    Status: Investigating
    Update: We are currently investigating error 502 emitted by Fasterize since 18h09.

Check the status of similar companies and alternatives to Fasterize

Akamai
Akamai

Systems Active

Nutanix
Nutanix

Systems Active

MongoDB
MongoDB

Systems Active

LogicMonitor
LogicMonitor

Systems Active

Acquia
Acquia

Systems Active

Granicus System
Granicus System

Systems Active

CareCloud
CareCloud

Systems Active

Redis
Redis

Systems Active

integrator.io
integrator.io

Systems Active

NinjaOne Trust

Systems Active

Pantheon Operations
Pantheon Operations

Systems Active

Securiti US
Securiti US

Systems Active

Frequently Asked Questions - Fasterize

Is there a Fasterize outage?
The current status of Fasterize is: Systems Active
Where can I find the official status page of Fasterize?
The official status page for Fasterize is here
How can I get notified if Fasterize is down or experiencing an outage?
To get notified of any status changes to Fasterize, simply sign up to OutLogger's free monitoring service. OutLogger checks the official status of Fasterize every few minutes and will notify you of any changes. You can veiw the status of all your cloud vendors in one dashboard. Sign up here
What does Fasterize do?
Increase website performance and speed with our SaaS solution. Improve loading times, boost conversions, revenue, SEO, and user experience.