Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 18 avril 2024Flux principal

Un FestIn de roi pour vos Buckets S3

Par : Korben
18 avril 2024 à 09:00

Aujourd’hui on va parler d’un outil de ouf pour trouver des buckets S3 ouverts : FestIn !

C’est le genre d’outil dont raffolent les chercheurs en sécurité puisqu’il qui explore tous les recoins du web pour dénicher des trucs que vous n’auriez jamais trouvé.

FestIn c’est la grosse artillerie de l’énumération de buckets S3 puisqu’il a tellement d’options que les autres outils à côté c’est de la gnognotte. Attention, c’est bien sûr à utiliser uniquement sur vos propres noms de domaines ou dans le cadre de missions d’audit pour lesquelles vous avez toutes les autorisations.

Avec lui, vous allez pouvoir :

  • Utiliser différentes techniques pour trouver des buckets : crawling du DNS et des pages web, analyse des réponses S3
  • Faire vos requêtes en passant par un proxy, no stress 🕶
  • Vous passer des credentials AWS, puisque ça marche avec n’importe quel provider compatible S3
  • Configurer vos propres serveurs DNS, parce que vous êtes trop beau gosse.
  • Profiter d’un crawler HTTP de compétition qui va retourner le web pour vous
  • Faire des recherches récursives et avoir du feedback entre les différents modules pour un max d’efficacité
  • Faire tourner le schmilblick en mode « watch » pour choper les nouveaux domaines en temps réel, ce qui est assez ouf quand on y pense.
  • Sauvegarder tous les domaines découverts dans un fichier, pour faire joujou avec plus tard
  • Indexer direct le contenu des objets des buckets pour faire des recherches full text de la mort, mieux que Google ! 😎
  • Cibler votre recherche sur des domaines spécifiques si vous voulez pas vous éparpiller

Pour l’installer c’est fastoche, au choix :

pip install festin

Ou en mode Docker :

docker run --rm -it cr0hn/festin -h

C’est du brut, du bourrin, puisqu’on va envoyer des requêtes en masse et gratter un max d’infos. Attention cependant, on reste fair-play, on ne veut pas faire planter le serveur non plus.

Par défaut, FestIn prend un unique domaine en argument :

festin mon-super-site.com

Mais on peut aussi lui filer un fichier texte contenant une liste de domaines, histoire d’être plus productif :

  1. Crée un fichier domaines.txt avec tes domaines, un par ligne.
  2. Lance la commande :
cat domaines.txt | festin -f -

FestIn balance plusieurs tests en même temps pour aller plus vite. Par défaut, il en lance 5. Si vous êtes pressé et que votre machine encaisse, vous pouvez augmenter ce nombre avec l’option -c :

festin -c 10 mon-super-site.com

Attention cependant, ne balancez pas un truc de fou, ça risque de faire bugger le site ciblé. On est là pour glaner des infos, pas pour casser du serveur.

L’outil dispose également d’un petit bot intégré qui va scanner le site à la recherche de liens pouvant mener à des buckets S3. On peut le configurer avec plusieurs options :

  • Timeout (-T ou –http-timeout) : Si le site est lent, on augmente le timeout pour pas que le scan plante. Par défaut, c’est 5 secondes.
  • Récursion max (-H ou –http-max-recursion) : On limite la profondeur du scan pour éviter de partir en vadrouille sur tout le net. Par défaut, c’est 3 niveaux, genre site.com -> lien -> site2.com -> lien -> site3.com.
  • Limite de domaine (-dr ou –domain-regex) : On peut dire au robot de se focaliser uniquement sur les sous-domaines qui correspondent à une expression régulière.
  • Liste noire (-B) : Fich un fichier texte contenant des mots clés. Si un domaine contient un de ces mots, on l’ignore.
  • Liste blanche (-W) : Même principe, mais à l’envers. On scanne uniquement les domaines contenant des mots clés de la liste blanche.

Pour cela, vous devez créer un fichier blacklist.txt contenant « cdn » et « photos » (on ignore les liens vers des CDN et des images) puis lancer la commande :

festin -T 20 -M 8 -B blacklist.txt -dr .mondomaine\.com mon-super-site.com

Attention : l’option -dr attend une expression régulière valide au format POSIX. Par exemple, mondomaine.com est invalide, alors que \.mondomaine\.com est correct.

FestIn crache un paquet d’infos intéressantes, pas seulement sur les buckets S3, mais aussi sur d’autres éléments identifiés. Ces infos peuvent ensuite être utilisées avec d’autres outils comme nmap.

Pour récupérer les résultats, FestIn propose trois modes qu’on peut combiner :

  • Fichier de résultats FestIn (-rr ou –result-file) : Ce fichier contient une ligne JSON par bucket trouvé, avec le nom de domaine d’origine, le nom du bucket et la liste des objets qu’il contient.
  • Fichier de domaines découverts filtrés (-rd ou –discovered-domains) : Celui-là liste un domaine par ligne. Ce sont des domaines trouvés par le crawler, le DNS ou les tests S3, mais qui ont été filtrés selon les options définies.
  • Fichier brut de tous les domaines découverts (-ra ou –raw-discovered-domains) : Comme son nom l’indique, c’est la liste brute de tous les domaines identifiés par FestIn, sans aucun filtre. Idéal pour du post-traitement et de l’analyse.

récupérer les résultats dans trois fichiers distincts et enchaîner avec nmap :

festin -rr festin.results -rd domaines_filtres.txt -ra domaines_bruts.txt mon-super-site.com

festin -rd domaines_filtres.txt && nmap -Pn -A -iL domaines_filtres.txt -oN nmap-resultats.txt

FestIn peut utiliser Tor pour plus de discrétion. Il faut juste avoir un proxy Tor lancé en local sur le port 9050 (configuration par défaut). Activez-le avec l’option --tor :

tor & festin --tor mon-super-site.com

Et il peut aussi effectuer des recherches DNS. Voici les options dispo :

  • Désactiver la découverte DNS (-dn ou –no-dnsdiscover) : Si on a pas besoin de ce type de recherche.
  • Serveur DNS personnalisé (-ds ou –dns-resolver) : Pratique si on veut utiliser un serveur DNS différent de celui par défaut.

Comme ceci :

festin -ds 8.8.8.8 mon-super-site.com

Ce script ne se contente pas de dénicher les buckets S3 ouverts, il peut aussi télécharger leur contenu et l’indexer dans un moteur de recherche plein texte. Ça permet ensuite de lancer des recherches directement sur le contenu des buckets ! Pour activer l’indexation, FestIn utilise Redis Search, un projet Open Source.

Il faut deux options :

  • Activer l’indexation (–index) : Indispensable pour que le contenu soit stocké dans le moteur de recherche.
  • Configuration du serveur Redis Search (–index-server) : Uniquement si votre serveur Redis Search est sur une IP/port différent de localhost:6379 par défaut.

Lancez d’abord Redis Search en tâche de fond :

docker run --rm -p 6700:6379 redislabs/redisearch:latest -d

Puis lancez FestIn avec l’indexation et le serveur distant :

festin --index --index-server redis://127.0.0.1:6700 mon-super-site.com

Attention : l’option --index-server doit obligatoirement commencer par le préfixe redis://.

Bien sûr, on a pas forcément envie de relancer FestIn à chaque nouveau domaine à analyser. C’est pour ça qu’il existe le mode surveillance. FestIn se lance et attend l’ajout de nouveaux domaines dans un fichier qu’il surveille. Pratique pour l’utiliser avec d’autres outils comme dnsrecon.

Lancez FestIn en mode surveillance avec le fichier domaines.txt :

festin --watch -f domaines.txt

Dans un autre terminal, ajoutez des domaines à domaines.txt :

echo "encore-un-autre-site.com" >> domaines.txt

Dès qu’un nouveau domaine est ajouté au fichier, FestIn le scanne automatiquement à la recherche de buckets S3 ouverts. Pour aller plus loin, on peut combiner FestIn avec un outil de reconnaissance DNS comme DnsRecon. L’idée est de récupérer des sous-domaines potentiels liés au domaine principal et de les balancer ensuite à FestIn pour scanner d’éventuels buckets S3 cachés.

Etape 1 : Scruter le domaine cible avec DnsRecon

On va utiliser DnsRecon pour trouver des sous-domaines associés à cible.com. Sauvegardez la sortie dans un fichier CSV :

dnsrecon -d cible.com -t crt -c cible.com.csv

Etape 2 : Préparer le fichier pour FestIn

On isole les sous-domaines du fichier CSV pour les injecter dans FestIn (un domaine par ligne) :

tail -n +2 cible.com.csv | sort -u | cut -d "," -f 2 >> cible.com.domaines

Etape 3 : Lancer FestIn et récupérer les résultats

On balance le fichier de sous-domaines à FestIn en activant la recherche Tor, la concurrence à 5, un serveur DNS personnalisé et en sauvegardant les résultats dans des fichiers distincts :

festin -f cible.com.domaines -

Et pour automatiser tout ça sur plein de domaines à la chaîne, on a même un petit script loop.sh bien pratique dans les examples du repo GitHub.

Voilà les amis, vous avez toutes les clés pour utiliser FestIn comme un pro et aller secouer les buckets S3 qui traînent ! C’est quand même un outil hyper complet et puissant, pensez à l’utiliser avec un proxy ou Tor pour pas vous faire bloquer, et amusez vous bien mais toujours de manière éthique et responsable hein !

À partir d’avant-hierFlux principal

Ubisoft éteint la polémique Jabba le Hutt de Star Wars Outlaws

17 avril 2024 à 11:19

Face au début de polémique liée à l'inclusion d'une mission bonus de Star Wars Outlaws derrière le Season Pass, Ubisoft a tenu à rassurer sur la présence de Jabba le Hutt. Il sera un personnage central de l'histoire du jeu, et il n'y aura pas besoin de payer plus.

Star Wars Outlaws est déjà critiqué à cause de la gourmandise d’Ubisoft

16 avril 2024 à 11:11

Attendu pour le mois d'août, le prometteur Star Wars Outlaws, édité par Ubisoft, est déjà critiqué pour certains choix commerciaux. Dans le viseur, un Season Pass, qui sera visiblement obligatoire pour croiser Jabba dans une mission exclusive.

OpenTofu example (Terraform fork): Create an EC2 instance in AWS

15 avril 2024 à 10:30
HashiCorp changed Terraform's license from open source to Business-Source License (BSL). Soon after, the open-source fork OpenTofu became available. OpenTofu is an infrastructure-as-code (IaC) tool that allows you to define and manage your infrastructure in configuration files. In this post, I demonstrate with a practical example how to create an EC2 instance in AWS with OpenTofu.

Assign an IPv6 address to an EC2 instance and configure components with a bash script

13 mars 2024 à 11:17
In my previous post, I explained how you can quickly allocate an Elastic IPv4 address and associate it with an EC2 instance. As Amazon has recently started charging for in-use IPv4 addresses, you might want to consider switching to IPv6. Using the AWS Management Console to assign an IPv6 to an EC2 instance is not really straightforward. Several AWS network components must be correctly configured to make IPv6 work. The bash script introduced here checks all components, adds any missing pieces, and then assigns the IP to an EC2 instance.

Assign (associate) an Elastic IP address to an EC2 instance with a bash script

8 mars 2024 à 12:23
In previous articles, I explained how to create an AMI from an EC2 instance and then launch the instance with scripts. Next, you probably want to assign an Elastic IP (IPv4 address) to the instance. In this post, you will learn how to allocate, release, associate, and disassociate an Elastic IP with the AWS CLI and bash scripts.

D’ici 2026, Microsoft Azure pourrait dépasser Amazon AWS et devenir le leader du Cloud Public !

Par : Luc BRETON
16 février 2024 à 08:34

Depuis plus d’une décennie, Amazon AWS s’est imposé comme le leader mondial incontesté des plateformes de cloud public, devant Microsoft Azure, Google Cloud Platform (GCP) et Alibaba Cloud. En 2023, AWS a fait l’objet d’une légère baisse des parts du marché en faveur d’Azure et des experts estiment que Microsoft pourrait devenir le plus grand fournisseur de services cloud à partir de 2026.

La course à l'intelligence artificielle

Mais qu’est-ce qui explique ce revirement ? Tout porte à croire que l’engouement du grand public pour l’intelligence artificielle suscité par ChatGPT en 2023 a été très favorable pour Microsoft qui travaille en partenariat avec OpenAI depuis 2019. En effet, dans la foulée du succès de ChatGPT, Microsoft a investi massivement en l'IA et lancé plusieurs nouveaux produits qui s’appuient sur l’intelligence artificielle générative.

L'année 2023 fut l'occasion pour Microsoft de relancer le moteur de recherche Bing en y intégrant l'assistant Copilot Bing Chat, un chatbot conçu à partir d'un modèle construit sur ChatGPT. L'offre de Copilot a également été bonifiée et son ajout à Microsoft 365 sous forme d'abonnement a reçu un accueil favorable et promet d'être très lucrative.

Parallèlement, Satya Nadella notait une nette augmentation des utilisateurs de la plateforme Azure AI, un service qui comprend une suite de solutions telles qu'Azure Machine Learning, Azure Cognitive Services et Azure Applied AI Services. À cet effet, Microsoft a ajouté de nombreux GPUs à ses centres de données pour que les clients puissent mettre en place leurs propres modèles d'IA dans Azure.

Pour sa part, Amazon a annoncé en septembre dernier un partenariat assorti d'un investissement de 4 milliards de dollars avec la startup d'intelligence artificielle Anthropic qui développe « Claude », un chatbot similaire à ChatGPT. Il n'en demeure pas moins que ce partenariat n'a pas été aussi retentissant que celui de Microsoft avec OpenAI et, durant la dernière année, le grand public a massivement adopté ChatGPT qui est devenu une référence.

Microsoft accélère la mise en place de Copilot

En janvier 2024, Microsoft a annoncé que tous les claviers Windows seraient désormais munis d’une touche dédiée à Copilot, ce qui va inciter fortement les utilisateurs à privilégier les technologies OpenAI/Microsoft au détriment des solutions concurrentes. De plus, Microsoft a déjà ajouté Copilot aux derniers correctifs Windows et de nombreux systèmes disposent maintenant du logiciel en version préliminaire.

La course à l'IA est devenue le nerf de la guerre des grands fournisseurs de services de cloud public. Il sera intéressant de voir si les experts ont vu juste en prévoyant qu'Azure pourrait dépasser AWS en 2026 en termes de revenus et de part de marché du cloud computing. D'ici là, plusieurs innovations sont à prévoir dans le domaine de l'IA, et le monde de l'informatique connaîtra de nombreuses transformations qui vont créer de belles opportunités.

Sources :

The post D’ici 2026, Microsoft Azure pourrait dépasser Amazon AWS et devenir le leader du Cloud Public ! first appeared on IT-Connect.

AWS commence à facturer l’utilisation des adresses IPv4 publiques et ça va lui rapporter gros !

7 février 2024 à 07:01

Depuis le 1er février 2024, les clients d'Amazon Web Services (AWS) doivent payer pour utiliser des adresses IPv4 publiques. Pour Amazon, c'est l'occasion d'empocher plusieurs centaines de millions de dollars...

Amazon a trouvé un nouveau moyen de gagner beaucoup plus d'argent sans que ce soit réellement significatif pour les clients d'AWS : facturer l'utilisation des adresses IPv4 publiques, utiles et indispensables pour de nombreux services. En effet, l'été dernier, Amazon avait annoncé qu'à partir du 1er février 2024, les adresses IPv4 publiques allaient être facturées ! Ceci s'applique à toutes les régions AWS et aux différents types de ressources, notamment les instances EC2 et les noeuds EKS.

Concrètement, une adresse IPv4 publique est facturée 0,005 dollar HT par heure, soit un demi-centime de dollar par heure. Sur une année complète, cela représente 43,80 dollars HT. Du côté de Microsoft Azure, c'est déjà facturé aux clients, et le tarif peut varier de 0,0036 dollar HT de l'heure à 0,005 dollar HT de l'heure.

D'après Andree Tonk, ingénieur en infrastructure chez Cisco, le fait de facturer l'utilisation des adresses IPv4 publiques va rapporter très gros à Amazon. Il estime qu'AWS va engranger entre 400 millions de dollars et 1 milliard de dollars supplémentaire par an, uniquement via ce service. Pour effectuer cette estimation, il s'est appuyé sur trois informations :

  • Le nombre d'adresses IPv4 publiques détenues par AWS, environ 132 millions
  • Le nombre d'adresses IPv4 publiques utilisées par les clients AWS, à partir d'un fichier avec 79 millions d'adresses IPv4 publiques
  • Le tarif annuel de 43,80 dollars HT

Il a fait une estimation relativement prudente en partant du principe que seulement 10% des adresses IPv4 publiques étaient utilisées, soit 7,9 millions, ceci représente tout de même 346 millions de dollars par an.

L'objectif d'Amazon est d'inciter ses clients à être plus économe dans la consommation des adresses IPv4, puisque c'est en quelque sorte une ressource rare (nous le savons depuis longtemps). La "solution" consiste à passer sur des adresses IPv6.

Source

The post AWS commence à facturer l’utilisation des adresses IPv4 publiques et ça va lui rapporter gros ! first appeared on IT-Connect.

A Pulumi example: Deploying an EC2 instance

Par : Graham Beer
26 janvier 2024 à 11:51
Pulumi is an infrastructure-as-code (IaC) solution similar to Terraform. One advantage of Pulumi is that it allows DevOps engineers to use familiar programming languages to define, deploy, and manage cloud infrastructure. This post demonstrates how to deploy an EC2 instance with Pulumi.

Create an Amazon Machine Image (AMI) of an EC2 instance with a Bash and PowerShell script

3 janvier 2024 à 10:03
The provided Bash and PowerShell script helps automate the creation of Amazon Machine Images (AMIs) from existing AWS Elastic Compute Cloud (EC2) instances. This is particularly useful for creating point-in-time backups or disaster recovery. I mostly use the script to quickly clone an EC2 instance for testing or troubleshooting.
❌
❌