Capacités d’Amazon Redshift

Entreposage de données cloud moderne, évolutif, sécurisé et performant pour analyser toutes vos données.

Analyser l'ensemble de vos données

Obtenez des informations intégrées en exécutant des analytiques en temps réel et prédictives sur des données mises à l'échelle, complexes sur l'ensemble de vos bases de données opérationnelles, lac de données, entrepôt des données et milliers d'ensembles de donnés tiers.

Requête fédérée : grâce à la nouvelle fonctionnalité de requête fédérée d'Amazon Redshift, vous pouvez accéder à votre base de données relationnelle opérationnelle. Vous pouvez interroger des données en temps réel sur un ou plusieurs Amazon Relational Database Service (RDS), bases de données Aurora PostgreSQL, RDS MySQL et Aurora MySQL pour obtenir une visibilité instantanée sur toutes les opérations métiers sans avoir à déplacer des données. Vous pouvez également combiner des données de votre entrepôt des données Redshift, des données de votre lac de données et des données de vos magasins opérationnels pour prendre de meilleures décisions orientées données. Amazon Redshift propose des optimisations qui permettent de réduire les données transférées sur le réseau et les complète avec son traitement de données massivement parallèle pour les requêtes hautes performances. En savoir plus.

Partage de données : le partage de données d'Amazon Redshift vous permet d'étendre la facilité d'utilisation, les performances et les avantages en termes de coûts qu'Amazon Redshift offre dans un seul cluster à des déploiements multi-clusters tout en permettant le partage des données. Le partage de données permet un accès aux données instantané, détaillé et rapide dans les clusters Redshift sans avoir besoin de les copier ou de les déplacer. Le partage de données fournit un accès en direct aux données afin que vos utilisateurs voient toujours les informations les plus récentes et les plus cohérentes au fur et à mesure qu'elles sont mises à jour dans l'entrepôt des données. Vous pouvez partager en toute sécurité des données en direct avec les clusters Redshift dans le même compte AWS ou dans des comptes différents sur l'ensemble des régions. En savoir plus.

AWS Data Exchange for Amazon Redshift : interrogez les jeux de données Amazon Redshift de votre propre cluster Redshift sans extraction, transformation et chargement (ETL) des données. Vous pouvez vous abonner aux produits d'entrepôt des données cloud Redshift dans AWS Data Exchange. Dès qu'un fournisseur effectue une mise à jour, le changement est visible aux abonnés. Si vous êtes un fournisseur de données, l'accès est automatiquement octroyé quand un abonnement démarre et révoqué quand il prend fin, les factures sont automatiquement générées lorsque les paiements sont dus, et les paiements sont encaissés via AWS. Vous pouvez mettre sous licence l'accès aux fichiers statiques, les données dans Amazon Redshift, et les données livrées via les API, le tout avec un seul abonnement. En savoir plus.

Redshift ML : Redshift ML permet aux analystes de données, aux scientifiques des données, aux professionnels de l'informatique décisionnelle et aux développeurs de créer, entraîner et déployer des modèles Amazon SageMaker à l'aide de SQL. Avec Redshift ML, vous pouvez utiliser des instructions SQL pour créer et entraîner des modèles Amazon SageMaker sur leurs données dans Amazon Redshift, puis utiliser ces modèles pour des prédictions telles que la détection du taux de désabonnement, les prédictions financières, la personnalisation et l'évaluation des risques directement dans leurs requêtes et rapports. En savoir plus.

Amazon Redshift Integration for Apache Spark : cette fonctionnalité facilite la création et l'exécution d'applications Apache Spark sur les données Amazon Redshift, ce qui permet aux clients d'ouvrir l'entrepôt des données à un ensemble plus large de solutions d'analytique et de machine learning. Avec Amazon Redshift Integration for Apache Spark, les développeurs utilisant des services AWS d'analyse et de machine learning (ML) comme Amazon EMR, AWS Glue et Amazon Athena Spark et Amazon SageMaker peuvent désormais créer facilement des applications Apache Spark qui lisent et écrivent dans leur entrepôt de données Amazon Redshift sans compromettre les performances de leurs applications ou la cohérence transactionnelle de leurs données. L'intégration d'Amazon Redshift pour Apache Spark facilite également la surveillance et le dépannage des problèmes de performance des applications Apache Spark lorsqu'elles sont utilisées avec Amazon Redshift.

Amazon Aurora Zero-ETL vers Amazon Redshift : il s'agit d'une intégration sans code entre Amazon Aurora et Amazon Redshift qui permet aux clients d'Amazon Aurora d'utiliser Amazon Redshift pour l'analytique en temps quasi-réel et le machine learning sur des pétaoctets de données transactionnelles. Quelques secondes après l'écriture des données transactionnelles dans Amazon Aurora, Amazon Aurora Zero-ETL to Amazon Redshift rend les données disponibles de manière transparente dans Amazon Redshift, ce qui évite aux clients de devoir construire et maintenir des pipelines de données complexes effectuant des opérations d'extraction, de transformation et de chargement (ETL). Cette intégration réduit la charge et les coûts opérationnels, et permet aux clients de se concentrer sur l'amélioration de leurs applications. Grâce à l'accès en quasi temps réel aux données transactionnelles, les clients peuvent exploiter les capacités d'analyse et de machine learning d'Amazon Redshift pour tirer des enseignements des données transactionnelles et autres afin de répondre efficacement aux événements critiques et sensibles au facteur temps.

Ingestion de streaming : les ingénieurs de données, les analystes de données et les développeurs big data utilisent des moteurs de streaming en temps réel pour améliorer la réactivité vis-à-vis des clients. Grâce à la nouvelle fonctionnalité d’ingestion en streaming d’Amazon Redshift, vous pouvez utiliser SQL (langage de recherche structurée) pour vous connecter et ingérer directement des données provenant d'Amazon Kinesis Data Streams et d'Amazon Managed Streaming for Apache Kafka (MSK). Amazon Redshift Streaming Ingestion facilite également la création et la gestion des pipelines en aval en vous permettant de créer directement des vues matérialisées sur les flux. Les vues matérialisées peuvent également inclure des transformations SQL dans le cadre de votre pipeline ELT (Extract Load Transform). Vous pouvez rafraîchir manuellement les vues matérialisées définies pour interroger les données en continu les plus récentes. Cette approche vous donne la possibilité d’effectuer un traitement en aval et des transformations de données en streaming à l’aide d’outils existants qui sont familiers. Et cela, sans frais supplémentaires.

Interrogation et exportation de données depuis et vers votre lac de données : aucun autre entrepôt des données cloud ne permet d'interroger aussi facilement des données et de réécrire des données dans votre lac de données dans des formats ouverts. Vous pouvez interroger des formats de fichiers ouverts tels que Parquet, ORC, JSON, Avro, CSV et plus directement dans Amazon S3 à l'aide du langage SQL ANSI courant. Pour exporter des données vers votre lac de données, utilisez simplement la commande Amazon Redshift UNLOAD dans votre code SQL, vous spécifiez Parquet comme format de fichier, et Amazon Redshift prend automatiquement en charge le formatage et le déplacement des données dans S3. Cela vous donne la possibilité de stocker des données hautement structurées et fréquemment consultées et des données semi-structurées dans un entrepôt des données Amazon Redshift, tout en conservant plusieurs exaoctets de données structurées, semi-structurées et non structurées dans Amazon S3. La réexportation de données d'Amazon Redshift vers votre lac de données vous permet d'analyser davantage les données avec des services AWS tels qu'Amazon Athena, Amazon EMR et Amazon SageMaker.

Intégration aux services AWS : l'intégration native aux services AWS ainsi qu'aux services de base de données et de machine learning facilite le traitement des flux de travail d'analytique complets sans accroc. Par exemple, AWS Lake Formation est un service qui facilite la configuration d'un lac de données sécurisé en quelques jours. AWS Glue peut effectuer des opérations Extract-transform-load (ETL) des données dans Amazon Redshift. Amazon Kinesis Data Firehose constitue le moyen le plus facile de capturer, transformer et charger des données de streaming dans Amazon Redshift pour une analyse presque en temps réel. Vous pouvez utiliser Amazon EMR pour traiter des données via Hadoop/Spark et charger la sortie dans Amazon Redshift pour l'informatique décisionnelle et les analyses. Amazon QuickSight est le premier service d'informatique décisionnelle avec paiement à l'utilisation que vous pouvez utiliser pour créer des rapports, des visualisations et des tableaux de bord sur des données Redshift. Vous pouvez utiliser Amazon Redshift pour préparer vos données à l'exécution de charges de travail de machine learning (ML) avec Amazon SageMaker. Pour accélérer les migrations vers Amazon Redshift, vous pouvez utiliser AWS Schema Conversion tool et AWS Database Migration Service (DMS). En outre, Amazon Redshift est pleinement intégré à Amazon Key Management Service (KMS) et Amazon CloudWatch à des fins de sécurité, de surveillance et de conformité. Vous pouvez également utiliser des fonctions définies par l'utilisateur Lambda pour appeler une fonction Lambda à partir de vos requêtes SQL comme si vous appeliez une fonction définie par l'utilisateur dans Amazon Redshift. Vous pouvez écrire des fonctions définies par l'utilisateur Lambda à intégrer aux services partenaires AWS mais aussi pour accéder à d'autres services AWS populaires tels qu'Amazon DynamoDB et Amazon SageMaker.

Intégration de la console partenaire : vous pouvez accélérer l'intégration des données et créer des informations métiers précieuses en quelques minutes en intégrant la console Amazon Redshift à certaines solutions partenaires. Grâce à ces solutions, vous pouvez intégrer les données d'autres applications telles que Salesforce, Google Analytics, Facebook Ads, Slack, Jira, Splunk et Marketo dans votre entrepôt des données Redshift de manière efficace et rationnelle. Vous pouvez également réunir ces jeux de données hétérogènes et les analyser ensemble afin d'obtenir des informations exploitables.

Copie automatique à partir d'Amazon S3 : Amazon Redshift prend en charge la copie automatique pour simplifier et automatiser le chargement des données à partir d'Amazon S3, ce qui réduit le temps et les efforts nécessaires pour élaborer des solutions personnalisées ou gérer des services tiers. Grâce à cette fonctionnalité, Amazon Redshift élimine la nécessité d'exécuter manuellement et de manière répétée les procédures de copie en automatisant l'ingestion des fichiers et en prenant en charge les étapes de chargement continu des données sous le capot. La prise en charge de la copie automatique permet aux utilisateurs opérationnels et aux analystes de données sans aucune connaissance en ingénierie des données de créer facilement des règles d'ingestion et de configurer l'emplacement des données qu'ils souhaitent charger depuis Amazon S3. Lorsque de nouvelles données arrivent dans les dossiers Amazon S3 spécifiés, le processus d'ingestion est déclenché automatiquement en fonction des configurations définies par l'utilisateur. Tous les formats de fichiers sont pris en charge par la commande de copie Redshift, y compris CSV, JSON, Parquet et Avro. 

Support natif pour l'analytique avancée : Amazon Redshift prend en charge les types de données scalaires standard tels que NUMBER, VARCHAR et DATETIME, et fournit un support natif pour les traitements analytiques avancés ci-dessous :

  • Traitement des données spatiales : Amazon Redshift fournit des données de type polymorphe, GEOMETRY, qui prennent en charge plusieurs formes géométriques telles que Point, Linestring et Polygon. Amazon Redshift fournit également des fonctions SQL spatiales pour élaborer des formes géométriques, importer, exporter, accéder et traiter les données spatiales. Vous pouvez ajouter des colonnes GEOMETRY aux tables Redshift et écrire des requêtes SQL couvrant des données spatiales et non spatiales. Cette fonctionnalité vous permet de stocker, de récupérer et de traiter des données spatiales et d'améliorer de manière transparente vos informations métiers en intégrant des données spatiales dans vos requêtes analytiques. Grâce à la capacité d'Amazon Redshift à interroger de manière transparente les lacs de données, vous pouvez également facilement étendre le traitement spatial aux lacs de données en intégrant des tables externes dans les requêtes spatiales. Consultez la documentation pour plus de détails.
  • HyperLogLog sketches : HyperLogLog est un nouvel algorithme qui estime efficacement le nombre approximatif de valeur distinctes dans un jeu de données. Le sketch HLL est une construction qui contient l'information sur les valeurs distinctes d'un jeu de données. Vous pouvez utiliser les sketches HLL afin de parvenir à des profits significatifs en termes de performance pour des requêtes qui calculent la cardinalité approximative de larges jeux de données, avec un taux moyen d'erreur de 0,01-0,6 %. Amazon Redshift fournit une première classe de type de données HLLSKETCH et fonctions SQL afférentes afin de générer, conserver et combiner les sketches HyperLogLog. La fonctionnalité HyperLogLog Amazon Redshift utilise des techniques de correction de biais et offre une haute précision tout en ayant une faible empreinte mémoire. Consultez la documentation pour plus de détails.
  • Les données de type date et heure : Amazon Redshift fournit plusieurs types de données DATE, TIME, TIMETZ, TIMESTAMP et TIMESTAMPTZ pour stocker et traiter de manière native les données / données d'heure. Les données de type TIME et TIMESTAMP stockent les données d'heure sans informations de fuseau horaire, tandis que les données de type TIMETZ et TIMESTAMPTZ stockent les données d'heure ainsi que les informations de fuseau horaire. Vous pouvez également utiliser diverses fonctions SQL date/heure pour traiter les valeurs de temps dans les requête Redshift. Consultez la documentation pour plus de détails.
  • Traitement des données semi-structurées : les données de type SUPER Amazon Redshift stockent de manière native les données semi-structurées JSON et autres dans des tables Redshift et utilisent le langage de requête PartiQL pour traiter de manière transparente les données semi-structurées. Les données de type SUPER sont par essence sans schéma et permettent de stocker des valeurs imbriquées pouvant contenir des valeurs scalaires Redshift, des tableaux imbriqués et des structures imbriquées. PartiQL est une extension de SQL qui fournit de puissantes capacités d'interrogation notamment naviguer dans les objets et les tableaux, aplatir les tableaux imbriqués mais aussi effectuer le typage dynamique et la sémantique sans schéma. Cette fonctionnalité vous permet de réaliser des analytiques avancées qui combinent les données SQL structurées classiques aux données SUPER semi-structurées avec des performances, une flexibilité et une facilité d'utilisation supérieures. Consultez la documentation pour plus de détails.
  • Intégration avec des outils tiers : plusieurs options permettent d'améliorer Amazon Redshift notamment les outils et experts leaders du marché pour le chargement, la transformation et la visualisation des données. Un grand nombre de nos partenaires ont certifié que leurs solutions fonctionnaient avec Amazon Redshift.
  • Chargez et convertissez vos données avec les partenaires d'intégration de données.
  • Analysez des données et partagez des informations avec toute votre entreprise grâce aux partenaires de business intelligence.
  • Concevez et mettez en œuvre votre plateforme d'analytique avec les partenaires consultants et intégrateurs de systèmes.
  • Interrogez, explorez et modélisez vos données à l'aide des outils et utilitaires proposés par nos partenaires spécialisés dans l'interrogation et la modélisation de données.

Des prix-performances à n'importe quelle échelle

Bénéficiez d'un rapport prix/performance jusqu'à cinq fois supérieur que les autres entrepôts des données cloud avec les optimisation automatisées pour accroître la vitesse des requêtes.

Instances RA3 : les instances RA3 offrent un rapport prix/performances pouvant être cinq fois supérieur à ceux de n'importe quel service d'entrepôt des données cloud. Ces instances Amazon Redshift optimisent la rapidité des charges de travail gourmandes en performances qui nécessitent d'importantes capacités de calcul, avec la flexibilité de payer séparément le calcul, indépendamment du stockage, en précisant le nombre d'instances dont vous avez besoin. En savoir plus.

Stockage efficace et traitement des requêtes hautes performances : Amazon Redshift offre des performances de requêtes élevées sur des jeux de données d'une taille allant de plusieurs gigaoctets à plusieurs pétaoctets. Le stockage en colonnes, la compression de données et le mappage de zones réduisent la quantité d'I/O nécessaires à l'exécution des requêtes. Outre les encodages standard tels que LZO et Zstandard, Amazon Redshift offre également un encodage de compression dédié, AZ64, pour les types de données numériques et d'horodatage afin d'économiser de l'espace de stockage et d'optimiser les performances d'interrogation.

Simultanéité illimitée : Amazon Redshift fournit des performances élevées en toutes circonstances, même en présence de milliers de requêtes simultanées, qu'il s'agisse de requêtes de données issues de votre entrepôt des données Redshift ou directement de votre lac de données Amazon S3. La mise à l'échelle de la simultanéité Amazon Redshift prend en charge un nombre quasi illimité d'utilisateurs et de requêtes simultanés avec des niveaux de service cohérents en ajoutant une capacité transitoire en quelques secondes à mesure que la simultanéité augmente. En savoir plus.

Vues matérialisées : les vues matérialisées d'Amazon Redshift vous permettent d'accélérer les requêtes de manière significative pour les charges de travail analytiques itératives ou prévisibles telles que la génération de tableaux de bord, les requêtes des outils d'informatique décisionnelle et les tâches de traitement de données ETL (extraction, transformation et chargement). Vous pouvez utiliser des vues matérialisées pour stocker et gérer facilement les résultats précalculés d'une instruction SELECT qui peut faire référence à une ou plusieurs tables, y compris à des tables externes. Les requêtes ultérieures qui font référence aux vues matérialisées peuvent s'exécuter bien plus rapidement en réutilisant les résultats précalculés. Amazon Redshift peut efficacement gérer les vues matérialisées de manière incrémentielle pour continuer à offrir les avantages des performances à faible latence. En savoir plus.

Vues matérialisées automatisées : les organisations créent davantage d'applications, de tableaux de bord, de rapports et de requêtes ponctuelles basées sur les données qu'auparavant. Chaque application doit être ajustée et optimisée, ce qui nécessite du temps, des ressources et de l'argent. Les vues matérialisées sont un outil puissant pour améliorer les performances des requêtes, et vous pouvez les configurer si vous avez des charges de travail bien comprises. Cependant, vous pouvez avoir des charges de travail croissantes et évolutives où les modèles de requêtes ne sont pas prévisibles. Les vues matérialisées automatiques offrent les avantages suivants : amélioration du débit des requêtes, réduction de la latence des requêtes, diminution des délais d'exécution à travers l'actualisation automatique, interrogation automatique de la réécriture, actualisation progressive et surveillance continue des clusters Amazon Redshift. Amazon Redshift fournit l'équilibre entre la création et la gestion des machines virtuelles automatiques, avec une utilisation minimale des ressources. En savoir plus.

Machine learning pour optimiser le débit et les performances : les fonctionnalités de ML avancées d'Amazon Redshift offrent des performances et un débit élevés, même avec des charges de travail variables ou une activité utilisateur simultanée. Amazon Redshift utilise des algorithmes sophistiqués pour prévoir et classer les requêtes entrantes en fonction de leurs temps d'exécution et de leurs exigences en matière de ressources, pour gérer de manière dynamique les performances et la simultanéité tout en vous aidant également à hiérarchiser vos charges de travail critiques. L'accélération des requêtes courtes envoie des requêtes courtes d'applications telles que des tableaux de bord vers une file d'attente express pour un traitement immédiat plutôt que de n'avoir rien à traiter derrière des requêtes longues. La gestion automatique des charges de travail utilise le ML pour gérer de manière dynamique la mémoire et la simultanéité, ce qui permet d'optimiser le débit des requêtes. En outre, vous pouvez désormais fixer facilement la priorité de vos requêtes les plus importantes, même lorsque des centaines de requêtes sont envoyées. Amazon Redshift est également un système d'autoformation qui observe la charge de travail utilisateur, en déterminant les possibilités d'amélioration des performances à mesure que l'utilisation évolue, en appliquant les optimisations de manière transparente et en formulant des recommandations via Redshift Advisor lorsqu'une action explicite de la part de l'utilisateur est nécessaire pour améliorer encore davantage les performances de Redshift.

Mise en cache des résultats : Amazon Redshift utilise la mise en cache de résultats pour offrir des temps de réponse inférieurs à une seconde pour les requêtes répétées. Les outils de tableau de bord, de visualisation et de business intelligence qui exécutent des requêtes répétées voient leurs performances augmenter significativement. Lorsqu'une requête s'exécute, Amazon Redshift recherche dans le cache un éventuel résultat mis en cache d'une exécution précédente. Si un résultat mis en cache est trouvé et que les données n'ont pas été modifiées, ce résultat est renvoyé immédiatement au lieu de ré-exécuter la requête.

Mise en entrepôt des données à une échelle en pétaoctets : en quelques clics dans la console ou grâce à un simple appel d'API, vous pouvez facilement ajuster le nombre ou le type de nœuds dans votre entrepôt des données, et mettre à l'échelle la charge à mesure que vos besoins en capacités évoluent. Avec le stockage géré, la capacité est automatiquement ajoutée pour prendre en charge des charges de travail allant jusqu'à 8 Po de données compressées. Vous pouvez aussi exécuter des requêtes sur plusieurs pétaoctets de données dans Amazon S3 sans avoir à charger ou transformer des données via la fonction Amazon Redshift Spectrum. Vous pouvez utiliser S3 comme un lac hautement disponible, sécurisé et rentable pour stocker des données illimitées dans des formats de données ouverts. Redshift Spectrum exécute les requêtes sur des milliers de nœuds en parallèle pour fournir des résultats rapides, quelle que soit la complexité de la requête ou la quantité de données.

Options de tarification flexibles : Amazon Redshift est l'entrepôt des données le plus économique sur le marché, et vous pouvez optimiser votre paiement. Vous pouvez commencer modestement à seulement 0,25 USD l'heure sans engagement, et à monter en puissance pour seulement 1 000 USD par téraoctet et par an. Amazon Redshift est le seul entrepôt des données cloud qui offre une tarification à la demande sans coûts initiaux, une tarification d'instance réservée pouvant vous faire économiser jusqu'à 75 % en vous engageant pour une durée de 1 à 3 ans, et une tarification par requête basée sur la quantité de données analysées dans votre lac de données Amazon S3. La tarification d'Amazon Redshift inclut la sécurité intégrée, la compression des données, le stockage de sauvegarde et le transfert de données. À mesure que la taille des données augmente, vous utilisez le stockage géré dans les instances RA3 pour stocker les données de manière rentable à 0,024 USD par Go et par mois.

Coûts prévisibles, même avec des charges de travail qui ne le sont pas : Amazon Redshift vous permet d'effectuer une mise à l'échelle avec un ratio coût-impact minimal, car chaque cluster gagne jusqu'à une heure de crédits gratuits d'adaptation de la simultanéité par jour. Ces crédits gratuits suffisent pour satisfaire les besoins en termes de simultanéité de 97 % des clients. Cela vous donne une prévisibilité dans vos coûts mensuels, et ce, même pendant les périodes de fluctuation de la demande en analyse.

Choisissez votre type de nœud pour bénéficier d'une valeur optimale pour vos charges de travail : vous pouvez choisir parmi trois types d'instances pour optimiser Amazon Redshift en fonction de vos besoins en matière d'entreposage de données : nœuds RA3, nœuds de calcul et nœuds de stockage dense.

Les nœuds RA3 vous permettent de mettre à l'échelle le stockage indépendamment du calcul. Avec RA3, vous disposez d'un entrepôt des données hautes performances qui stocke les données dans une couche de stockage distincte. Il vous suffit de mettre à l'échelle l'entrepôt des données en fonction des performances de requête dont vous avez besoin.

Les nœuds de calcul dense (DC) vous permettent de créer des entrepôts des données de très hautes performances à l'aide de processeurs rapides, de grandes quantités de RAM et de disques SSD et constituent le meilleur choix dans le cas de données ne dépassant pas 500 Go.

Les nœuds de stockage dense (DS2) vous permettent de créer de grands entrepôts des données à l'aide de disques durs à un prix avantageux lorsque vous achetez les instances réservées de 3 ans. La plupart des clients qui exploitent des clusters DS2 peuvent migrer leurs charges de travail vers des clusters RA3 et bénéficier de performances et d'une capacité de stockage 2 fois plus élevées pour un prix équivalent à celui des clusters DS2.

Pour mettre à l'échelle votre cluster ou modifier le type de nœuds, il vous suffit de lancer un seul appel d'API ou d'effectuer quelques clics dans la console de gestion AWS. Reportez-vous à la page de tarification pour en savoir plus.

Simple, sûr et fiable

Concentrez-vous sur l'obtention d'informations à partir des données en quelques secondes et sur vos résultats métier, sans vous soucier de la gestion de votre entrepôt des données.

Amazon Redshift sans serveur : Amazon Redshift sans serveur est une option sans serveur d'Amazon Redshift qui facilite l'exécution analytique en quelques secondes et la mise à l'échelle sans devoir configurer ni gérer une infrastructure d'entrepôt des données. Avec Amazon Redshift Serverless, n'importe quel utilisateur, notamment analyste de données, développeur, professionnel de l'informatique et scientifique des données, peut obtenir des informations à partir des données, simplement en chargeant les données dans l'entrepôt des données et en les interrogeant. En savoir plus.

Query Editor v2 : utilisez SQL pour rendre vos données et lac de données Amazon Redshift plus accessibles aux analystes de données, aux ingénieurs de données et à d'autres utilisateurs SQL avec une référence d'analyste sur le Web pour l'exploration et l'analyse des données. Query Editor v2 vous permet de visualiser les résultats de requête en un seul clic, de créer des schémas et des tables, de charger des données visuellement et de parcourir des objets de base de données. Il fournit aussi un éditeur intuitif pour créer et partager des requêtes SQL, des analyses, des visualisations et des annotations et de les partager de manière sécurisé avec votre équipe.

Conception de table automatisée : Amazon Redshift surveille les charges de travail des utilisateurs et utilise des algorithmes sophistiqués pour améliorer la disposition physique des données afin d'optimiser la vitesse des requêtes. L'optimisation automatique des tables permet de sélectionner les meilleures clés de tri et de distribution pour optimiser les performances de la charge de travail du cluster. Si Amazon Redshift détermine que l'application d'une clé peut améliorer les performances du cluster, les tables sont automatiquement modifiées sans que l'administrateur ait à intervenir. Grâce aux fonctions supplémentaires telles que Automatic Vacuum Delete, Automatic Table Sort et Automatic Analyze, il n'est plus nécessaire d'effectuer une maintenance manuelle ni de régler les clusters Redshift pour obtenir les meilleures performances pour de nouveaux clusters et charges de travail de production.

Interrogation à l'aide de vos propres outils : Amazon Redshift vous donne la possibilité d'exécuter des requêtes en quelques secondes au sein de la console ou de connecter les outils client SQL, les bibliothèques client SQL ou les outils de science des données y compris Amazon QuickSight, Tableau, PowerBI, QueryBook et les blocs-notes Jupyter.

API simple pour interagir avec Amazon Redshift : Amazon Redshift vous permet d'accéder facilement aux données avec tous les types d'applications (applications basées sur des événements, basées sur des services Web, sans serveur, traditionnelles, natives cloud et conteneurisées). L'API Data d'Amazon Redshift simplifie l'accès aux données, leur intégration et leur sortie à partir des langages de programmation et des plateformes pris en charge par le kit AWS SDK, comme Python, Go, Java, Node.js, PHP, Ruby et C++. Grâce à l'API Data, vous n'avez pas besoin de configurer les pilotes et de gérer les connexions aux bases de données. Vous pouvez exécuter des commandes SQL sur un cluster Amazon Redshift en appelant un point de terminaison d'API sécurisé fourni par l'API Data. L'API Data prend en charge la gestion des connexions à la base de données et la mise en mémoire tampon des données. L'API Data est asynchrone ; vous pouvez donc récupérer les résultats plus tard. Les résultats de votre requête sont hébergés durant 24 heures.

Tolérance aux pannes : de nombreuses fonctionnalités améliorent la fiabilité de votre cluster d'entrepôts des données. À titre d'exemple, Amazon Redshift surveille en permanence l'état du cluster et relance automatiquement la réplication des données en cas de défaillance de lecteurs. Il remplace également les nœuds en cas de besoin pour maintenir la tolérance aux pannes. Les clusters peuvent également être déplacés vers des zones de disponibilité alternatives (AZ) sans aucune perte de données ni modification d'application.

AWS dispose de capacités de sécurité complètes pour satisfaire les besoins les plus exigeants, et Amazon Redshift fournit une sécurité opérationnelle des données sans frais supplémentaires.

Contrôles d'accès granulaires : les contrôles de sécurité granulaires au niveau des lignes et des colonnes garantissent que les utilisateurs ne voient que les données auxquelles ils sont censés avoir accès. Amazon Redshift est intégré à AWS Lake Formation, ce qui garantit que les contrôles d'accès au niveau des colonnes de Lake Formation concernent également les requêtes Redshift sur les données dans le lac de données.

Le partage de données d'Amazon Redshift prend en charge le contrôle d'accès centralisé avec AWS Lake formation pour simplifier la gouvernance des données partagées depuis Amazon Redshift. AWS Lake Formation (LF) est un service qui facilite la mise en place de lacs de données sécurisés, la gestion centralisée de l'accès granulaire aux données dans tous les services consommateurs et l'application de contrôles au niveau des lignes et des colonnes.

Masquage des données dynamique : grâce au masquage dynamique des données, les clients peuvent facilement protéger leurs données sensibles en limitant la quantité de données identifiables visibles par les utilisateurs. Ils peuvent également définir plusieurs niveaux de permissions sur ces champs afin que différents utilisateurs et groupes puissent disposer de divers niveaux d'accès aux données sans avoir à créer plusieurs copies des données, le tout depuis l'interface SQL familière de Redshift.

Multi-AZ : la nouvelle configuration multi-AZ de Redshift étend encore les capacités de récupération en réduisant le temps de récupération et en garantissant la récupération automatique sans perte de données. Un entrepôt de données Redshift Multi-AZ maximise les performances et la valeur en offrant une haute disponibilité sans avoir à utiliser des ressources de secours.

Chiffrement de bout en bout : quelques paramètres suffisent à configurer Amazon Redshift de façon à ce qu'il utilise SSL pour protéger les données en transit et le chiffrement AES 256 à accélération matérielle pour les données au repos. Si vous choisissez d'activer le cryptage pour les données au repos, toutes les données écrites sur le disque seront également cryptées, de même que toutes les sauvegardes. Par défaut, Amazon Redshift prend en charge la gestion des clés.

Isolement du réseau : Amazon Redshift vous permet de configurer des règles de pare-feu afin de contrôler l'accès réseau à votre cluster d'entrepôts des données. Vous pouvez exécuter Amazon Redshift au sein d'Amazon Virtual Private Cloud (VPC) afin d'isoler votre cluster d'entrepôts des données dans votre propre réseau virtuel. Ainsi, vous pouvez connecter votre cluster à votre infrastructure informatique existante à l'aide d'une connexion VPN IPsec chiffrée conforme aux normes du secteur.

Audit et conformité : Amazon Redshift s'intègre à AWS CloudTrail pour vous permettre d'auditer tous les appels d'API Redshift. Redshift consigne toutes les opérations SQL, notamment les tentatives de connexion, les requêtes et les modifications apportées à votre entrepôt des données. Vous pouvez accéder à ces journaux en lançant des requêtes SQL sur des tables système, ou enregistrer les journaux vers un emplacement sécurisé dans Amazon S3. Amazon Redshift respecte les normes SOC1, SOC2 et SOC3, ainsi que les exigences de la certification de conformité PCI DSS de niveau 1. Pour plus d'informations, consultez la page de la conformité dans le Cloud AWS.

Création de jetons : les fonctions définies par l'utilisateur d'Amazon Lambda vous permettent d'utiliser une fonction AWS Lambda comme fonction définie par l'utilisateur dans Amazon Redshift et de l'invoquer à partir de requêtes SQL Redshift. Avec cette fonctionnalité, vous pouvez écrire des extensions personnalisées pour votre requête SQL afin de renforcer l'intégration avec d'autres services ou des produits tiers. Vous pouvez écrire des fonctions définies par l'utilisateur Lambda pour permettre la création de jeton externe, le masquage des données, l'identification ou la désidentification des données, en intégrant des fournisseurs comme Protegrity, et protéger ou déprotéger les données sensibles en fonction des groupes et des permissions de l'utilisateur au moment de la requête.

Apprenez-en davantage sur les nouveautés.

Consultez la documentation Amazon Redshift pour obtenir des informations plus détaillées sur le produit.