Limitations et problèmes connus dans Data Virtualization
Les limitations et problèmes connus suivants s'appliquent à Data Virtualization.
- Problèmes généraux
- Les limitations et problèmes généraux suivants s'appliquent à Data Virtualization.
- La virtualisation d'un grand nombre de tables simultanément peut entraîner des erreurs de serveur interne
- Le volume persistant sur le noeud principal Data Virtualization est saturé
- Vous ne pouvez pas utiliser de caractères spéciaux tels que des points-virgules dans les noms de schéma lorsque vous virtualisez une table dans MongoDB on Cloud
- L'aperçu des tables virtualisées est limité par la taille des lignes et le nombre de colonnes
- Vous devez actualiser le certificat SSL utilisé par Data Virtualization après la mise à jour du certificat autosigné Cloud Pak for Data
- Vous ne pouvez pas utiliser de caractères spéciaux dans les noms de table
- Vous ne pouvez pas utiliser de caractères spéciaux dans les noms de schéma utilisés dans les sources de données éloignées
- La virtualisation des grandes tables peut être lente ou échouer
- Le téléchargement du package de pilote Linux échoue dans un environnement avec isolation physique
- L'utilisation du certificat SSL personnalisé peut entraîner des erreurs de vérification
- Interroger les problèmes de performances en raison des statistiques de table manquantes
- Impossible de se connecter au service dans l'environnement d'équilibrage de charge
- Problèmes liés aux sources de données
- Les limitations et problèmes suivants s'appliquent aux sources de données dans Data Virtualization. Voir aussi Sources de données prises en charge dans Data Virtualization.
- Certaines colonnes sont manquantes après la virtualisation des tables dans une SQL Database Microsoft Azure dans Data Virtualization
- La connexion à une source de données avec un secret qui utilise le type défini sur generic échoue
- Pilotes JDBC par défaut pour utiliser le protocole TLSv1.3
- Les connexions qui utilisent un certificat SSL personnalisé, qui a été stocké dans un coffre, doivent d'abord être créées dans les connexions de plateforme
- Impossible de créer des connexions à la source de données Db2 on Cloud avec des clés d'API stockées dans des coffres
- Impossible d'ajouter une connexion à la source de données SAP S/4HANA avec une connexion SAP OData
- Certaines requêtes adressées aux sources de données SAP HANA n'affichent pas de résultats corrects
- Les tables d'une source de données MongoDB peuvent être manquantes lorsque vous virtualisez
- Vous ne pouvez pas vous connecter à une source de données MongoDB avec des caractères spéciaux dans un nom de base de données
- La prévisualisation des tables renvoie des données incorrectes pour TINYINT dans les sources de données SAP HANA
- Lorsque vous virtualisez des données contenant des types de données LOB (CLOB/BLOB) ou Long Varchar, l'aperçu peut afficher les colonnes comme vides
- Lorsque vous prévisualisez des tables, les données LONG VARCHAR et LONG VARCHAR pour les données binaires sont mappées vers CLOB et BLOB
- Erreurs lors de l'édition d'une connexion SSL
- Prise en charge du type de données d'horodatage jusqu'à la valeur nanosecondes
- Impossible de prévisualiser les données à partir de la source Db2 for i
- Limitations des connexions de source de données SSL
- Impossible d'éditer des propriétés supplémentaires pour les connexions de source de données
- Limitations liées à l'ajout de connexions de source de données Db2 on Cloud
- Limitations liées à l'ajout de connexions de source de données Db2 Hosted , Db2 Event Storeet Compose for MySQL
- Problèmes de performances de requête sur les sources de données Db2
- Sources de données distantes - Problèmes de performances lors de la création d'une connexion de source de données
- Sources de données distantes - Erreurs dans le script de mise à niveau du connecteur distant
- Sources de données distantes - Impossible d'utiliser les points de jonction système
- Problèmes de gestion des utilisateurs et des groupes
- Les limitations et problèmes suivants s'appliquent à la gestion des utilisateurs et des groupes dans Data Virtualization.
- Problèmes de gouvernance des données
- Les limitations et problèmes suivants s'appliquent à la gouvernance des données dans Data Virtualization.
- Vous ne pouvez pas appliquer des termes métier lorsque vous virtualisez des fichiers dans des sources de données dans l'onglet Fichiers
- Le profilage des actifs de données Data Virtualization dans Watson Knowledge Catalog échoue dans Cloud Pak for Data versions 4.0.7 et 4.0.8
- La publication automatique d'objets virtuels dans le catalogue est limitée à certains objets
- Data Virtualization applique toujours les règles de protection des données
- Problèmes de contrôle d'accès pour prévisualiser les actifs avec des données masquées
- Impossible de voir la liste des tables disponibles dans le mode de virtualisation par défaut
- Impossible de voir la liste des tables disponibles dans le mode de virtualisation strict
- L'accès à une table est refusé par les règles
- Ne pas utiliser d'actifs de catalogue en double pour la même table
- Impossible de voir le terme métier affecté à l'actif de données
- Un objet virtualisé ne peut pas être utilisé dans des Cognos Dashboards sans données d'identification et avec un rôle approprié
- Incidents liés à la mise en cache
- Les limitations et problèmes suivants s'appliquent à la mise en cache dans Data Virtualization.
- Problèmes de fichiers
- Les limitations et problèmes suivants s'appliquent aux fichiers dans Data Virtualization.
- Vous ne pouvez pas prévisualiser les valeurs de chaîne longues dans les en-têtes CSV, TSV ou Excel
- Il se peut que des erreurs se produisent lorsque vous virtualisez de grands fichiers Excel
- Remplacement de la détection de codage pour les données de fichiers avec des caractères japonais
- Seul le codage de caractères UTF-8 est pris en charge pour les fichiers CSV, TSV et JSON dans Cloud Object Storage
- Problèmes résolus
- Les limitations et problèmes suivants sont résolus dans Data Virtualization 1.7.8.
- La mise à niveau deData Virtualization est bloquée à l'état en attente lorsqu'un nouveau projet Cloud Pak for Data est ajouté
- Accélérez le chargement des tables lorsque vous virtualisez
- Vous devez effectuer un zoom arrière dans l'interface utilisateur pour ajouter tous les détails de connexion à une connexion de plateforme existante dans Cloud Object Storage
- Lorsque vous éditez une page de tableau groupable avec une longue liste, la barre de défilement peut disparaître
- Problèmes de mise en cache avec Cloud Object Storage
- Le pod de mise en cache ne s'initialise pas lorsque Db2 Data Management Console n'est pas disponible
- Les tables virtualisées créées à partir de fichiers Excel volumineux peuvent ne pas avoir de contenu après la mise à niveau vers Cloud Pak for Data version 4.0.5
- Le service Data Virtualization sur Cloud Pak for Data peut sembler instable sur un cluster Red Hat OpenShift Kubernetes Service
- Vous ne pouvez pas utiliser des caractères spéciaux tels que des guillemets doubles dans les noms de schéma lorsque vous virtualisez une table
- Une source de données ajoutée avec la procédure mémorisée setrdbcx peut ne pas apparaître dans l'interface utilisateur
- Le pilote IBM Informix ne prend pas en charge les connexions SSL
- Impossible d'éditer la connexion Ceph lorsque des paramètres incorrects sont entrés
- La virtualisation peut échouer lors de l'affectation à une demande de données créée par un autre utilisateur du groupe
- Certaines valeurs sont vides dans la page Paramètres des services
- Il se peut qu'un utilisateur ne soit pas en mesure d'accéder à la page du tableau de bord du cache
Voir aussi Traitement des incidents liés au service Data Virtualization.
Problèmes généraux
- La virtualisation d'un grand nombre de tables simultanément peut entraîner des erreurs de serveur interne
Lorsque vous ajoutez un grand nombre de tables à votre panier, par exemple plus de 120, et que vous essayez de les virtualiser, vous pouvez voir le code de statut HTTP 500Internal Server Erroret votre panier ne sera pas virtualisé.
- Le volume persistant sur le noeud principal Data Virtualization est saturé
Le volume persistant (PV) sur le noeud principal Data Virtualization est saturé car les journaux de transactions archivés dans la base de données Db2® intégrée occupent une quantité importante d'espace sur le PV.
Pour contourner ce problème, voir Le volume persistant sur la pod de tête Data Virtualization devient saturé.
- Vous devez actualiser le certificat SSL utilisé par Data Virtualization après la mise à jour du certificat autosigné Cloud Pak for Data
Data Virtualization arrête d'accepter les connexions à l'expiration de votre certification SSL. Un message d'erreur indiquantThe server encountered an errorsuivie d'uneLoad configured data source failed: HttpError500:NONE.
- Vous ne pouvez pas utiliser de caractères spéciaux dans les noms de table
Tous les caractères ne sont pas admis dans les noms de table. Par exemple, le caractère dièse (#) n'est pas admis dans les noms de table. Le caractère dièse ne doit pas être utilisé dans les noms de table, même s'il est entre guillemets.
- Vous ne pouvez pas utiliser de caractères spéciaux tels que des points-virgules dans les noms de schéma lorsque vous virtualisez une table dans MongoDB on Cloud
Lorsque vous virtualisez une table dans une source de données MongoDB on Cloud dont le nom de schéma comporte un point-virgule, vous ne pouvez pas virtualiser la table. La source de données MongoDB on Cloud supprime le point-virgule du nom de schéma et les requêtes de cette table virtuelle échouent avec l'erreur SQL5105N.
- Vous ne pouvez pas utiliser de caractères spéciaux dans les noms de schéma utilisés dans les sources de données éloignées
Vous pouvez virtualiser une table dans la source de données distante mais l'interrogation de la table virtuelle échoue avec une erreur SQL5105N. Voir l'exemple suivant.
ERROR] SQL error: [IBM][CLI Driver][DB2/LINUXX8664] SQL5105N The statement failed because a Big SQL component encountered an error. Component receiving the error: "DV-FMP". Component returning the error: "Virtualization Connector". Log entry identifier: "GAI-003-NA". SQLSTATE=58040 SQLCODE=-5105 (fvt_sql.py:157)
- L'aperçu des tables virtualisées est limité par la taille des lignes et le nombre de colonnes
- Data Virtualization prend en charge la virtualisation des tables avec une taille de ligne allant jusqu'à 1 Mo et jusqu'à 2048 colonnes dans une table. Toutefois, le nombre de colonnes que Data Virtualization peut prévisualiser dépend de nombreux facteurs, tels que les types de données des colonnes. Actuellement, l'aperçu est limité à 200 colonnes.
- La virtualisation des grandes tables peut être lente ou échouer
- Lorsque vous virtualisez plusieurs tables de grande taille à partir de sources de données, vous pouvez voir les messages suivants dans la boîte de dialogue Virtualiser les objets :
Error: CREATE OR REPLACE NICKNAME -- DB2 SQL Error: SQLCODE=-1229, SQLSTATE=40504, SQLERRMC=null, DRIVER=4.29.24
OuError: CREATE OR REPLACE NICKNAME -- "<schema>"."<table>" already exists in Server "<server>" (use REPLACE=Y to overwrite)
OuThe table <schema>.<table> already exists. Use REPLACE=Y to overwrite CallStack
- Le téléchargement du package de pilote Linux® échoue dans un environnement avec isolation physique
Sur la page Informations de connexion, lorsque vous cliquez sur Télécharger le module de pilote de périphériqueLinux, les pilotes doivent être téléchargés à partir d'un site Web externe. Cette option n'est pas prise en charge actuellement dans un environnement à mémoire d'air.
- L'utilisation du certificat SSL personnalisé peut entraîner des erreurs de vérification
Lorsque vous suivez ces instructions pour utiliser un certificat SSL ou TLS personnalisé, vous pouvez rencontrer des erreurs de vérification SSL et Data Virtualization risque de ne pas fonctionner. Les certificats signés par une autorité de certification personnalisés ne sont pas pris en charge pour Data Virtualization. Les certificats autosignés ne sont pas à l'origine de ce problème et sont pris en charge pour Data Virtualization. Pour contourner ce problème, rétablissez le certificat par défaut fourni avec Cloud Pak for Data ou utilisez un certificat autosigné.
- Interroger les problèmes de performances en raison des statistiques de table manquantes
Lorsque vous créez des tables virtuelles, certaines statistiques de table ne sont pas collectées correctement. Pour résoudre ce problème, voir Les statistiques de table ne sont pas collectées. Pour plus d'informations, voir Collecte de statistiques dans Data Virtualization.
- Impossible de se connecter au service dans l'environnement d'équilibrage de charge
Si vous obtenez une erreur de délai d'attente lorsque vous tentez de vous connecter à Data Virtualization, augmentez les valeurs de délai d'attente. Pour augmenter les valeurs de délai d'attente, mettez à jour le fichier
/etc/haproxy/haproxy.cfget définissez le délai d'attente du client et du serveur sur10m. Pour plus d'informations, voir Paramètres de dépassement de délai de l'équilibrage de charge.
Problèmes liés aux sources de données
- Certaines colonnes sont manquantes après la virtualisation des tables dans Microsoft Azure SQL Database dans Data Virtualization
- Certaines colonnes peuvent être manquantes après la virtualisation d'une table de la base de données Microsoft Azure SQL Database . En effet, le processus de virtualisation dans Data Virtualization utilise un cache pour résoudre la structure de table distante. Si cette structure est périmée et que de nouvelles colonnes ont été ajoutées à la table distante, la table virtuelle résultante contient uniquement l'ancien sous-ensemble de colonnes.
- La connexion à une source de données avec un secret qui utilise le type défini sur générique échoue
- Si vous définissez un secret générique (
type=generic) dans un coffre et que vous utilisez ce secret pour vous connecter à une source de données à l'aide de la procédure mémoriséesetrdbcx, la connexion échoue avec un message d'erreur similaire au message suivant.qpendpoint_5:6419, a échoué avec l'exception'java.sql.SQLException: Echec de la mise à jour des détails de connexion dans l'étape de génération de nouveaux détails de connexion. Cause: Echec de la mise à jour des détails de connexion dans l'étape d'extraction des détails de secret. Cause: null'a été émis lors de l'évaluation d'une expression.
- Pilotes JDBC par défaut pour utiliser le protocole TLSv1.3
Certaines connexions dans Cloud Pak for Data 4.0.8 utilisent par défaut le protocole TLSv1.3 lorsqu'elles initient des connexions SSL à des sources de données distantes. Si la source de données distante ne prend pas en charge TLSv1.3, l'établissement de liaison SSL échoue.
- Les connexions qui utilisent un certificat SSL personnalisé, qui a été stocké dans un coffre, doivent d'abord être créées dans les connexions de plateforme
Si une connexion utilise un certificat SSL personnalisé qui a été stocké dans un coffre, la connexion doit d'abord être créée dans Connexions de plateforme à l'aide de l'API REST du service de connexions avant de pouvoir être ajoutée sur la page Sources de données dans Data Virtualization avec .
Le certificat SSL doit être saisi sous forme de certificat brut au format texte ou être entré en utilisant le format de référence de secret suivant en tant que secret singleton plutôt qu'un tableau JSON, comme illustré dans l'exemple suivant.
"ssl_certificate": "{\"secretRefID\":\"secret_urn:MySSLCert\",\"key\":\"password\"}"- Impossible de créer des connexions à la source de données Db2 on Cloud avec des clés d'API stockées dans des coffres
- Lorsque vous entrez une connexion à une source de données Db2 on Cloud via un connecteur distant ou un agent local et que vous utilisez une clé d'API qui est stockée dans un coffre comme données d'identification, l'action échoue avec uneError SQL4302N "Exception occurred during connection":NONE.
- Impossible d'ajouter une connexion à la source de données SAP S/4HANA avec une connexion SAP OData
- Si vous tentez de vous connecter à une source de données SAP S/4HANA contenant de nombreuses tables, cette connexion risque d'échouer et la connexion risque d'échouer. L'augmentation des paramètres de délai d'attente n'a pas d'impact.
- Certaines requêtes adressées aux sources de données SAP HANA n'affichent pas de résultats corrects
Lorsque vous interrogez des tables virtualisées dans des sources de données SAP HANA qui sélectionnent certaines colonnes et utilisent l'opérateur NOT comme filtre sur ces colonnes, des résultats incorrects peuvent s'afficher.
- Les tables d'une source de données MongoDB peuvent être manquantes lorsque vous virtualisez
Lorsque vous créez une connexion à MongoDB vous ne voyez que les tables qui ont été créées dans la source de données MongoDB avant l'ajout de la connexion.
Par exemple, si vous disposez de 10 tables dans votre source de données MongoDB lorsque vous créez une connexion, vous voyez 10 tables lorsque vous commencez à virtualiser la table. Si un utilisateur ajoute de nouvelles tables à la source de données MongoDB après l'ajout de la connexion et avant de cliquer sur Virtualiser, Data Virtualization n'affichera pas les nouvelles tables sous l'onglet Virtualiser .
- Vous ne pouvez pas vous connecter à une source de données MongoDB avec des caractères spéciaux dans un nom de base de données
Le pilote MongoDB JDBC en cours ne prend pas en charge la connexion aux noms de base de données contenant des caractères spéciaux.
- La prévisualisation des tables renvoie des données incorrectes pour TINYINT dans les sources de données SAP HANA
Si vous prévisualisez des sources de données SAP HANA qui contiennent des données de type TINYINT, vous voyez des données inexactes pour certaines lignes de type TINYINT. Toutefois, vous pouvez virtualiser la source de données. Seul l'aperçu est concerné.
- Lorsque vous virtualisez des données contenant des types de données LOB (CLOB/BLOB) ou Long Varchar, l'aperçu peut afficher les colonnes comme vides
Une fois que vous avez virtualisé la table, dans Données virtualisées, les données sont disponibles pour les colonnes qui contiennent des types de données LOB ou Long Varchar.
- Lorsque vous prévisualisez des tables, les données LONG VARCHAR et LONG VARCHAR pour les données binaires sont mappées vers CLOB et BLOB
- Lorsque vous prévisualisez les tables, LONG VARCHAR et LONG VARCHAR pour les données binaires sont désormais mappées dans Data Virtualization comme suit:
- Les données LONG VARCHAR distantes mappées à Data Virtualization CLOB et la longueur du correctif sont 32700.
- Le type LONG VARCHAR distant pour les données binaires est mappé à l'objet BLOB Data Virtualization et la longueur du correctif est 32700.
- Erreurs lors de l'édition d'une connexion SSL
Par exemple, vous pouvez voir le message suivant.DB_WARNING: ENGINE_JDBC_CONN_ATTEMPT_ERROR: Failed JDBC Connection attempt in XXX ms for: YYY;sslTrustStoreLocation=/path/.dsTempTrustStore;, cause: .... Message: java.lang.RuntimeException: Unexpected error: java.security.InvalidAlgorithmParameterException: the trustAnchors parameter must be non-empty.
- Prise en charge du type de données d'horodatage jusqu'à la valeur nanosecondes
Data Virtualization prend en charge le type de données d'horodatage jusqu'à la nanoseconde. Lorsque le type d'horodatage d'une source de données distante a une échelle supérieure à 9 nanosecondes, Data Virtualization renvoie des valeurs de colonne d'horodatage tronquées jusqu'à la nanoseconde. En outre, pour les prédicats d'horodatage, Data Virtualization ne se compare qu'à des nanosecondes.
- Impossible de prévisualiser les données à partir de la source Db2 for i
Lorsque vous tentez de prévisualiser des données à partir de Db2 for i, un message d'erreur s'affiche. Db2 for i peut être une source de données distante et vous ne disposez pas des droits d'accès requis. Pour plus d'informations, voir la documentation du produitDb2.
- Limitations des connexions de source de données SSL
- Les limitations et problèmes connus suivants s'appliquent aux connexions de sources de données SSL dans Data Virtualization:
- Prise en charge du format de certificat PEM uniquement pour les sources de données intégrées
- Lorsque vous ajoutez une source de données intégrée à Data Virtualizationet que vous téléchargez un certificat SSL, Data Virtualization prend en charge les certificats SSL au format PEM uniquement. Si vous ajoutez une source de données intégrée à Data Virtualizationet que vous utilisez un certificat SSL avec un format non PEM, la connexion échoue.
Vous pouvez utiliser
opensslpour convertir vos certificats SSL au format PEM avant de télécharger le fichier de certificat SSL pour ajouter une connexion de source de données. Pour plus d'informations, voir Impossible de se connecter à une source de données. - Problèmes de téléchargement de certificats SSL pour les connexions nécessitant un pilote tiers
- Lorsque vous ajoutez une connexion à une source de données en téléchargeant un pilote tiers et que vous tentez d'utiliser un certificat SSL, vous pouvez rencontrer une erreur. Il est recommandé d'utiliser des connexions non SSL uniquement pour les sources de données nécessitant des pilotes tiers.
- Impossible d'éditer des propriétés supplémentaires pour les connexions de source de données
Vous pouvez spécifier des propriétés JDBC supplémentaires lorsque vous ajoutez des connexions de source de données à Data Virtualization. Toutefois, vous ne pouvez pas modifier ces propriétés JDBC supplémentaires une fois que vous avez ajouté des connexions de source de données.
- Limitations relatives à l'ajout de connexions de source de données Db2 on Cloud
Vous pouvez ajouter des connexions de source de données Db2 on Cloud à Data Virtualization. Toutefois, vous ne pouvez pas spécifier d'informations de port lorsque vous ajoutez ces connexions de source de données ; par défaut, le port 50001 est utilisé. En outre, vous ne pouvez pas indiquer si SSL est activé pour le port. Par conséquent, SSL est activé par défaut pour toutes les connexions Db2 on Cloud . Si vous souhaitez ajouter une connexion Db2 on Cloud avec un port différent ou sans activer SSL, indiquez le type de connexion
Db2.- Limitations relatives à l'ajout de connexions de source de données Db2 Hosted , Db2 Event Store, et Compose for MySQL
Lorsque vous tentez d'ajouter des connexions de source de données Db2 Hosted , Db2 Event Store, et Compose for MySQL , vous ne pouvez pas indiquer si SSL doit être activé ou non. Cette limitation vous empêche d'ajouter ces connexions de source de données à Data Virtualization. Pour résoudre ce problème, si vous souhaitez ajouter ces connexions à Data Virtualization, spécifiez le type de connexion
Db2pour Db2 Hosted et Db2 Event Store , source de données et type de connexionMySQLpour la source de données Compose for MySQL .- Problèmes de performances des requêtes sur les sources de données Db2
Lorsque vous exécutez une requête sur des sources de données Db2 , vous pouvez rencontrer des problèmes de performances. Par exemple, ces problèmes de performances peuvent apparaître si votre instruction SQL utilise une chaîne comparable, telle que
c1 = 'abc', c2=c3, oùc1,c2etc3sont des types de données de type chaîne tels quecharouvarchar. Pour éviter ces problèmes de performances, vous devez modifier l'option de serveur de séquence de classement (COLLATING_SEQUENCE) de la source de données. Pour plus d'informations sur cette option de serveur, voir Séquence de classement.- Sources de données distantes - Problèmes de performances lors de la création d'une connexion de source de données
- Vous tentez de créer une source de données en recherchant un autre hôte, mais le processus prend plusieurs minutes. Ce problème de performances ne se produit que lorsque ces deux conditions sont remplies :
- La source de données distante est connectée à plusieurs clusters Cloud Pak for Data
- Data Virtualization se connecte à plusieurs sources de données dans différents clusters Cloud Pak for Data à l'aide de connecteurs distants.
Pour résoudre ce problème, vérifiez que vos connexions Data Virtualization se trouvent sur un cluster Cloud Pak for Data unique.
- Sources de données distantes - Erreurs dans le script de mise à niveau du connecteur distant
Lorsque vous exécutez le script pour mettre à niveau un connecteur distant sur une source de données Windows , des messages d'erreur s'affichent. Exemple :
'#' is not recognized as an internal or external command, operable program or batch file. '#export' is not recognized as an internal or external command, operable program or batch file.
Vous pouvez ignorer ces messages d'erreur lorsque le connecteur distant a été mis à niveau avec succès.
- Sources de données distantes - Impossible d'utiliser les points de jonction système
- Data Virtualization ne prend pas en charge l'exploration de données sur des sources de données distantes à l'aide de chemins contenant des points de jonction système. Les points de jonction système fournissent une compatibilité avec une version antérieure. Par exemple, sous Windows 10 C:\Documents and Settings , il s'agit d'un point de jonction système vers C:\Users. Ainsi, lorsque vous parcourez des fichiers sur une source de données Windows distante, vous ne pouvez pas entrer un chemin contenant des points de jonction système, tels que C:\Documents and Settings. Par défaut, les points de jonction système sont masqués pour les utilisateurs Windows .Remarque: Data Virtualization prend en charge les points de jonction et les liens symboliques créés par les utilisateurs Windows .
Problèmes de gestion des utilisateurs et des groupes
- Les modifications d'affectation de groupe d'utilisateurs risquent de ne pas prendre effet
Une nouvelle session (authentification) doit être établie pour que les affectations de groupe d'utilisateurs prennent effet.
Solution palliative : voirGestion des utilisateurs dans Gestion des utilisateurs.
- Les utilisateurs et les groupes doivent respecter les instructions de dénomination
- Meilleures pratiques :
- Les noms de groupe doivent être inférieurs ou égaux à la longueur du nom de groupe indiquée dans Limites SQL et XML.
- Un nom d'utilisateur sous Windows peut contenir jusqu'à 30 caractères.
- Si vous n'utilisez pas l'authentification client, les clients non Windows 32 bits qui se connectent à Windows avec un nom d'utilisateur dont la longueur est supérieure à celle indiquée dans Limites SQL et XML sont pris en charge lorsque le nom d'utilisateur et le mot de passe sont spécifiés explicitement.
- Un nom d'utilisateur ne doit pas être USERS, ADMINS, GUESTS, PUBLIC, LOCAL ou tout mot réservé SQL.
- Un nom d'utilisateur ne doit pas commencer par IBM, SQL ou SYS.
- Les privilèges et les droits accordés aux groupes d'utilisateurs ne sont pas pris en compte lors de la création de vues
Cette limitation est le résultat d'une limitation Db2 sur les groupes. Pour plus d'informations, voir Restrictions sur l'utilisation des privilèges de groupe lors de l'exécution d'instructions DDL ou de modules de liaison.
Vous pouvez également accorder l'accès public à vos objets pour tous les rôles ou tous les utilisateurs Data Virtualization, puis restreindre l'accès à l'aide des règles de protection des données définies sur les groupes. Pour plus d'informations, voir Gouvernance des données virtuelles avec des règles de protection des données dans Data Virtualization.
Voir aussi Erreur SQL0727N lorsque vous interrogez les résultats de vue dans Data Virtualization.
Problèmes de gouvernance des données
- Vous ne pouvez pas appliquer des termes métier lorsque vous virtualisez des fichiers dans des sources de données dans l'onglet Fichiers
Lorsque vous virtualisez des fichiers dans , la colonne Termes métier n'est pas disponible pour les sources de données dans l'onglet Fichiers . Ces sources de données ne prennent pas en charge les termes métier.
- Profilage des Data Virtualization de données en Watson Knowledge Catalog échoue dans Cloud Pak for Data versions 4.0.7 et 4.0.8
Dans Cloud Pak for Data version 4.0.7 ou 4.0.8, le profilage des actifs de données Data Virtualization dans Watson Knowledge Catalog échoue avec l'erreur suivante:The property [auth_method] is not supported.En outre, vous ne pouvez pas prévisualiser les objets virtuels dans Watson Knowledge Catalog lorsqu'une règle de masquage des données s'applique.
- La publication automatique d'objets virtuels dans le catalogue est limitée à certains objets
Seuls les objets créés dans l'interface utilisateur sont automatiquement publiés dans le catalogue. Les objets créés à l'aide de SQL ne sont pas publiés automatiquement et doivent être publiés dans le catalogue manuellement ou à l'aide de l'API.
- Data Virtualization applique toujours les règles de protection des données
Data Virtualization applique les règles de protection des données même si l'actif de données est catalogué dans un catalogue pour lequel l'option Appliquer les règles de protection des données n'est pas activée. Ce comportement est sujet à changement dans les versions ultérieures. Pour garantir un comportement prévisible dans les éditions futures, ajoutez les ressources de données virtuelles aux catalogues avec l'option Appliquer les règles de protection des données activée uniquement.
- Problèmes de contrôle d'accès pour prévisualiser les actifs avec des données masquées
- Aperçu technique. Il s'agit d'un aperçu technique et l'utilisation de ce service n'est pas prise en charge dans les environnements de production.
- Impossible de voir la liste des tables disponibles dans le mode de virtualisation par défaut
Dans le mode de virtualisation par défaut (où vous pouvez voir toutes les tables, quelles que soient les affectations de termes métier), lorsque vous accédez à la page Virtualiser , la console semble charger la liste des tables pendant un certain temps lorsque des sources de données ajoutées à Data Virtualization comportent des tables avec types non standard, tels que NULL ou OTHER. Cependant, vous pouvez attendre que le chargement soit terminé pour afficher la liste de toutes les tables, et vous pouvez prévisualiser, ajouter au panier, éditer des colonnes et virtualiser toutes les tables répertoriées. La régénération est désactivée, mais vous pouvez actualiser la page pour déclencher le rechargement de la mémoire cache des tableaux disponibles.
- Impossible de voir la liste des tables disponibles dans le mode de virtualisation strict
Dans le mode de virtualisation strict (lorsque vous ne pouvez voir les tables que si elles possèdent au moins une colonne avec une affectation de terme métier), lorsque vous accédez à la page Virtualiser, la console semble charger la liste de tables pendant un certain temps, sans afficher de tables. Le chargement peut être beaucoup plus lent par rapport au mode de virtualisation par défaut pendant que la console évalue la liste des tables éligibles qui peuvent être virtualisées, en fonction des affectations de termes aux noms de table et de colonne de la source de données.
- L'accès à une table est refusé par les règles
Vous ne pouvez pas accéder à une table mais selon les règles de données et les autorisations, vous êtes autorisé à accéder à cette table. Ce problème se produit uniquement si l'application des stratégies Watson Knowledge Catalog est activée dans Data Virtualization. Pour résoudre ce problème, voir L'accès à une table est refusé par les règles dans Data Virtualization.
- Ne pas utiliser d'actifs de catalogue en double pour la même table
Le service de stratégie n'est pas en mesure de décider lesquels des actifs dupliqués utiliser pour l'application de la stratégie et n'agrège pas les règles. Vous devez éviter les actifs en double dans les catalogues gouvernés car cela peut entraîner des problèmes liés au comportement de mise en application des règles dans Data Virtualization.
- Impossible de voir le terme métier affecté à l'actif de données
Vous virtualisez un actif de données dans Watson Knowledge Catalog, mais vous ne pouvez pas voir un terme métier affecté à cet actif de données. Pour résoudre ce problème, voir Impossible de voir le terme métier affecté à l'actif de données dans Data Virtualization.
- Un objet virtualisé ne peut pas être utilisé dans Cognos® Dashboards sans données d'identification et avec un rôle approprié
- L'utilisation d'un objet virtualisé dans Data Virtualization affiche un message d'erreur si vous n'entrez pas de données d'identification pour la connexion Data Virtualization ou si vous ne disposez pas du rôle approprié.
Si vous n'avez pas entré de nom d'utilisateur et de mot de passe lors de la création de la connexion à la source de données Data Virtualization , l'erreur suivante s'affiche:Missing personal credentials. Si vous ne disposez pas du rôle d'administrateur ou d'intendant pour cet objet, l'erreur suivante s'affiche:Unable to access this asset.
Pour résoudre ce problème, voir Un objet virtualisé ne peut pas être utilisé dans des Cognos Dashboards sans données d'identification et avec un rôle approprié dans Data Virtualization.
Incidents liés à la mise en cache
- Le sélecteur de minutes de la fréquence de régénération du cache peut être incrémenté au-delà du maximum et ne peut pas être réinitialisé
Pour définir une fréquence de régénération du cache, vous pouvez sélectionner une fréquence Par heure, puis choisir la minute de l'heure à laquelle l'actualisation du cache est exécutée. Si vous augmentez cette minute au-delà de 59, la minute d'actualisation devient vide. Si vous quittez cette page en laissant la minute d'actualisation vide, puis revenez à cette page, vous ne pouvez pas définir la fréquence de régénération horaire d'un cache car la minute reste vide.
Problèmes de fichiers
- Vous ne pouvez pas prévisualiser les valeurs de chaîne longues dans les en-têtes CSV, TSV ou Excel
- Lorsque vous utilisez la première ligne comme en-têtes de colonne, les valeurs de chaîne de cette ligne ne doivent pas dépasser la longueur maximale de l'identificateur Db2 de 128 caractères et ne peuvent pas être dupliquées. Si votre fichier comporte des noms de chaîne dans la ligne d'en-tête avec des valeurs trop longues ou dupliquées, un message d'erreur s'affiche lorsque vous tentez de prévisualiser votre fichier dans Data Virtualization.
400: Missing ResultSet:java.sql.SQLSyntaxErrorException: Long column type column or parameter 'COLUMN2' not permitted in declared global temporary tables or procedure definitions.
Les noms d'en-tête de colonne ne sont pas sensibles à la casse et sont convertis en majuscules dans la réponse d'API affichée par la console. Ainsi la colonne ABC est considérée comme identique à la colonne abc. Les colonnes peuvent être renommées en utilisant une casse mixte lors de la virtualisation de la source de données.
- Il se peut que des erreurs se produisent lorsque vous virtualisez de grands fichiers Excel
- Une erreur peut être générée lorsque vous prévisualisez ou virtualisez de grands fichiers au format Excel (XLS) :
ERROR 400 'Your InputStream was neither an OLE2 stream nor an OOXML stream' was thrown while evaluating an expression.
- Remplacement de la détection de codage pour les données de fichiers avec des caractères japonais
Pour les fichiers texte exposés par des connecteurs distants, Cloud Pak for Data détecte automatiquement le schéma de codage des fichiers de données à plat, tels que les fichiers CSV et TSV. Cependant, pour éviter les problèmes de décodage, il est recommandé de définir manuellement le schéma de codage pour les fichiers de données plats. Pour plus d'informations, voir Définition du schéma de codage.
- Seul le codage de caractères UTF-8 est pris en charge pour les fichiers CSV, TSV et JSON dans Cloud Object Storage
Pour les fichiers texte dans les sources de données Cloud Object Storage aux formats CSV, TSV et JSON, seul le codage de caractères UTF-8 est pris en charge dans Data Virtualization: Les formats binairesCloud Object Storage tels que ORC (Optimized Row Columnar) ou Parquet ne sont pas affectés car ils codent de manière transparente les types de caractères.
Problèmes résolus
- Data Virtualization mise à niveau bloquée à l'état en attente lors de l'ajout d'un nouveau projet Cloud Pak for Data
- Si vous mettez à niveau Data Virtualization après l'ajout d'un nouveau projet (espace de nom) Cloud Pak for Data , Data Virtualization Le pod de l'opérateur reste bloqué à l'état en attente.
Pour résoudre le problème, redémarrez le pod de l'opérateur Data Virtualization en exécutant la commande suivante.
oc -n <project> delete pod $(oc -n <project> get pods | grep -i dv | cut -d' ' -f 1) - Accélérez le chargement des tables lorsque vous virtualisez
Les sources de données de plus de 100 000 tables ralentissent le chargement des tables dans la page . Vous pouvez réduire leur portée en définissant des filtres de schéma distants. Pour plus d'informations, voir Speed up loading of tables when you virtualize in Data Virtualization.
- Vous devez effectuer un zoom arrière dans l'interface utilisateur pour ajouter tous les détails de connexion à une connexion de plateforme existante dans Cloud Object Storage
Lorsque vous ajoutez une connexion Data Virtualization à une connexion de plateforme existante à Cloud Object Storage, vous devez ajouter toutes les données d'identification requises. Pour plus d'informations, voir Connexion à Cloud Object Storage dans Data Virtualization.
Pour ajouter des données d'identification, vous devez effectuer un zoom arrière dans votre navigateur pour afficher la totalité de la boîte de dialogue Ajouter les données d'identification requises. La zone Clé secrète n'est pas activée tant que vous n'avez pas entré Clé d'accès. Le bouton Mise à jour n'apparaît que lorsque vous effectuez un zoom arrière pour afficher la totalité de la boîte de dialogue.
- Lorsque vous éditez une page de tableau groupable avec une longue liste, la barre de défilement peut disparaître
Une fois que vous vous connectez aux sources de données et que vous virtualisez les tables de groupe, vous pouvez consulter les tables groupées et effacer certaines entrées avant de les virtualiser. Sur la page Éditer les tables groupées, si vous avez une longue liste et que vous devez faire défiler la page, la barre de défilement peut disparaître après avoir effacer certaines sélections. Vous ne pouvez pas faire défiler la liste et cliquer sur Appliquer et continuer.
- Problèmes de mise en cache avec Cloud Object Storage
Sur , le cache peut être créé et géré par les utilisateurs. Toutefois, si vous cliquez sur Tester les requêtes avec cache, unFailed to test queriesMessage d'erreur. Vous ne pouvez pas utiliser les fonctions de correspondance et de recommandations dans la mise en cache pour Cloud Object Storage.
- Les tables virtualisées créées à partir de fichiers Excel volumineux peuvent ne pas avoir de contenu après la mise à niveau vers Cloud Pak for Data version 4.0.5
- Lorsque vous effectuez une mise à niveau vers Cloud Pak for Data version 4.0.5, vous devez vérifier toutes les tables qui ont été virtualisées à partir de fichiers de plus de 250 000 cellules ou de fichiers dont la taille de fichier est supérieure à 3 Mo, ce qui peut se produire lorsqu'un classeur contient des macros. Si ces tables virtualisées sont vides après la mise à niveau, exécutez les commandes suivantes.
- Sur tous les hôtes de connecteur distants, éditez le fichier : <DV endpoint directory>/sysroot/data/gaiandb_config.properties.
- Recherchez et remplacez toutes les instances de
com.ibm.db2j.GExcelparcom.ibm.db2j.QExcel. Pour plus d'informations sur le traitement des incidents, voir Les requêtes sur les fichiers à plat virtualisés échouent avec des résultats incorrects dans Data Virtualization. - Enregistrez le fichier et quittez l'éditeur. Les modifications sont automatiquement chargées après l'enregistrement du fichier. Confirmez que les fichiers Excel volumineux peuvent être interrogés.
- Si les tables virtuelles des fichiers d'un hôte n'affichent toujours pas de contenu, essayez de redémarrer l'agent du connecteur distant. Pour plus d'informations, voir Gestion des connecteurs sur des sources de données distantes.
- Le service Data Virtualization sur Cloud Pak for Data peut sembler instable sur un système Red Hat® OpenShift® Kubernetes Service cluster
Il se peut que des opérations SQL échouent par intermittence et que des erreurs SQLCODE=-1229 se produisent également :
Message d'erreur La transaction en cours a été annulée en raison d'une erreur système.. SQLCODE=-1229, SQLSTATE=40504, DRIVER=4.27.25
Pour résoudre ce problème, voir Le serviceData Virtualization sur Cloud Pak for Data semble instable sur un Red Hat OpenShift sur un cluster Kubernetes.
- Vous ne pouvez pas utiliser des caractères spéciaux tels que des guillemets doubles dans les noms de schéma lorsque vous virtualisez une table
Lorsque vous virtualisez une table qui comporte un guillemet double dans le nom de schéma, un message d'erreur s'affiche et vous ne pourrez pas virtualiser la table. Voir l'exemple suivant.
Error The assets request failed: CDICO2060E: The metadata for the select statement could not be retrieved Sql error: The statement failed because a Big SQL component encountered an error. Component receiving the error: "SCHEDULER". Component returning the error: "SCHEDULER". Log entry identifier: "[SCL-0-3a08009d4]". Reason: "".. SQLCODE=-5105, SQLSTATE=58040, DRIVER=4.28.11. The statement text is: SELECT * FROM """ABC"""."SHIP_MODE" FOR READ ONLY
- Une source de données ajoutée à la procédure mémorisée
setrdbcxpeut ne pas apparaître dans l'interface utilisateur - Si vous tentez d'ajouter une source de données à l'aide de la procédure mémorisée
setrdbcx, la source de données est ajoutée avec succès, mais elle ne s'affiche pas dans la page Sources de données de l'interface utilisateur. Data Virtualization ne peut pas ajouter la source de données aux connexions de plateforme.Ce problème peut se produire sur Netezza® sur Cloud, MongoDB et Db2 Warehouse sources de données.
- Le pilote IBM Informix® ne prend pas en charge les connexions SSL
Si vous créez une connexion à l'aide d'un IBM Informix JDBCtéléchargé, cette connexion ne prend pas en charge SSL.
- Impossible d'éditer la connexion Ceph ® lorsque des paramètres incorrects sont entrés
Vous disposez des rôles Data Virtualization Admin ou Ingénieur et vous tentez d'ajouter une connexion de source de données Ceph avec des paramètres incorrects. Le message d'erreur indiqueThe data source could not be added. Ensure that the specified parameters are correct and try againToutefois, lorsque vous cliquez sur Editer dans le message, la page se bloque et vous ne pouvez pas éditer vos paramètres.
- La virtualisation peut échouer lors de l'affectation à une demande de données créée par un autre utilisateur du groupe
- Cet incident peut se produire dans les scénarios suivants :
- L'utilisateur A est membre d'un groupe d'utilisateurs.
- L'utilisateur A n'a pas explicitement de rôle Data Virtualization , mais le groupe a un rôle Data Virtualization .
- L'utilisateur A se connecte et crée une demande de données et l'affecte à un autre utilisateur, l'utilisateur B.
- L'utilisateur B se connecte et accepte la demande de données. L'utilisateur B ne peut pas virtualiser des objets à partir de la page Demandes de données.
- L'utilisateur B peut virtualiser des objets à partir de la page Virtualisation mais l'affecter à la demande de données échoue.
- Le pod de mise en cache ne s'initialise pas lorsque Db2 Data Management Console n'est pas disponible
Dans Cloud Pak for Data version 4.0.1 ou antérieure, le pod de mise en cache Data Virtualization ne s'initialise pas correctement si Db2 Data Management Console ne s'initialise pas correctement.
- Certaines valeurs sont vides dans la page Paramètres des services
- Lorsque vous affichez la page Paramètres de service, les valeurs suivantes sont vides :
- Nombre de noeuds worker
- Coeurs par noeud worker
- Mémoire par noeud worker
- Récapitulatif de stockage
- Il se peut qu'un utilisateur ne soit pas en mesure d'accéder à la page du tableau de bord du cache
Dans Cloud Pak for Data 4.0.1, un utilisateur qui ne dispose pas explicitement d'un rôle d'administrateur Data Virtualization mais qui est affecté à un groupe et qui possède un rôle d'administrateur Data Virtualization ne peut pas accéder à la page de tableau de bord du cache.