Crie um sistema de resposta a perguntas para análise de imagens com IA PPT com o modelo de visão Granite

À medida que as tecnologias orientadas por IA evoluem, a análise de imagens está se tornando cada vez mais sofisticada, permitindo insights mais profundos a partir de dados visuais. Com os avanços nos modelos de aprendizado de máquina, a IA pode processar imagens carregadas, extrair metadados e apoiar a moderação de conteúdo em grande escala. Essas ferramentas de análise também contribuem para a modelagem preditiva para aplicações como Preços, otimização visual e geração de imagens, tornando os fluxos de trabalho mais econômicos e eficientes. Integrando abordagens baseadas em dados, a IA aprimora a automação e a tomada de decisão, oferecendo novas possibilidades para interpretação visual inteligente.

Casos de uso

Com os rápidos avanços na Computer Vision e na IA avançada, empresas e pesquisadores estão aproveitando as tecnologias baseadas em imagens para uma ampla gama de aplicações. Desde classificação de imagens e OCR (reconhecimento ótico de caracteres) até segmentação e análise de vídeo, as ferramentas impulsionadas por IA estão transformando a forma como extraímos e analisamos informações visuais.

Em setores como o de redes sociais, a IA aprimora a moderação do conteúdo analisando imagens no nível de pixel, garantindo a conformidade e melhorando o engajamento. As empresas também podem utilizar a API do Vision para processamento automatizado de documentos, convertendo arquivos digitalizados, Excels e relatórios em dados estruturados. Essas aplicações otimizam fluxos de trabalho, melhoram a eficiência e permitem que as organizações extraiam insights significativos de conjuntos de dados visuais em grande escala.

Esses casos de uso destacam o crescente papel da análise de imagens impulsionada por IA em todos os setores. Neste tutorial, focamos na aplicação desses recursos a apresentações do PowerPoint, habilitando perguntas e respostas interativas sobre texto e imagens usando modelos avançados de Computer Vision e modelos de IA

Perguntas e respostas interativas impulsionadas por IA para apresentações

Os grandes modelos de linguagem (LLMs) revolucionaram o aprendizado de máquina, permitindo insights inteligentes a partir de vastos conjuntos de dados de texto não estruturado. No entanto, os LLMs tradicionais muitas vezes enfrentam dificuldades com a análise de imagens, tornando desafiador extrair insights de gráficos, diagramas e elementos visuais em apresentações.

O grandes modelo de linguagem (LLM) IBM Granite Vision 3.2 preenche essa lacuna, integrando ferramentas de IA com algoritmos avançados de detecção de objetos, permitindo que os usuários automatizem a análise multimodal. Este tutorial demonstra como otimizar seu fluxo de trabalho usando IA para extrair e analisar texto e imagens de arquivos do PowerPoint (.pptx), habilitando perguntas e respostas interativas para insights aprimorados da apresentação.

Neste tutorial, você aprenderá a criar um sistema orientado por IA capaz de responder a consultas de usuários em tempo real a partir de slides do PowerPoint, usando texto e imagens como contexto. Este tutorial irá guiá-lo através de:

Processamento do PowerPoint: extraia texto e imagens de.pptx arquivos para análise baseada em IA.

Perguntas e respostas baseadas em texto: use o Granite Vision para gerar respostas com base no texto do slide extraído.

Perguntas e respostas baseadas em imagens: peça à IA para analisar imagens, gráficos e diagramas de slides.

Formulação otimizada de perguntas: aprenda a criar perguntas eficazes para gerar respostas de IA precisas e relevantes.

Tecnologias utilizadas

Este tutorial aproveita tecnologias de IA de ponta, incluindo:

1. IBM Granite Vision: um poderoso modelo de linguagem de visão (VLM) que processa texto e imagens.

2. Python-PPTX: uma biblioteca para extrair texto e imagens de arquivos do PowerPoint.

3. Transformadores: um framework para processar entradas de modelos de IA de forma eficiente.

O que você alcançará

Até o final deste tutorial, você vai:

1. Extraia e processe conteúdo do PowerPoint (texto e imagens).

2. Usar o modelo Granite vision 3.2 para perguntas e respostas orientadas por IA no conteúdo dos slides.

3. Fazer perguntas perspicazes à IA sobre textos e imagens.

4. Melhorar a interação do usuário com apresentações usando explicações impulsionadas por IA.

Este tutorial foi projetado para desenvolvedores de IA, pesquisadores, criadores de conteúdo e profissionais de negócios que desejam aprimorar suas apresentações com insights orientados por IA.

Vídeo

Pré-requisitos

Você precisa de uma conta do IBM Cloud para criar um projeto do watsonx.ai .

Etapas

Etapa 1. Configure seu ambiente

Embora você possa escolher entre várias ferramentas, este tutorial explica como configurar uma conta da IBM para usar um Jupyter Notebook.

Faça login no watsonx.ai usando sua conta do IBM Cloud.

2. Crie um projeto do watsonx.ai. Você pode obter a ID do projeto a partir de seu projeto. Clique na guia Gerenciar. Em seguida, copie a ID do projeto da seção Detalhes da página Geral. Você precisa dessa ID para este tutorial.

3. Crie um Jupyter Notebook.

4. Faça o upload do arquivo PPTX como ativo no watsonx.ai

Essa etapa abre um ambiente do Notebook, onde você poderá copiar o código deste tutorial. Ou então, você pode baixar esse Notebook em seu sistema local e carregá-lo como um ativo em seu projeto do watsonx.ai. Este tutorial também está disponível no GitHub.

Observação: este tutorial requer infraestrutura de GPU para executar o código, portanto, é recomendável usar watsonx.ai conforme ilustrado neste tutorial.

Etapa 2: Instale as dependências necessárias

Antes de começarmos a extrair e processar o conteúdo do PowerPoint, precisamos instalar as bibliotecas Python necessárias:

transformadores: fornece acesso ao IBM Granite Vision e a outros modelos de IA.

torch: um framework de deep learning necessário para executar o modelo de forma eficiente.

python-pptx: uma biblioteca para extrair texto e imagens de arquivos do PowerPoint (.pptx).

Execute os seguintes comandos para instalar e fazer upgrade desses pacotes:

!pip install --upgrade transformers
!pip install --upgrade torch
!pip install python-pptx
!pip install botocore
!pip install ibm-cos-sdk

Etapa 3: Importe as bibliotecas necessárias

Nesta etapa, importamos as bibliotecas necessárias para processar arquivos do PowerPoint, manipular imagens e interagir com o modelo IBM Granite Vision:

  1. os e io: para manipulação de arquivos e operações de entrada/saída.
  2. torch: garante a compatibilidade com o modelo de IA.
  3. pptx.Presentation: extrai texto e imagens de arquivos do PowerPoint (.pptx).
  4. PIL.Image: processa imagens extraídas de slides.
  5. transformers: carrega o IBM Granite Vision para perguntas e respostas baseadas em IA.
  6. botocore.client.Config e ibm_boto3: lida com acesso a armazenamento baseado em nuvem (IBM Cloud Object Storage).
import os
import io
import torch
from pptx import Presentation
from PIL import Image
from io import BytesIO
from transformers import AutoProcessor, AutoModelForVision2Seq
from botocore.client import Config
import ibm_boto3

Etapa 4: Conecte-se ao IBM Cloud Object Storage

Nesta etapa, estabelecemos uma conexão com o IBM Cloud Object Storage para acessar e recuperar arquivos do PowerPoint armazenados na nuvem.

Você pode aproveitar a compatibilidade com o Python, fornecida por meio de um fork da biblioteca boto3 com funcionalidades para aproveitar ao máximo o IBM Cloud Object Storage. Confira a documentação oficial para obter essas credenciais.

ibm_boto3.client: Cria um cliente para interagir com o IBM Cloud Object Storage.

ibm_api_key_id: sua chave de API do IBM Cloud para autenticação.

ibm_auth_endpoint: o endpoint de autenticação do IBM Cloud.

endpoint_url: o endpoint específico de armazenamento do Cloud Object Storage (COS).

# IBM COS credentials
cos_client = ibm_boto3.client(
    service_name='s3',
    ibm_api_key_id='Enter your API Key',
    ibm_auth_endpoint='[Enter your auth end-point url]',
    config=Config(signature_version='oauth'),
    endpoint_url='[Enter your end-point url]'
)

Observação: ao fazer upload de um arquivo como ativo no watsonx.ai, ele é armazenado automaticamente no IBM Cloud Object Storage. Quando você importa o arquivo para um Jupyter Notebook, o watsonx.ai insere as credenciais necessárias (chave de API, endpoint de autenticação e endpoint de armazenamento) em seu notebook. As credenciais do IBM Cloud Object Storage fornecidas permitem acesso seguro para recuperar arquivos do armazenamento, possibilitando a integração entre os ativos watsonx.ai e o ambiente do notebook para processamento adicional.

Ao configurar essa conexão, podemos importar e processar sem dificuldades apresentações do PowerPoint armazenadas na IBM Cloud para análise impulsionada por IA

Etapa 5: Defina parâmetros de armazenamento

Nesta etapa, especificamos o bucket do IBM Cloud Object Storage e os detalhes do arquivo para localizar e recuperar a apresentação do PowerPoint (.pptx) para processamento.

Confira este documento oficial para obter os detalhes de configuração do bucket por meio da IU do IBM Cloud.

bucket: o nome do bucket do IBM Cloud Object Storage onde o arquivo está armazenado.

object_key: O nome de arquivo exato da apresentação do PowerPoint a ser acessado

bucket = 'Enter your bucket key'
object_key = 'Application Integration client presentation.PPTX [You can replace this with your PPT name]'

Etapa 6: Recupere o arquivo do PowerPoint do IBM Cloud Object Storage

Nesta etapa, fazemos download do arquivo PowerPoint (.pptx) do IBM Cloud Object Storage para processá-lo localmente.

cos_client.get_object(): recupera o arquivo do bucket e da chave do objeto especificados.

streaming_body.read(): Lê o conteúdo do arquivo em um fluxo de bytes para processamento adicional.

# Download PPTX file from IBM COS
streaming_body = cos_client.get_object(Bucket=bucket, Key=object_key)['Body']
pptx_bytes = streaming_body.read()

Etapa 7: Salve o arquivo do PowerPoint no caminho local

Nesta etapa, armazenamos o arquivo PowerPoint baixado (.pptx) localmente para que ele possa ser processado.

pptx_path: define o nome do arquivo local onde a apresentação será salva.

open(pptx_path, 'wb'): abre o arquivo no modo binário de gravação para armazenar os bytes recuperados.

f.write(pptx_bytes): escreve o conteúdo do arquivo baixado no arquivo .pptx recém-criado.

# Save the bytes to a local PPTX file
pptx_path = "downloaded_presentation.pptx"
with open(pptx_path, 'wb') as f:
    f.write(pptx_bytes)

Etapa 8: Confirme o local de salvamento do arquivo

Nesta etapa, imprimimos uma mensagem de confirmação para garantir que o arquivo do PowerPoint foi salvo com sucesso. A função "print" exibe o caminho do arquivo onde o arquivo .pptx é armazenado localmente.

print(f"PPTX file saved as: {pptx_path}")

Etapa 9: Extraia texto e imagens do arquivo do PowerPoint

Nesta etapa, definimos uma função para processar o arquivo do PowerPoint (.pptx) e extrair seu conteúdo:

slide_texts: armazena texto extraído de cada slide.

slide_images: armazena imagens extraídas como objetos de imagem da biblioteca de imagens do Python (PIL), juntamente com seus números de slide correspondentes.

Itera nos slides para extrair o texto de formas que contêm conteúdo textual e imagens incorporadas nos slides.

Essa função separa o texto e as imagens do PPT, permitindo que o agente de bate-papo responda facilmente às perguntas dos usuários com base no conteúdo extraído.

def extract_text_and_images_from_pptx(pptx_path):
        presentation = Presentation(pptx_path)
        slide_texts = []
        slide_images = []
        for slide_number, slide in enumerate(presentation.slides):
                # Extract text from slide
                slide_text = []
                for shape in slide.shapes:
                        if hasattr(shape, "text"):
                                slide_text.append(shape.text)
                                slide_texts.append("\n".join(slide_text))
                # Extract images from slide
                for shape in slide.shapes:
                        if hasattr(shape, "image"):
                                image_stream = BytesIO(shape.image.blob)
                                image = Image.open(image_stream)
                                slide_images.append((slide_number, image))
return slide_texts, slide_images

Etapa 10: Processar o arquivo do PowerPoint

Nesta etapa, chamamos a função para extrair texto e imagens do arquivo PowerPoint salvo.

pptx_path: especifica o caminho local do arquivo do PowerPoint baixado.

extract_text_and_images_from_pptx(pptx_path): extrai texto e imagens dos slides.

slide_texts: armazena o texto extraído de todos os slides.

slide_images: armazena as imagens extraídas.

pptx_path = "downloaded_presentation.pptx"
slide_texts, slide_images = extract_text_and_images_from_pptx(pptx_path)

Etapa 11: Exiba texto extraído dos slides

Nesta etapa, imprimimos o texto extraído de cada slide para verificar se o conteúdo do PowerPoint foi processado corretamente.

enumerate(slide_texts): itera pelo texto extraído, associando cada um ao seu respectivo número de slide.

Separador ("-" * 40): ajuda a distinguir visualmente o conteúdo de slides diferentes.

# Display extracted text and images
for i, text in enumerate(slide_texts):
        print(f"Slide {i + 1} Text:\n{text}\n{'-'*40}")

Passo 12: Exiba imagens extraídas dos slides

Nesta etapa, confirmamos e visualizamos as imagens extraídas dos slides do PowerPoint.

len: conta o número total de imagens extraídas.

img.show(): abre cada imagem extraída para avaliação.

Você pode substituir ".show()" por ".save('filename.png')" para armazenar as imagens localmente.

print(f"\nExtracted {len(slide_images)} images.")
for slide_num, img in slide_images:
        img.show() # This will open the image, or you can save it using img.save('filename.png')

Etapa 13: Carregue o modelo de visão IBM Granite

Nesta etapa, inicializamos o modelo IBM Granite-Vision-3.2-2B para processamento de texto e imagem impulsionado por IA.

MODEL_NAME especifica o modelo Granite Vision pré-treinado a ser usado e torch.cuda.is_disponível() verifica se uma GPU (CUDA) está disponível para processamento mais rápido; caso contrário, o padrão é a CPU.

# Load IBM Granite-Vision-3.1-2B-Preview model and processor
MODEL_NAME = "ibm/granite-vision-3-2-2b"
device = "cuda" if torch.cuda.is_available() else "cpu"

Etapa 14: Inicialize o modelo e o processador

Nesta etapa, carregamos o modelo IBM Granite Vision e seu processador correspondente para lidar com as entradas de texto e imagem.

AutoProcessor.from_pretrained(MODEL_NAME, trust_remote_code=True): carrega o processador pré-treinado para formatar entradas (texto e imagens) para o modelo.

AutoModelForVision2Seq.from_pretrained(MODEL_NAME, trust_remote_code=True, ignore_mismatched_sizes=True).to(device): Carrega o modelo Granite Vision e o transfere para o dispositivo disponível (GPU ou CPU).

onde,

trust_remote_code=True: garante compatibilidade com implementações de modelos personalizados.

ignore_mis Matched_sizes=True: impede erros se houver pequenas inconsistências no tamanho do modelo.

Observação: isso pode demorar um pouco para carregar.

processor = AutoProcessor.from_pretrained(MODEL_NAME, trust_remote_code=True)
model = AutoModelForVision2Seq.from_pretrained(MODEL_NAME, trust_remote_code=True, ignore_mismatched_sizes=True).to(device)

Etapa 15: implemente o bate-papo com IA baseado em texto

Nesta etapa, criamos uma função de bate-papo que permite aos usuários fazer perguntas com base no texto extraído dos slides do PowerPoint.

Veja como funciona:

  1. O usuário insere uma pergunta relacionada ao conteúdo do slide.
  2. Todo o texto extraído do PPT é formatado em uma conversa estruturada para o modelo. Isso dará ao modelo um contato preciso para gerar a resposta específica a partir do próprio conteúdo do PPT.
  3. apply_chat_temlate() prepara a entrada para o modelo de IA em um formato de conversação.
  4. model.generate() gera uma resposta com base na consulta de entrada.
  5. processor.decode() decodifica a resposta gerada por IA em texto legível por humanos.
  6. O loop continua até que o usuário digite "exit" para sair do chat.
# Chat based on Text Only
def chat_with_text(model, processor, slide_texts):
    while True:
        query = input("Ask a question based on the presentation text (or type 'exit' to quit): ")
        if query.lower() == 'exit':
            break
        conversation = [
            {
                "role": "user",
                "content": [
                    {"type": "text", "text": "\n".join(slide_texts) + f"\nQuery: {query}"},
                ],
            },
        ]
        inputs = processor.apply_chat_template(
            conversation,
        add_generation_prompt=True,
        tokenize=True,
        return_dict=True,
        return_tensors="pt"
        ).to(device)
        outputs = model.generate(**inputs, max_new_tokens=150)
        response = processor.decode(outputs[0], skip_special_tokens=True)
        print("Model Response:", response)

Etapa 16: implemente o bate-papo com IA baseado em imagem

Nesta etapa, criamos uma função de bate-papo que permite aos usuários fazer perguntas sobre imagens individuais extraídas dos slides do PowerPoint.

Veja como funciona:

  1. O usuário insere uma pergunta relacionada a imagens de slide.
  2. Eles especificam um número de slide para fazer referência a uma imagem específica.
  3. A imagem selecionada é salva temporariamente como "slide_image_temp.png".
  4. Uma conversa estruturada é criada, incluindo: (a) O caminho do arquivo de imagem. (b) A pergunta do usuário.
  5. O apply_chat_template() processa a entrada em um formato adequado para o modelo de IA.
  6. model.generate() gera uma resposta com base na imagem e na consulta.
  7. A resposta é decodificada e impressa para o usuário.
  8. O ciclo continua até que o usuário digite sair para sair.
# Chat based on Images Only
def chat_with_images(model, processor, slide_images):
    while True:
        query = input("Ask a question based on the presentation images (or type 'exit' to quit): ")
            if query.lower() == 'exit':
                break
            slide_num = int(input(f"Enter slide number (1 to {len(slide_images)}) to ask about its image: ")) - 1
            image = slide_images[slide_num][1]
            img_path = "slide_image_temp.png"
            image.save(img_path) # Save the image temporarily
            conversation = [
                {
                    "role": "user",
                    "content": [
                            {"type": "image", "url": img_path},
                            {"type": "text", "text": query},
                    ],
                },
            ]
            inputs = processor.apply_chat_template(
                conversation,
                add_generation_prompt=True,
                tokenize=True,
                return_dict=True,
                return_tensors="pt"
            ).to(device)
            outputs = model.generate(**inputs, max_new_tokens=150)
            response = processor.decode(outputs[0], skip_special_tokens=True)
            print("Model Response:", response)

Etapa 17: Execute o bate-papo de IA baseado em texto

Nesta etapa, chamamos a função chat_with_text, permitindo que o usuário faça perguntas sobre o texto extraído dos slides do PowerPoint.

Veja como funciona:

  1. chat_with_text() inicia a sessão de perguntas e respostas baseada em texto.
  2. A função solicita continuamente a entrada do usuário, respondendo a perguntas com base no texto do slide extraído.
  3. O ciclo de chat continua até que o usuário digite exit para sair.
chat_with_text(model, processor, slide_texts)

SAÍDA

Consulta: a integração é uma vantagem competitiva para sua organização?

<|assistant|>

Sim, a integração é uma vantagem competitiva para sua organização. Isso ajuda você a migrar mais rapidamente e a superar desafios, e pode levar ao aumento de custos, ineficiências, riscos de segurança e uma experiência ruim para o usuário, o que, em última análise, compromete a competitividade e a capacidade de uma Organização de prosperar em um cenário de negócios em rápida evolução.

Faça uma pergunta com base no texto da apresentação (ou digite "exit" para sair): sair

Quando o usuário perguntou: “A integração é uma vantagem competitiva para a Organização?”, o modelo Granite Vision processou a consulta usando o texto extraído do slide do PowerPoint e gerou uma resposta.

O modelo reconheceu a "integração" como um conceito de negócio e forneceu uma resposta estruturada do "slide número 7" explicando tanto seus benefícios quanto seus riscos. Ele destacou que a integração aumenta a velocidade e a solução de problemas, mas também observou possíveis desvantagens, como aumento de custos, ineficiências, riscos de segurança e experiência ruim do usuário, se não for gerenciado de forma eficaz.

Essa resposta demonstra a capacidade do modelo de interpretar o texto do slide extraído e gerar uma resposta contextualmente relevante e bem equilibrada

Etapa 18: Execute o bate-papo com IA baseado em imagem

Nesta etapa, chamamos a função chat_with_images, que permite ao usuário fazer perguntas sobre imagens extraídas dos slides do PowerPoint.

Veja como funciona:

  1. chat_with_images() inicia a sessão de perguntas e respostas baseada em imagem.
  2. A função solicita que o usuário selecione um número de slide específico contendo uma imagem.
  3. A imagem selecionada é processada e formatada em uma conversa estruturada para o modelo de visão.
  4. O modelo gera uma resposta com base no conteúdo da imagem e na consulta do usuário.
  5. O ciclo continua até que o usuário digite sair para sair.
chat_with_images(model, processor, slide_images)

SAÍDA

Faça uma pergunta com base nas imagens da apresentação (ou digite "exit" para sair): o que é esta imagem?

Insira o número do slide (1 a 41) para perguntar sobre a imagem: 2

Resposta do modelo: <|system|>

Um bate-papo entre um usuário curioso e um assistente de inteligência artificial. O assistente fornece respostas úteis, detalhadas e corteses às perguntas do usuário.

<|user|>

O que é essa imagem?

<|assistant|>

modelo 3d

Faça uma pergunta com base nas imagens da apresentação (ou digite "exit" para sair): explique esta imagem

Insira o número do slide (1 a 41) para perguntar sobre a imagem: 2

Resposta do modelo: <|system|>

Um bate-papo entre um usuário curioso e um assistente de inteligência artificial. O assistente fornece respostas úteis, detalhadas e corteses às perguntas do usuário.

<|user|>

explique esta imagem

<|assistant|>

a imagem é um modelo 3d de um cubo

Faça uma pergunta com base nas imagens da apresentação (ou digite "exit" para sair): você pode explicar este gráfico?

Insira o número do slide (1 a 41) para perguntar sobre a imagem: 1

Resposta do modelo: <|system|>

Um bate-papo entre um usuário curioso e um assistente de inteligência artificial. O assistente fornece respostas úteis, detalhadas e corteses às perguntas do usuário.

<|user|>

Você pode explicar este gráfico?

<|assistant|>

Aqui está um gráfico de barras intitulado Progressão da maturidade do mercado de nuvem corporativa da 1ª para a 4ª geração. O eixo x mede a progressão das gerações, enquanto o eixo y traça a progressão da maturidade ao longo dos anos. O gráfico mostra que, à medida que as gerações progridem, a maturidade do mercado de nuvem corporativa aumenta.

Faça uma pergunta com base nas imagens da apresentação (ou digite "exit" para sair): exit

Quando o usuário fez perguntas relacionadas a imagens, o modelo Granite Vision processou as imagens selecionadas e gerou respostas com base em sua compreensão do conteúdo visual.

Para a pergunta "O que é esta imagem?" (slide 2), o modelo identificou a imagem como um "modelo 3D", mas forneceu uma descrição mínima.

Para "Explique esta imagem" (slide 2), o modelo refinou sua resposta, identificando-a como "um modelo 3D de um cubo".

Para "Você pode explicar este gráfico?" (slide 1), o modelo forneceu uma descrição detalhada do gráfico de barras, explicando seu título, eixo x, eixo y e a tendência geral, indicando como a maturidade da nuvem corporativa progride entre as gerações.

Esta etapa permite que os usuários interajam com elementos visuais, como gráficos, diagramas e infográficos, aproveitando o modelo IBM Granite Vision para análises e explicações inteligentes

Principais conclusões

  1. O modelo reconhece formas e objetos básicos, mas pode fornecer descrições generalizadas para algumas imagens.
  2. Para gráficos e diagramas, ele fornece insights estruturados, incluindo títulos, rótulos de eixos e tendências, tornando-os úteis para apresentações de negócios e dados.
  3. A precisão das respostas depende da clareza e complexidade da imagem; recursos visuais mais simples (como modelos 3D) podem receber respostas mais curtas, enquanto visuais estruturados (como gráficos) recebem insights mais detalhados.

Este tutorial demonstra a capacidade do IBM Granite Vision de interpretar imagens.

Soluções relacionadas
IBM Maximo Visual Inspection

Aproveite todo o poder da visão computacional sem código para automatizar inspeções visuais.

Conheça o Maximo Visual Inspection
Consultoria e serviços em inteligência artificial (IA)

Os serviços de IA da IBM® Consulting ajudam a reinventar a forma como as empresas trabalham com IA para gerar transformações.

Explore os serviços de inteligência artificial
Soluções de inteligência artificial

Coloque a IA em ação na sua empresa tendo a seu lado o conhecimento técnico em IA líder do setor e o portfólio de soluções da IBM.

Explore as soluções de IA
Dê o próximo passo

O IBM Maximo Visual Inspection coloca o poder dos recursos de visão computacional por IA nas mãos de suas equipes de controle de qualidade e inspeção. Aproveite todo o poder da visão computacional sem código para automatizar inspeções visuais.

Conheça o Maximo Visual Inspection Faça um tour pelo produto