Teste de serviços de IA
Depois de criar o seu serviço de IA, você pode testar a lógica de codificação do seu serviço de IA usando a biblioteca de clientes watsonx.ai Python.
Teste de serviços de IA com a biblioteca de clientes Python
Para testar a lógica do seu serviço de IA localmente usando a classe " RuntimeContext da biblioteca do cliente watsonx.ai Python, siga estas etapas:
Use a classe "
RuntimeContextda biblioteca de clientes Python para testar seu serviço de IA localmente:from ibm_watsonx_ai.deployments import RuntimeContext context = RuntimeContext( api_client=client, request_payload_json={} ) # custom is optional argument which is specified during the time of creation of deployment custom_object = {"space_id": space_id} generate, generate_stream, generate_batch = basic_generate_demo(context, **custom_object)Para obter mais informações, consulte ' documentação da biblioteca do cliente watsonx.ai ' Python para usar '
RuntimeContextpara serviços de IA.Dependendo do seu caso de uso, você pode testar as funções '
generate(), 'generate_stream()ou 'generate_batch()da seguinte forma:Para testar a função generate():
context.request_payload_json = { "test": "ai_service inference payload"} print(generate(context))Para testar a função generate_stream():
context.request_payload_json = {"sse": ["ai_service_stream", "inference", "test"]} for data in generate_stream(context): print(data)Para testar a função generate_batch():
input_data_references = [ { "type": "connection_asset", "connection": {"id": "2d07a6b4-8fa9-43ab-91c8-befcd9dab8d2"}, "location": { "bucket": "wml-v4-fvt-batch-pytorch-connection-input", "file_name": "testing-123", }, } ] output_data_reference = { "type": "data_asset", "location": {"name": "nb-pytorch_output.zip"}, } generate_batch(input_data_references, output_data_reference)
Saiba mais
Tópico principal: Implementação de serviços de IA com codificação direta