Kecerdasan buatan (AI) kini mengubah berbagai industri, dan bisnis membutuhkan infrastruktur yang kuat, aman, dan efisien untuk menangani beban kerja AI.
IBM® LinuxONE, yang didukung oleh prosesor IBM® Telum, mengintegrasikan akselerasi AI langsung ke dalam chip, sehingga memungkinkan inferensi real-time dari beberapa model AI dengan latensi minimal. Dikombinasikan dengan AI prediktif dan model bahasa besar, kemampuan canggih ini memungkinkan bisnis menganalisis data di mana pun berada. Hal ini memberikan insight yang lebih cepat dan lebih dalam untuk aplikasi yang sangat penting, misalnya deteksi penipuan, analisis risiko, dan pencitraan medis.
IBM® Spyre Accelerator adalah akselerator AI 75W PCIe Gen 5x dengan memori LPDDR5 128 GB, yang dioptimalkan untuk AI generatif dan LLM multimodal.8 Dilengkapi dengan 32 (+2) core dengan scratchpad 2 MB per core dan >55% pemanfaatan core, Spyre diskalakan berdasarkan kartu dan laci, sehingga memungkinkan bisnis untuk menangani inferensi AI yang kompleks secara efisien di seluruh aplikasi perusahaan.
Dengan menambahkan kartu IBM Spyre Accelerator ke IBM LinuxONE 5, contoh penggunaan tambahan diaktifkan, termasuk AI generatif.
IBM® bekerja sama dengan IBM® LinuxONE Ecosystem untuk membantu ISV memberikan solusi bagi tantangan AI, keberlanjutan, dan keamanan siber saat ini.
Jelajahi dua solusi inovatif yang disesuaikan untuk institusi keuangan dan kesehatan: Clari5 Enterprise Fraud Management pada IBM LinuxONE 4 Express untuk pencegahan penipuan secara real-time dan Enso Decision Intelligence Platform dari Exponential AI pada LinuxONE untuk solusi AI tingkat lanjut dalam skala besar.
1 PENAFIAN: Penafian: Hasil kinerja didasarkan oleh uji internal IBM yang dijalankan pada IBM Systems Hardware dengan jenis mesin 9175. Aplikasi OLTP dan PostgreSQL diterapkan pada IBM Systems Hardware. Pengaturan AI ensambel Deteksi Penipuan Kartu Kredit (CCFD) terdiri dari dua model (LSTM, TabFormer). Pada IBM Systems Hardware, aplikasi OLTP dijalankan secara lokal menggunakan IBM Z Deep Learning Compiler (zDLC) dan IBM Z Accelerated untuk NVIDIA Triton Inference Server. Operasi inferensi AI diproses langsung di core dan Integrated Accelerator for AI. Ini dibandingkan dengan skenario lain, di mana aplikasi OLTP juga dijalankan secara lokal, tetapi operasi inferensi AI diproses dari jarak jauh di server x86 yang menjalankan NVIDIA Triton Inference Server dengan backend OpenVINO yang berjalan di CPU (menggunakan AMX). Setiap skenario dijalankan dari Apache JMeter 5.6.3 dengan 64 pengguna paralel. Konfigurasi IBM Systems Hardware: 1 LPAR yang menjalankan Ubuntu 24.04 dengan 7 core khusus (SMT), memori 256 GB, dan penyimpanan IBM FlashSystem 9500. Adaptor Jaringan khusus untuk NETH di Linux. Konfigurasi x86 server: 1 x86 server menjalankan Ubuntu 24.04 dengan 28 CPU Emerald Rapids Intel Xeon Gold @ 2,20 GHz dengan Hyper-Threading aktif, memori 1 TB, SSD lokal, UEFI dengan profil kinerja maksimum aktif, CPU P-State Control dan C-States nonaktif. Hasil dapat bervariasi.
2, 3 PENAFIAN: Hasil kinerja diekstrapolasi dari pengujian internal IBM yang dijalankan pada IBM Systems Hardware dengan jenis mesin 9175. Tolok ukur dijalankan dengan 1 utas yang melakukan operasi inferensi lokal menggunakan model Deteksi Penipuan Kartu Kredit sintetis berbasis LSTM untuk mengeksploitasi Integrated Accelerator for AI. Ukuran batch yang digunakan adalah 160. Konfigurasi IBM Systems Hardware: 1 LPAR yang menjalankan Red Hat Enterprise Linux 9.4 dengan 6 core (SMT), memori 128 GB. Hasil dapat bervariasi.