AI di IBM LinuxONE

AI bawaan yang dapat diskalakan, hemat daya, dan aman
Chip prosesor Telum II

Kinerja dan inovasi yang didukung AI

Kecerdasan buatan (AI) kini mengubah berbagai industri, dan bisnis membutuhkan infrastruktur yang kuat, aman, dan efisien untuk menangani beban kerja AI.

IBM® LinuxONE, yang didukung oleh prosesor IBM® Telum, mengintegrasikan akselerasi AI langsung ke dalam chip, sehingga memungkinkan inferensi real-time dari beberapa model AI dengan latensi minimal. Dikombinasikan dengan AI prediktif dan model bahasa besar, kemampuan canggih ini memungkinkan bisnis menganalisis data di mana pun berada. Hal ini memberikan insight yang lebih cepat dan lebih dalam untuk aplikasi yang sangat penting, misalnya deteksi penipuan, analisis risiko, dan pencitraan medis.

Insight AI real-time

Akselerator AI on-chip memungkinkan inferensi latensi rendah, dengan menganalisis data saat transaksi terjadi. Koherensi memori dan akses jaringan langsung dapat menghilangkan hambatan, sehingga eksekusi AI berjalan mulus.

Throughput AI yang lebih tinggi

Penggunaan akselerator terintegrasi tunggal untuk AI pada beban kerja OLTP di IBM® LinuxONE Emperor 5 sesuai dengan throughput menjalankan inferencing pada server x86 jarak jauh yang dibandingkan dengan 13 core.1

Kinerja AI yang dipercepat

Dengan IBM  LinuxONE Emperor 5, lakukan pemrosesan hingga 450 miliar operasi inferensi per hari dengan waktu respons 1 milidetik menggunakan model Pembelajaran Mendalam Deteksi Penipuan Kartu Kredit.2

Skalabilitas tanpa kompromi

Dengan IBM LinuxONE Emperor 5, lakukan pemrosesan hingga 5 juta operasi inferensi per detik dengan waktu respons kurang dari 1 milidetik menggunakan model Pembelajaran Mendalam Deteksi Penipuan Kartu Kredit.3

AI yang dapat diskalakan untuk beban kerja yang kompleks

Kartu PCIe Kartu IBM® Spyre Accelerator

IBM® Spyre Accelerator adalah akselerator AI 75W PCIe Gen 5x dengan memori LPDDR5 128 GB, yang dioptimalkan untuk AI generatif dan LLM multimodal.8 Dilengkapi dengan 32 (+2) core dengan scratchpad 2 MB per core dan >55% pemanfaatan core, Spyre diskalakan berdasarkan kartu dan laci, sehingga memungkinkan bisnis untuk menangani inferensi AI yang kompleks secara efisien di seluruh aplikasi perusahaan.

Dengan menambahkan kartu IBM Spyre Accelerator ke IBM LinuxONE 5, contoh penggunaan tambahan diaktifkan, termasuk AI generatif. 

Baca blognya tentang Spyre Accelerator
Demo: Deteksi penipuan asuransi real-time dengan kinerja tinggi di IBM LinuxONE.

Perangkat lunak dan solusi AI untuk IBM LinuxONE

AI Toolkit for IBM LinuxONE
Serangkaian kerangka kerja AI pilihan yang dioptimalkan untuk IBM LinuxONE Integrated Accelerator for AI, yang memberikan kinerja lebih baik dengan IBM Elite Support.
IBM Synthetic Data Sets
Rangkaian kumpulan data yang dibuat secara artifisial untuk meningkatkan pelatihan model AI dan LLM. Dalam bidang keuangan, solusi ini membantu IBM LinuxOne dengan mengakses data yang kaya dan relevan secara cepat untuk inisiatif AI.
Red Hat OpenShift AI
Platform terbuka untuk mengelola siklus hidup model AI prediktif dan AI generatif, dalam skala besar, di seluruh lingkungan hybrid cloud.
ONNX
Format model portabel yang memungkinkan kompatibilitas lintas kerangka kerja, memungkinkan pengembang AI membangun model sekali dan menerapkannya di berbagai runtime, alat, dan kompiler.
Tensorflow
Kerangka kerja sumber terbuka canggih untuk pengembangan model, pelatihan, dan inferensi, menyediakan ekosistem kaya yang dioptimalkan untuk LinuxONE.
IBM SnapML
Dirancang untuk pelatihan dan inferensi machine learning berkecepatan tinggi, solusi ini memanfaatkan IBM Integrated Accelerator for AI untuk meningkatkan kinerja model Random Forest, Extra Trees, dan Gradient Boosting.
Server Inferensi Triton
Server model sumber terbuka yang dioptimalkan untuk Linux di Z, mendukung inferensi CPU dan GPU, sekaligus memanfaatkan SIMD dan IBM Integrated Accelerator for AI.
IBM Z Deep Learning Compiler
Alat yang merampingkan penerapan model pembelajaran mendalam di IBM Z, memungkinkan ilmuwan data mengoptimalkan model AI untuk lingkungan yang sangat penting.

Aplikasi ISV

IBM® bekerja sama dengan IBM® LinuxONE Ecosystem untuk membantu ISV memberikan solusi bagi tantangan AI, keberlanjutan, dan keamanan siber saat ini.

Jelajahi dua solusi inovatif yang disesuaikan untuk institusi keuangan dan kesehatan: Clari5 Enterprise Fraud Management pada IBM LinuxONE 4 Express untuk pencegahan penipuan secara real-time dan Enso Decision Intelligence Platform dari Exponential AI pada LinuxONE untuk solusi AI tingkat lanjut dalam skala besar.

Jelajahi Clari5 Jelajahi Exponential AI
Ambil langkah selanjutnya

Pelajari lebih lanjut tentang AI di IBM LinuxONE dengan menjadwalkan pertemuan 30 menit tanpa biaya dengan perwakilan IBM.

Jelajahi IBM LinuxONE 5
AI di blog IBM® LinuxONE

Baca ikhtisar tentang bagaimana AI di IBM® LinuxONE meningkatkan pertumbuhan dan efisiensi bisnis melalui insight real-time dan kinerja kelas perusahaan. 

Baca blognya
IBM® LinuxONE 5 mendapat dorongan AI yang sangat besar

Baca makalah penelitian Cambrian AI untuk menjelajahi teknologi di LinuxONE 5 dan contoh penggunaan AI diharapkan sesuai untuk server kelas perusahaan ini.

Baca makalah Cambrian-AI
Mulai perjalanan AI Anda di LinuxONE

Jelajahi pertimbangan utama untuk merencanakan contoh penggunaan AI, pelajari apa yang bisa dilakukan dengan chip Telum, dan pahami langkah selanjutnya untuk memulai.

Memulai penggunaan AI
Catatan kaki

1 PENAFIAN: Penafian: Hasil kinerja didasarkan oleh uji internal IBM yang dijalankan pada IBM Systems Hardware dengan jenis mesin 9175. Aplikasi OLTP dan PostgreSQL diterapkan pada IBM Systems Hardware. Pengaturan AI ensambel Deteksi Penipuan Kartu Kredit (CCFD) terdiri dari dua model (LSTM, TabFormer). Pada IBM Systems Hardware, aplikasi OLTP dijalankan secara lokal menggunakan IBM Z Deep Learning Compiler (zDLC) dan IBM Z Accelerated untuk NVIDIA Triton Inference Server. Operasi inferensi AI diproses langsung di core dan Integrated Accelerator for AI. Ini dibandingkan dengan skenario lain, di mana aplikasi OLTP juga dijalankan secara lokal, tetapi operasi inferensi AI diproses dari jarak jauh di server x86 yang menjalankan NVIDIA Triton Inference Server dengan backend OpenVINO yang berjalan di CPU (menggunakan AMX). Setiap skenario dijalankan dari Apache JMeter 5.6.3 dengan 64 pengguna paralel. Konfigurasi IBM Systems Hardware: 1 LPAR yang menjalankan Ubuntu 24.04 dengan 7 core khusus (SMT), memori 256 GB, dan penyimpanan IBM FlashSystem 9500. Adaptor Jaringan khusus untuk NETH di Linux. Konfigurasi x86 server: 1 x86 server menjalankan Ubuntu 24.04 dengan 28 CPU Emerald Rapids Intel Xeon Gold @ 2,20 GHz dengan Hyper-Threading aktif, memori 1 TB, SSD lokal, UEFI dengan profil kinerja maksimum aktif, CPU P-State Control dan C-States nonaktif. Hasil dapat bervariasi.

2, 3 PENAFIAN: Hasil kinerja diekstrapolasi dari pengujian internal IBM yang dijalankan pada IBM Systems Hardware dengan jenis mesin 9175. Tolok ukur dijalankan dengan 1 utas yang melakukan operasi inferensi lokal menggunakan model Deteksi Penipuan Kartu Kredit sintetis berbasis LSTM untuk mengeksploitasi Integrated Accelerator for AI. Ukuran batch yang digunakan adalah 160. Konfigurasi IBM Systems Hardware: 1 LPAR yang menjalankan Red Hat Enterprise Linux 9.4 dengan 6 core (SMT), memori 128 GB. Hasil dapat bervariasi.