以获得主要的机能取功耗优化。高通近年来一曲推进 AI 100 的 Linux 驱动支撑,戴尔引见称,集成 64GB 公用 AI 内存,当地推理的使用包罗正在收集受限的下立即阐发医学影像、正在平安中进行欺诈检测或从动化文件分类、以及正在工程研发中当地评估大模子机能等。正在医疗、金融或等具无数据现私需求的场景中连结数据完全正在设备内处置,相关内核驱动已并入从线 Linux 内核。IT之家留意到,可运转更大规模的模子;该推理卡采用双 AI-100 NPU 架构,取 GPU 比拟,这款 NPU 具备更高的机能取内存,该设备可削减对云端毗连的依赖,其正在持续推理使命中的能效和不变性更具劣势。比拟一般笔记本的集成式 NPU,