导航菜单

FLEX LOGIX宣布推出用于DSP和AI推理的INFERX高性能IP

导读 DSP和 AI 推理 IP 的领先创新者以及 eFPGA IP 的领先供应商Flex Logix® Technologies, Inc 今天宣布推出 InferX TM IP

DSP和 AI 推理 IP 的领先创新者以及 eFPGA IP 的领先供应商Flex Logix® Technologies, Inc.今天宣布推出 InferX TM IP 和软件用于 DSP 和 AI 推理。InferX 加入 EFLX® eFPGA,成为 Flex Logix 的第二个 IP 产品。它可供希望在其 SoC 中获得 DSP-FPGA 或 AI-GPU 性能,但成本和功耗仅为其一小部分的设备制造商和系统公司使用。该公司的 EFLX eFPGA 产品线已经在数十种芯片中得到验证,还有更多芯片正在设计中,从 180 纳米到 7 纳米,还有 5 纳米正在开发中。

Flex Logix 创始人兼首席执行官Geoff Tate表示:“通过将 InferX 集成到 SoC 中,客户不仅可以保持昂贵且耗电的 FPGA 或 GPU 的性能和可编程性,而且还可以从更低的功耗和成本中受益。” . “这对于设计自己的 ASIC 的系统客户以及传统上将 DSP-FPGA 或 AI-GPU 放在芯片旁边的芯片公司来说是一个显着优势,现在可以将其集成以获得更多收入并节省他们的成本客户能力和成本。InferX 80% 是硬连线的,但 100% 可重新配置。”

最终用户的好处是在更小的系统中使用更强大的 DSP 和 AI、更低的功耗和更低的成本。借助 InferX AI,用户可以使用更精确的模型(如 Yolov5s6 和 Yolov5L6)处理百万像素图像,以检测比现在负担得起的更小尺寸/更远距离的图像。

InferX 优势InferX DSP 是 InferX 硬件与用于 DSP 操作的软逻辑相结合,Flex Logix 提供 FFT 等操作,可在大小(例如

1K到4K到2K)之间即时切换;任意数量抽头的 FIR 滤波器;Complex Matrix Inversions 16x16 或 32x32 或其他尺寸;还有很多。InferX DSP 每秒传输 Gigasamples,可以运行多个 DSP 操作,并且可以链接 DSP 操作。DSP 在 Real/Complex INT16 上完成,具有 32 位累加以获得非常高的精度。借助 InferX DSP,您可以以1/10的速度集成与领先的 FPGA 一样快或更快的 DSP 性能的成本和功率,同时保持几乎立即重新配置的所有灵活性。一个例子是 InferX DSP,其 N5 中的硅小于 50 平方毫米,可以以 68 Gigasamples/秒的速度执行复杂的 INT16 FFT,并在 256 点到8K点的FFT 大小之间即时切换。这比当今最好的 FPGA 速度更快,而且成本、功耗和尺寸只是其一小部分。

InferX AI 是 InferX 硬件与用于 AI 推理的推理编译器相结合。Inference Compiler 采用 Pytorch、Onnx 或 TFLite 格式的客户神经网络模型,以高精度量化模型,编译图形以实现高利用率,并生成在 InferX 硬件上执行的运行时代码。提供了一个简单易用的 API 来控制 InferX IP。借助 InferX AI,客户可以以1/10的速度集成与前沿 AI 模块一样快或更快的 AI 推理性能成本和功率,同时保持所有的灵活性和运行多个模型或动态更改模型的能力。InferX AI 针对 megapixel batch=1 操作进行了优化,推理编译器可用于评估。例如,在 N7 中使用大约 15 平方毫米的硅,InferX AI 可以以每秒 175 次推理的速度运行 Yolov5s:这比最快的边缘 AI 模块 Orin AGX 60W 快 40%。

InferX 技术在 16nm 中得到验证并符合生产要求,并将用于最流行的 FinFet 节点。

InferX 硬件也是可扩展的。它的构建块是一个计算块,可以排列起来以获得更高的吞吐量。例如,4 块阵列的性能是 1 块阵列的 4 倍。具有客户所需性能的 InferX 阵列通过 AXI 总线接口交付,以便轻松集成到他们的 SoC 中。

免责声明:本文由用户上传,如有侵权请联系删除!

猜你喜欢:

最新文章: