AI芯片技术的先驱迪普爱思正在大力开发能够实时处理生成式AI和大型语言模型(LLM)的新一代产品,旨在到2025年通过超低功耗AI芯片革新端侧AI。
该公司的技术实力今年早些时候在CES 2024的全球舞台上亮相,迪普爱思的革命性核心技术赢得了三项备受推崇的CES创新奖,并推动与全球70多家公司合作。
趁着CES 2024的良好势头,迪普爱思在MWC 2024上宣布了其战略愿景,展示了端侧AI未来的蓝图,并扩大与全球公司的合作。
西班牙巴塞罗那2024年2月15日 /美通社/ -- AI芯片技术的领跑者迪普爱思(首席执行官Lokwon Kim)将商业化生成式AI的关键技术定义为"Federated Operation of LLM",并正在推进技术发展。迪普爱思计划通过其先进的超低功耗AI芯片革新端侧AI,并在2月26日至29日举行的2024年世界移动通信大会(MWC)上大放异彩,届时将展示端侧AI的全面蓝图并计划扩大与全球伙伴的合作。目前,迪普爱思正在与国内和欧洲的电信公司以及全球数据中心企业建立联盟,推动网络和云系统的兼容性和优化。
迪普爱思在MWC 2024推进超低功耗端侧AI芯片,旨在商业化生成式AI
在MWC 2024的迪普爱思展台体验端侧AI的未来,展位号7号馆7A62-19
在MWC 2024之前,迪普爱思在CES取得了重要里程碑,展示了其第一代端侧AI芯片技术。这一成就为公司赢得了三项CES创新奖,巩固了其作为全球综合AI芯片技术领导者的地位,并吸引了超过5000名访客前往其展位。这一成就使迪普爱思的早期参与客户计划(EECP)的客户数量增加了一倍,达到70家全球公司,展示了对迪普爱思端侧AI解决方案日益增长的工业需求。
迪普爱思的技术旅程还包括开发了一项开创性技术,使服务器规模的AI和端侧大型AI模型的联合操作成为可能。该公司计划明年下半年推出能够在仅几瓦特的功率下运行同时提供服务器规模AI智能的端侧AI芯片。这一举措源于对端侧AI是广泛采用小型AI模型乃至如LLMs和生成式AI这样的超大规模AI的根本解决方案的认识。
尽管基于GPGPU的解决方案目前对于ChatGPT和Gemini等LLM服务来说最具成本效益,但全球运行的GPU消耗的总电能已经超过整个国家电能的水平。这造成了一个关键问题,使商业化的电力需求和成本不可持续。因此,大型科技公司正在开发自己的AI芯片,优化运行他们的AI算法,旨在取代GPU。
迪普爱思的核心技术因优化了性能,降低了功耗,并优化了端侧AI操作成本而脱颖而出。以这些优势为基础,迪普爱思致力于将"LLM的联合操作"作为商业化生成式AI的决定性技术开发。这种服务器规模AI与端侧大型AI模型之间的协作操作技术,预计将使能耗、碳排放和成本相比仅依赖数据中心至少降低十倍到千倍。
迪普爱思富有远见的首席执行官Lokwon Kim表示:"迪普爱思因拥有全球领先的AI操作功耗和成本效率核心技术而获得国际认可。从今年下半年开始,我们计划积极进入全球市场,推出由四颗AI芯片组成的第一代产品,开启AI无处不在的时代。此外,我们旨在开发新技术,使超大规模AI服务在不到5W的功耗下成为可能,提供将巨型人工智能技术从科学领域转移到人类广泛使用的核心技术。我们致力于成为全球市场上领先的综合AI芯片公司。"
迪普爱思通过超低功耗芯片重新定义端侧AI的旅程将塑造AI的未来,使其更高效、可持续、每个人都可以使用。访问https://deepx.ai/了解更多关于迪普爱思的创新AI解决方案的详情。