Lo cierto es que no. La inteligencia artificial no consume mucho proceso o tiempo en el procesador, como si lo hace el Cálculo y las operaciones matemáticas de punto flotante como la operaciones trigonométricas, Potenciación, Radicación, Logaritmos, etc.
Los fabricantes de hardware junto con las empresas de software con licencia privada han vendido la idea que se necesita chips llamados NPU (Neural Processor Unit) para que puedas realizar trabajos con inteligencia artificial (IA). Sin embargo, en Linux, se ha demostrado que el trabajo con Inteligencia Artificial no requiere de estos procesadores especializados para realizar estas operaciones. Esto demuestra que, estas empresas lo que buscan es comercializar estos chips a cualquier costo.
Para entender un poco, antes que se integrara la FPU (Floating Point Unit - Unidad de Punto Flotante) desde el 486DX en adelante, se podía comprar un computador sin ese chip, ya que, por software se podía trabajar esas operaciones. El problema es que en software para Diseño Asistido por Computador (CAD en inglés) requerían de constantes cálculos de punto flotante, lo que hacía que un computador trabajara más lento que con otros programas. Así que, la persona que trabajaba en esto, al comprar su computador, lo solicitaba con este chip FPU, y esto liberaba enormemente la carga de trabajo de la CPU (Central Processor Unit - Unidad Central de Procesos), ya que este procesador, se encargaba de hacer dichas operaciones, lo que agilizó en estos programas CAD el trabajar en complejos diseños. Con la integración de este chip dentro del procesador disminuyó el problema de comprar el FPU de una velocidad inferior a la del procesador.
Antes de la GPU (Graphics Processor Unit - Unidad de Procesamiento Gráfico) hacer imágenes, animarlas o editar fotografía requiere de operaciones de Cálculo (Integral, diferencial, etc.) que hacía que los procesos, incluso en vídeojuegos, que requerían de posiciones muy exactas de las imágenes en pantalla, los efectos de sombras, incluso el movimiento de imágenes luces y sombras, requieren de ese tipo de Cálculo para lograrlo. Si necesitabas algo así, tenías que comprar una GPU aparte de la tarjeta de vídeo y conectar cables adicionales a juntas tarjetas. Luego se integró al chip de vídeo y se redujo costos y tarjetas. Sin embargo, estas operaciones que realizaban las GPU también son útiles para matemáticas, física y otras ciencias y había que hacer maromas con una segunda tarjeta de vídeo con GPU incorporado para poder trabajar en Investigaciones científicas para que ayudara al procesador hacer esos cálculos. Cuando apareció las APU (son de AMD) que traen la GPU incorporada dentro de la CPU, se facilitó su uso en cualquier tarea científica o similar de las capacidades de cálculo de este chip disminuyendo tareas al procesador y mejorando procesos. De hecho, si se unen varios de ellos se pueden hacer supercomputadoras para muchas aplicaciones de Cálculo complejo.
Estos dos ejemplos nos muestran que, la adición en un chip de estos elementos permite que nuestros procesadores sean nanosupercomputadoras capaces de realizar tareas más complejas y con gran potencia, siempre y cuando cuentes con un buen sistema operativo que permita explotarlas, y en eso, Linux lleva la ventaja sobre los otros sistemas operativos de licencia privada. Es por eso que en Inteligencia Artificial, Linux no requiere de NPU para realizarlo, todos estos chips en conjunto pueden hacer cualquier operación que se requiera con velocidad y eficiencia, sin consumir más electricidad, sin aumentar la contaminación ambiental.