Llm Large Language Model
I 10 migliori prodotti di maggio 2025
Ultimo aggiornamento:
3 maggio 2025
Packt Publishing
Building LLM Powered Applications: Create intelligent apps and agents with large language models
Spedizione gratuita
99
QUALITÀ MASSIMA
VEDI SU AMAZON
Amazon.it
#1 VINCITORE
Packt Publishing
LLM Engineer's Handbook: Master the art of engineering large language models from concept to production
Spedizione gratuita
98
QUALITÀ MASSIMA
VEDI SU AMAZON
Amazon.it
#2
Independently published
Intelligenza Artificiale | Il Futuro a portata di mano: da ChatGPT a Gemini e oltre | Una guida completa per svelare, comprendere e dominare l'IA nella vita e nel lavoro
Spedizione gratuita
92
QUALITÀ OTTIMA
VEDI SU AMAZON
Amazon.it
#3
Independently published
LLM Large Language Model: The Ultimate Guide to Open Source Large Language Models, LLM Transformers, Artificial Intelligence and Generative AI, ... for Advanced NLP, Automation, and Innovation
Spedizione gratuita
88
QUALITÀ DISTINTA
VEDI SU AMAZON
Amazon.it
#4
O'Reilly Media
Designing Large Language Model Applications: A Holistic Approach to LLMs (English Edition)
83
QUALITÀ AFFIDABILE
VEDI SU AMAZON
Amazon.it
#5
Reactive Publishing
Large Language Model with Python: A comprehensive guide to LLM's in the Age of AI 2024 (English Edition)
81
QUALITÀ BUONA
VEDI SU AMAZON
Amazon.it
#6
LLM - Large Language Models for Kids (English Edition)
78
QUALITÀ BUONA
VEDI SU AMAZON
Amazon.it
#7
Kissmii
Kissmii LLM (Large Language Model) Modulo (AX630C) Edge AI, adatto per il funzionamento di modelli offline
76
QUALITÀ BUONA
VEDI SU AMAZON
Amazon.it
#8
▼ Mostra di più
▲ Mostra di meno
È dotato di microfono incorporato, altoparlante, scheda di memoria TF, USB OTG e luce di stato RGB e soddisfa un'ampia gamma di requisiti applicativi con supporto per l'interazione vocale e il trasferimento dei dati. Il modulo offre opzioni di espansione flessibili: lo slot per schede SD integrato supporta aggiornamenti firmware Cold/Hot e l'interfaccia di comunicazione UART semplifica la connessione e il debug e assicura un'ottimizzazione continua ed espansione delle funzionalità del modulo.
Integrato con il framework StackFlow e le librerie per /UiFlow, le funzioni intelligenti possono essere implementate facilmente con poche righe di codice.
Il modulo LLM è un modulo di inferenza offline integrato per Large Language Models (LLM), progettato per dispositivi che richiedono un'interazione efficiente e intelligente. Che si tratti di case intelligenti, assistenti vocali o controlli industriali, il modulo LLM offre un'esperienza e naturale dipendenza dal cloud, garantendo così privacy e stabilità.
dall'avanzato processore SoC AX630C, una NPU da 3,2 OPS ad alta efficienza con supporto nativo per i modelli Transformer e consente di gestire con facilità attività complesse. Dotato di 4 GB di memoria LPDDR4 e 32 GB di memoria eMMC, supporta la ricarica parallela e l'inferenza sequenziale di più modelli, assicurando un multitasking fluido.
La porta USB supporta la commutazione automatica master-slave e funge da porta di debug che per il collegamento a dispositivi USB aggiuntivi come fotocamere. Il modulo LLM offre un'esperienza di interazione semplice grazie al plug-and-play con host M5.
94,08 € SU AMAZON
Joselin
Joselin Modulo LLM (Large Language Model) (AX630C) Scheda di Sviluppo AI Edge Adatta per Il Funzionamento del Modello Offline
70
QUALITÀ BUONA
VEDI SU AMAZON
Amazon.it
#9
▼ Mostra di più
▲ Mostra di meno
È dotato di microfono incorporato, altoparlante, scheda di memoria TF, USB OTG e spia di stato RGB, soddisfacendo diverse esigenze applicative con supporto per interazione vocale e trasferimento dati. Il modulo offre un'espansione flessibile: lo slot per scheda SD integrato supporta aggiornamenti firmware cold/hot e l'interfaccia di comunicazione UART semplifica la connessione e il debug, garantendo un'ottimizzazione e un'espansione continue delle funzionalità del modulo.
Il modulo LLM è un modulo di inferenza offline integrato Large Language Model (LLM) progettato per dispositivi terminali che richiedono un'interazione efficiente e intelligente. Che si tratti di case intelligenti, assistenti vocali o controllo industriale, il modulo LLM fornisce un'esperienza AI e naturale affidamento sul cloud, garantendo privacy e stabilità.
Integrato con il framework StackFlow e per le librerie per /UiFlow, le funzionalità intelligenti possono essere facilmente implementate con poche righe di codice.
Alimentato dal processore avanzato AX630C SoC, una NPU ad alta efficienza da 3,2 TOP con supporto nativo per i modelli Transformer, gestendo con facilità complesse attività di intelligenza artificiale. Dotato di memoria LPDDR4 da 4 GB e storage eMMC da 32 GB, supporta il caricamento parallelo e l'inferenza sequenziale di più modelli, garantendo un multitasking fluido.
La porta USB supporta la commutazione automatica master-slave, fungendo da porta di debug consentendo la connessione ad altri dispositivi USB come le fotocamere. Collega e usa con gli host M5, il modulo LLM offre un'esperienza di interazione AI facile da usare.
96,35 € SU AMAZON
Quystetes
Quystetes Modulo LLM (Large Language Model) (AX630C) Scheda di Sviluppo AI Edge Adatta per Il Funzionamento del Modello Offline
69
QUALITÀ BUONA
VEDI SU AMAZON
Amazon.it
#10
▼ Mostra di più
▲ Mostra di meno
Alimentato dal processore avanzato AX630C SoC, una NPU ad alta efficienza da 3,2 TOP con supporto nativo per i modelli Transformer, gestendo con facilità complesse attività di intelligenza artificiale. Dotato di memoria LPDDR4 da 4 GB e storage eMMC da 32 GB, supporta il caricamento parallelo e l'inferenza sequenziale di più modelli, garantendo un multitasking fluido.
Il modulo LLM è un modulo di inferenza offline integrato Large Language Model (LLM) progettato per dispositivi terminali che richiedono un'interazione efficiente e intelligente. Che si tratti di case intelligenti, assistenti vocali o controllo industriale, il modulo LLM fornisce un'esperienza AI e naturale affidamento sul cloud, garantendo privacy e stabilità.
È dotato di microfono incorporato, altoparlante, scheda di memoria TF, USB OTG e spia di stato RGB, soddisfacendo diverse esigenze applicative con supporto per interazione vocale e trasferimento dati. Il modulo offre un'espansione flessibile: lo slot per scheda SD integrato supporta aggiornamenti firmware cold/hot e l'interfaccia di comunicazione UART semplifica la connessione e il debug, garantendo un'ottimizzazione e un'espansione continue delle funzionalità del modulo.
Integrato con il framework StackFlow e per le librerie per /UiFlow, le funzionalità intelligenti possono essere facilmente implementate con poche righe di codice.
La porta USB supporta la commutazione automatica master-slave, fungendo da porta di debug consentendo la connessione ad altri dispositivi USB come le fotocamere. Collega e usa con gli host M5, il modulo LLM offre un'esperienza di interazione AI facile da usare.
106,17 € SU AMAZON
large language model
large language model italiano
large language model book
large language model security