Generazione di immagini neurali, riconoscimento facciale, classificazione di immagini, risposta a domande...
Il tuo smartphone è in grado di eseguire le più recenti reti neurali profonde per eseguire queste e molte altre attività basate sull'intelligenza artificiale? Ha un chip AI dedicato? È abbastanza veloce? Esegui AI Benchmark per valutare professionalmente le sue prestazioni AI!
Classifica attuale del telefono: http://ai-benchmark.com/ranking
AI Benchmark misura la velocità, la precisione, il consumo energetico e i requisiti di memoria per diversi modelli chiave di AI, visione artificiale e NLP. Tra le soluzioni testate ci sono metodi di classificazione delle immagini e riconoscimento facciale, modelli di intelligenza artificiale che eseguono la generazione di immagini e testi neurali, reti neurali utilizzate per la super-risoluzione di immagini/video e il miglioramento delle foto, nonché soluzioni di intelligenza artificiale utilizzate nei sistemi di guida autonoma e negli smartphone per applicazioni reali. Stima della profondità temporale e segmentazione semantica dell'immagine. La visualizzazione degli output degli algoritmi consente di valutarne graficamente i risultati e di conoscere l’attuale stato dell’arte in vari campi dell’IA.
In totale, AI Benchmark è composto da 83 test e 30 sezioni elencate di seguito:
Sezione 1. Classificazione, MobileNet-V3
Sezione 2. Classificazione, Inception-V3
Sezione 3. Riconoscimento facciale, Swin Transformer
Sezione 4. Classificazione, EfficientNet-B4
Sezione 5. Classificazione, MobileViT-V2
Sezioni 6/7. Esecuzione del modello parallelo, 8 x Inception-V3
Sezione 8. Tracciamento oggetti, YOLO-V8
Sezione 9. Riconoscimento ottico dei caratteri, trasformatore ViT
Sezione 10. Segmentazione semantica, DeepLabV3+
Sezione 11. Segmentazione parallela, 2 x DeepLabV3+
Sezione 12. Segmentazione semantica, segmenta qualsiasi cosa
Sezione 13. Sfocatura delle foto, IMDN
Sezione 14. Super risoluzione delle immagini, ESRGAN
Sezione 15. Super risoluzione delle immagini, SRGAN
Sezione 16. Denoising delle immagini, U-Net
Sezione 17. Stima della profondità, MV3-Profondità
Sezione 18. Stima della profondità, MiDaS 3.1
Sezione 19/20. Miglioramento dell'immagine, DPED
Sezione 21. ISP di fotocamere acquisite, MicroISP
Sezione 22. Rendering dell'effetto Bokeh, PyNET-V2 Mobile
Sezione 23. Super risoluzione video FullHD, XLSR
Sezione 24/25. Super risoluzione video 4K, VideoSR
Sezione 26. Risposte alle domande, MobileBERT
Sezione 27. Generazione di testo neurale, Llama2
Sezione 28. Generazione di testo neurale, GPT2
Sezione 29. Generazione di immagini neurali, diffusione stabile V1.5
Sezione 30. Limiti di memoria, ResNet
Oltre a ciò, è possibile caricare e testare i propri modelli di deep learning TensorFlow Lite in modalità PRO.
Una descrizione dettagliata dei test può essere trovata qui: http://ai-benchmark.com/tests.html
Nota: l'accelerazione hardware è supportata su tutti i SoC mobili con NPU dedicate e acceleratori AI, inclusi i chipset Qualcomm Snapdragon, MediaTek Dimensity / Helio, Google Tensor, HiSilicon Kirin, Samsung Exynos e UNISOC Tiger. A partire da AI Benchmark v4, è anche possibile abilitare l'accelerazione AI basata su GPU sui dispositivi più vecchi nelle impostazioni ("Accelera" -> "Abilita accelerazione GPU" / "Arm NN", è richiesto OpenGL ES-3.0+).