Arena Marco
AI Software Engineer in Tetra Pak. 2011-2019 C++ Specialist del team F1 Ferrari, fondatore di Italian C++ Community, Coding Gym, ML Moden...
Interoperable AI: ONNX e ONNXRuntime in C++
Giovedi 22 Ottobre 2020 - orario: 19:00 - 20:30
Per tutti
⚠️Evento online⚠️
Più in basso dettagli del meetup e link alla diretta
Tornano i meetup C++ realizzati dall'Italian C++ Community e ospitati da ConoscereLinux.
Ogni incontro prevede la condivisione di un argomento, spazio per le domande e poi una pizza tutti insieme.
Il formato della presentazione può variare ed è deciso dal relatore ospite della serata: talk frontale, workshop, live coding, ecc.
Organizza e modera le serate Marco Arena, presidente dell'Italian C++ Community.
PS in regalo ai partecipanti i nostri mitici stickers :)
L'Italian C++ Community vuole tenere attivo un dialogo sul C++ a Modena coinvolgendo chiunque sia interessato.
• Condividere esperienze e conoscenze sul C++ nella zona
• Fare networking e incontrare i protagonisti del C++ della zona
• Creare collaborazioni per progetti C++
• Creare un gruppo fisso che si incontri per chiacchierare di C++
Giovedi 22 Ottobre 2020
Nessun limite di posti
Gratuito
Giovedi 22 Ottobre 2020 - Orario: 19:00 - 20:30
📹 Live Stream a questo indirizzo
NON serve iscriversi all'evento per partecipare
Interoperable AI: ONNX e ONNXRuntime in C++
Presentano: Marco Arena e Mattia Verasani.
Programma:
19:00
Arrivo e saluti iniziali – Marco Arena
19:05
Interoperable AI: ONNX e ONNXRuntime in C++ – Marco Arena, Mattia Verasani
In dettaglio:
ONNX è un formato open source per rappresentare modelli di machine learning e reti neurali. L'obiettivo del progetto è permettere agli sviluppatori di utilizzare facilmente ed in maniera ottimizzata modelli sviluppati con tool differenti e accelerarli su diverse piattaforme hardware. Lo sviluppo di ONNX è guidato da una community di partner tra i quali Microsoft, Facebook, NVIDIA e Mathworks.
Tra i diversi runtime e librerie compatibili con ONNX, esiste la possibilità di usare ONNXRuntime, progetto open source il cui sviluppo è capitanato da Microsoft.
Oltre a fornire un'implementazione ottimizzata per CPU di tutti gli operatori di ONNX, ONNXRuntime supporta diversi target di accelerazione come ad esempio le MKL-DNNL di Intel e le CUDA libraries di NVIDIA. Inoltre ha un'architettura molto estensibile per consentire di aggiungere facilmente nuovi acceleratori.
In questa sessione, dopo aver fatto una breve introduzione ad ONNX, parleremo di ONNXRuntime e mostreremo alcune demo pratiche in C++ e Python.
AI Software Engineer in Tetra Pak. 2011-2019 C++ Specialist del team F1 Ferrari, fondatore di Italian C++ Community, Coding Gym, ML Moden...
ML Engineer in Tetra Pak. Die Hard fan of Lebron James, king of swag.