Meetup C++ – LIVE STREAMING

Interoperable AI: ONNX e ONNXRuntime in C++

Giovedi 22 Ottobre 2020 - orario: 19:00 - 20:30

Livello:

Per tutti

Dettagli:

⚠️Evento online⚠️
Più in basso dettagli del meetup e link alla diretta
Tornano i meetup C++ realizzati dall'Italian C++ Community e ospitati da ConoscereLinux.
Ogni incontro prevede la condivisione di un argomento, spazio per le domande e poi una pizza tutti insieme.
Il formato della presentazione può variare ed è deciso dal relatore ospite della serata: talk frontale, workshop, live coding, ecc.

Organizza e modera le serate Marco Arena, presidente dell'Italian C++ Community.

PS in regalo ai partecipanti i nostri mitici stickers :)

Perché partecipare:

L'Italian C++ Community vuole tenere attivo un dialogo sul C++ a Modena coinvolgendo chiunque sia interessato.

Obiettivi:

• Condividere esperienze e conoscenze sul C++ nella zona
• Fare networking e incontrare i protagonisti del C++ della zona
• Creare collaborazioni per progetti C++
• Creare un gruppo fisso che si incontri per chiacchierare di C++

Chiusura iscrizioni:

Giovedi 22 Ottobre 2020

Disponibilità posti:

Nessun limite di posti

Prezzo Iscrizione:

Gratuito

Incontro 1

Giovedi 22 Ottobre 2020 - Orario: 19:00 - 20:30

Interoperable AI: ONNX e ONNXRuntime in C++


📹 Live Stream a questo indirizzo
NON serve iscriversi all'evento per partecipare

Interoperable AI: ONNX e ONNXRuntime in C++
Presentano: Marco Arena e Mattia Verasani.
Programma:

19:00

Arrivo e saluti iniziali – Marco Arena

19:05

Interoperable AI: ONNX e ONNXRuntime in C++ – Marco Arena, Mattia Verasani

In dettaglio:

ONNX è un formato open source per rappresentare modelli di machine learning e reti neurali. L'obiettivo del progetto è permettere agli sviluppatori di utilizzare facilmente ed in maniera ottimizzata modelli sviluppati con tool differenti e accelerarli su diverse piattaforme hardware. Lo sviluppo di ONNX è guidato da una community di partner tra i quali Microsoft, Facebook, NVIDIA e Mathworks.

Tra i diversi runtime e librerie compatibili con ONNX, esiste la possibilità di usare ONNXRuntime, progetto open source il cui sviluppo è capitanato da Microsoft.
Oltre a fornire un'implementazione ottimizzata per CPU di tutti gli operatori di ONNX, ONNXRuntime supporta diversi target di accelerazione come ad esempio le MKL-DNNL di Intel e le CUDA libraries di NVIDIA. Inoltre ha un'architettura molto estensibile per consentire di aggiungere facilmente nuovi acceleratori.

In questa sessione, dopo aver fatto una breve introduzione ad ONNX, parleremo di ONNXRuntime e mostreremo alcune demo pratiche in C++ e Python.

Link

Slides

Video

Formatori

Arena Marco

AI Software Engineer in Tetra Pak. 2011-2019 C++ Specialist del team F1 Ferrari, fondatore di Italian C++ Community, Coding Gym, ML Moden...

Verasani Mattia

ML Engineer in Tetra Pak. Die Hard fan of Lebron James, king of swag.