{"id":3019,"date":"2021-11-03T17:23:16","date_gmt":"2021-11-03T11:53:16","guid":{"rendered":"https:\/\/www.datalabelify.com\/?p=3019"},"modified":"2023-11-03T11:45:46","modified_gmt":"2023-11-03T06:15:46","slug":"data-annotation-in-autonomous-cars","status":"publish","type":"post","link":"https:\/\/www.datalabelify.com\/it\/annotazione-dati-in-auto-autonome\/","title":{"rendered":"Un&#039;introduzione all&#039;annotazione dei dati nelle auto autonome"},"content":{"rendered":"<h5>Un&#039;introduzione all&#039;annotazione dei dati nelle auto autonome<\/h5>\n<p>Le capacit\u00e0 dei veicoli semi-autonomi o autonomi sono rese possibili attraverso annotazioni. L&#039;annotazione si riferisce al processo di identificazione dell&#039;area di interesse o dell&#039;oggetto di interesse in un video o in un&#039;immagine con riquadri di delimitazione, oltre a specificare altri attributi che aiutano i modelli ML a riconoscere e comprendere gli oggetti rilevati dai sensori del veicolo.<\/p>\n<p>Le auto autonome e semi-autonome dispongono di tecnologie che svolgono un ruolo importante nel migliorare l&#039;esperienza di guida. Ci\u00f2 \u00e8 dovuto alla presenza di numerosi sensori di fotocamere, sensori e altri dispositivi. Ognuno di questi componenti genera molte informazioni. Un esempio potrebbe essere quello del dispositivo ADAS, che si basa sulla visione artificiale. Utilizza un computer per acquisire una profonda comprensione delle immagini e, analizzando diversi scenari, allerta il conducente affinch\u00e9 prenda la sua decisione in modo pi\u00f9 efficace.<\/p>\n<p>&nbsp;<\/p>\n<h3>Come si definisce un&#039;annotazione?<\/h3>\n<p>Le funzioni dei veicoli semi-autonomi e autonomi sono migliorate grazie alle annotazioni. L&#039;annotazione si riferisce all&#039;etichettatura dell&#039;area di interesse o dell&#039;oggetto di interesse nel video o nell&#039;immagine utilizzando riquadri di delimitazione e definendo altre caratteristiche per aiutare i modelli ML a riconoscere e comprendere gli oggetti rilevati dai sensori all&#039;interno del veicolo. Analisi come il riconoscimento facciale, il rilevamento del movimento e altro ancora richiedono dati di alta qualit\u00e0 annotati correttamente.<\/p>\n<p>Se non c&#039;\u00e8 un&#039;appropriata annotazione delle informazioni, la guida autonoma potrebbe non essere efficace fino al punto in cui \u00e8 quasi impossibile da raggiungere. L&#039;accuratezza dei dati assicura che l&#039;esperienza senza conducente sia fluida.<\/p>\n<h3>Perch\u00e9 esiste l&#039;annotazione?<\/h3>\n<p>I veicoli moderni generano grandi quantit\u00e0 di dati a causa dell&#039;esistenza di pi\u00f9 telecamere e sensori. Se questi set di dati non sono adeguatamente etichettati per essere elaborati, non possono essere utilizzati al massimo del loro potenziale. I set di dati dovrebbero essere utilizzati come parte di una suite di valutazione per creare modelli di addestramento per veicoli autonomi. Diversi strumenti di automazione possono aiutare a etichettare i dati perch\u00e9 etichettarli manualmente richiederebbe molto tempo.<\/p>\n<h3>Qual \u00e8 il processo di annotazione?<\/h3>\n<p>Per consentire a un veicolo autonomo di viaggiare da A a B, deve essere in grado di comprendere perfettamente l&#039;ambiente circostante. Uno scenario ideale per le funzioni di guida che desideri incorporare all&#039;interno di un veicolo potrebbe richiedere due set di sensori identici. Un set sar\u00e0 il sensore impostato nel processo di test mentre il secondo set di sensori viene utilizzato come indicatore.<\/p>\n<p>Supponiamo che un&#039;auto percorra 3000 miglia a una velocit\u00e0 media di 45 chilometri all&#039;ora in condizioni di guida variabili. Con questi numeri possiamo determinare che l&#039;auto ha impiegato 6700 ore per percorrere la distanza. Potrebbe anche avere diverse fotocamere e <a href=\"https:\/\/www.datalabelify.com\/it\/\">LIDAR<\/a> (Light Detection and Ranging) e se assumiamo che abbiano registrato a una velocit\u00e0 minima di 10 fotogrammi al minuto durante la durata di 6700 ore, potrebbero essere generati 240 milioni di fotogrammi di dati. Supponendo che ogni fotogramma possa contenere, su base tipica, quindici oggetti inclusi altri veicoli e pedoni, semafori e altri oggetti, avremo pi\u00f9 di 3,5 miliardi di elementi. Ogni oggetto deve essere etichettato.<\/p>\n<p>Semplicemente annotare non \u00e8 sufficiente. Deve essere anche preciso. In assenza di ci\u00f2 \u00e8 impossibile tracciare confronti significativi tra i diversi set di sensori per l&#039;automobile. E se ci fosse richiesto di contrassegnare manualmente ogni oggetto?<\/p>\n<p>Proviamo a capire come funziona l&#039;annotazione manuale. Il primo passo \u00e8 sfogliare le scansioni LIDAR e quindi estrarre il filmato della telecamera appropriato. Nel caso in cui tu abbia un LIDAR con una vista a 360 gradi, sarebbe una configurazione multi-cam che mostrer\u00e0 il filmato secondo quella che \u00e8 nota come prospettiva LIDAR. Dopo che le scansioni LIDAR e le riprese dalla telecamera sono state raccolte, il passaggio successivo consiste nell&#039;allineare la prospettiva LIDAR con la telecamera. Se sai quali oggetti si trovano nell&#039;area Il secondo passaggio consiste nell&#039;eseguire il rilevamento degli oggetti e posizionare i confini 3D attorno ad essi.<\/p>\n<p>Il semplice atto di posizionare riquadri di delimitazione e annotazioni generiche come pedoni, automobili o segnali di stop, ecc. non potrebbe essere sufficiente. Ci sono <a href=\"https:\/\/www.tesladigitalhq.com\/\" target=\"_blank\" rel=\"noopener\">attributi<\/a> per descrivere nel modo pi\u00f9 accurato ci\u00f2 che stai guardando. Inoltre \u00e8 essenziale conoscere il significato delle fermate, degli oggetti in movimento, degli oggetti fermi e dei veicoli di emergenza, la classificazione dell&#039;illuminazione e il tipo di spie luminose incluse nei veicoli di emergenza, ecc. Questo dovrebbe essere un elenco completo degli oggetti e dei loro attributi in cui ogni attributo deve essere considerato a sua volta. Ci\u00f2 significa che stiamo discutendo di una grande quantit\u00e0 di informazioni.<\/p>\n<p>Una volta completato questo, devi essere sicuro di avere le annotazioni giuste. Un&#039;altra persona \u00e8 tenuta a verificare che i dati che hai annotato siano corretti. Ci\u00f2 assicurer\u00e0 che non ci sia spazio per errori. Se il processo di annotazione viene eseguito manualmente, con un tempo medio di 60 secondi per oggetto, occorrerebbero 60 milioni di ore, o solo 6-849 anni di calendario, per contrassegnare tutti i 3,6 miliardi di oggetti di cui abbiamo discusso in precedenza. Pertanto, l&#039;annotazione manuale degli oggetti \u00e8 impossibile.<\/p>\n<h3>In che modo l&#039;automazione pu\u00f2 aiutare?<\/h3>\n<p>Nell&#039;esempio precedente possiamo concludere che non \u00e8 probabile che si aggiungano manualmente annotazioni ai dati. Numerosi strumenti open source possono aiutare in questo compito. \u00c8 possibile rilevare automaticamente gli oggetti indipendentemente da prospettive, bassa risoluzione o scarsa illuminazione. Questo \u00e8 possibile grazie ai modelli di deep learning. Quando si tratta di automazione, il primo passo sar\u00e0 progettare l&#039;attivit\u00e0 di annotazione. Inizia nominando l&#039;attivit\u00e0, assegnando le etichette e le caratteristiche ad essa associate. Dopo aver completato questo, sei pronto per creare il database dei dati che hai che devono essere annotati.<\/p>\n<p>Oltre a quanto sopra, ci sono numerose altre funzionalit\u00e0 che \u00e8 possibile aggiungere al lavoro. L&#039;annotazione pu\u00f2 essere eseguita con caselle, poligoni e polilinee. Diversi tipi di annotazione includono la modalit\u00e0 di interpolazione, la segmentazione della modalit\u00e0 di annotazione degli attributi e altri.<\/p>\n<p>L&#039;automazione riduce la quantit\u00e0 di tempo necessaria per annotare i dati. L&#039;automazione ridurr\u00e0 del 65% lo sforzo e l&#039;affaticamento mentale.<\/p>\n<h3>Chiusura<\/h3>\n<p>Affinch\u00e9 ci\u00f2 accada, gli strumenti di automazione discussi in precedenza in questo blog aiuteranno a ottenere annotazioni di grandi dimensioni. Inoltre, \u00e8 essenziale disporre di un team di esperti per poter facilitare l&#039;annotazione dei dati su vasta scala. eInfochips \u00e8 stato un partner di ingegneria per molte delle aziende del mondo con esperienza in tutto il ciclo di vita del prodotto, a partire dalla progettazione del prodotto attraverso la fase di ingegneria della qualit\u00e0, nonch\u00e9 in tutta la catena del valore, a partire dal dispositivo fino al digitale. Labelify \u00e8 anche un esperto di intelligenza artificiale e apprendimento automatico. Ha lavorato con una variet\u00e0 di case automobilistiche per fornire soluzioni di alta qualit\u00e0. Per ulteriori informazioni sulla nostra annotazione dei dati, sulle soluzioni automobilistiche e sull&#039;esperienza di AI\/ML, contatta i nostri esperti.<\/p>","protected":false},"excerpt":{"rendered":"<p>An Introduction To Data Annotation In Autonomous Cars The capabilities of semi-autonomous or autonomous vehicles are made possible through annotations. Annotation refers to the process of identifying the area of interest or object of interest in a video or image with boundary boxes, as well as specifying other attributes that aid the ML models recognize [&hellip;]<\/p>","protected":false},"author":3,"featured_media":14331,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"inline_featured_image":false,"footnotes":""},"categories":[1],"tags":[],"class_list":["post-3019","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-data-annotation"],"blocksy_meta":[],"featured_image_urls":{"full":["https:\/\/www.datalabelify.com\/wp-content\/uploads\/2021\/11\/Data-Annotation-In-Autonomous-Cars.jpg",2240,1260,false],"thumbnail":["https:\/\/www.datalabelify.com\/wp-content\/uploads\/2021\/11\/Data-Annotation-In-Autonomous-Cars-150x150.jpg",150,150,true],"medium":["https:\/\/www.datalabelify.com\/wp-content\/uploads\/2021\/11\/Data-Annotation-In-Autonomous-Cars-300x169.jpg",300,169,true],"medium_large":["https:\/\/www.datalabelify.com\/wp-content\/uploads\/2021\/11\/Data-Annotation-In-Autonomous-Cars-768x432.jpg",768,432,true],"large":["https:\/\/www.datalabelify.com\/wp-content\/uploads\/2021\/11\/Data-Annotation-In-Autonomous-Cars-1024x576.jpg",1024,576,true],"1536x1536":["https:\/\/www.datalabelify.com\/wp-content\/uploads\/2021\/11\/Data-Annotation-In-Autonomous-Cars-1536x864.jpg",1536,864,true],"2048x2048":["https:\/\/www.datalabelify.com\/wp-content\/uploads\/2021\/11\/Data-Annotation-In-Autonomous-Cars-2048x1152.jpg",2048,1152,true],"trp-custom-language-flag":["https:\/\/www.datalabelify.com\/wp-content\/uploads\/2021\/11\/Data-Annotation-In-Autonomous-Cars-18x10.jpg",18,10,true],"ultp_layout_landscape_large":["https:\/\/www.datalabelify.com\/wp-content\/uploads\/2021\/11\/Data-Annotation-In-Autonomous-Cars-1200x800.jpg",1200,800,true],"ultp_layout_landscape":["https:\/\/www.datalabelify.com\/wp-content\/uploads\/2021\/11\/Data-Annotation-In-Autonomous-Cars-870x570.jpg",870,570,true],"ultp_layout_portrait":["https:\/\/www.datalabelify.com\/wp-content\/uploads\/2021\/11\/Data-Annotation-In-Autonomous-Cars-600x900.jpg",600,900,true],"ultp_layout_square":["https:\/\/www.datalabelify.com\/wp-content\/uploads\/2021\/11\/Data-Annotation-In-Autonomous-Cars-600x600.jpg",600,600,true],"yarpp-thumbnail":["https:\/\/www.datalabelify.com\/wp-content\/uploads\/2021\/11\/Data-Annotation-In-Autonomous-Cars-120x120.jpg",120,120,true]},"post_excerpt_stackable":"<p>An Introduction To Data Annotation In Autonomous Cars The capabilities of semi-autonomous or autonomous vehicles are made possible through annotations. Annotation refers to the process of identifying the area of interest or object of interest in a video or image with boundary boxes, as well as specifying other attributes that aid the ML models recognize and understand the objects detected by sensors of the vehicle. Autonomous and semi-autonomous cars have technologies that play an important part in improving the experience of driving. This is by the presence of numerous cameras sensors, sensors, as well as other devices. Each of these&hellip;<\/p>\n","category_list":"<a href=\"https:\/\/www.datalabelify.com\/it\/category\/data-annotation\/\" rel=\"category tag\">Data Annotation<\/a>","author_info":{"name":"Parth P","url":"https:\/\/www.datalabelify.com\/it\/author\/soeuidhae\/"},"comments_num":"0 comments","_links":{"self":[{"href":"https:\/\/www.datalabelify.com\/it\/wp-json\/wp\/v2\/posts\/3019","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.datalabelify.com\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.datalabelify.com\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.datalabelify.com\/it\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/www.datalabelify.com\/it\/wp-json\/wp\/v2\/comments?post=3019"}],"version-history":[{"count":2,"href":"https:\/\/www.datalabelify.com\/it\/wp-json\/wp\/v2\/posts\/3019\/revisions"}],"predecessor-version":[{"id":3088,"href":"https:\/\/www.datalabelify.com\/it\/wp-json\/wp\/v2\/posts\/3019\/revisions\/3088"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.datalabelify.com\/it\/wp-json\/wp\/v2\/media\/14331"}],"wp:attachment":[{"href":"https:\/\/www.datalabelify.com\/it\/wp-json\/wp\/v2\/media?parent=3019"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.datalabelify.com\/it\/wp-json\/wp\/v2\/categories?post=3019"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.datalabelify.com\/it\/wp-json\/wp\/v2\/tags?post=3019"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}