{"id":3019,"date":"2021-11-03T17:23:16","date_gmt":"2021-11-03T11:53:16","guid":{"rendered":"https:\/\/www.datalabelify.com\/?p=3019"},"modified":"2023-11-03T11:45:46","modified_gmt":"2023-11-03T06:15:46","slug":"data-annotation-in-autonomous-cars","status":"publish","type":"post","link":"https:\/\/www.datalabelify.com\/da\/data-annotering-i-autonome-biler\/","title":{"rendered":"En introduktion til dataanm\u00e6rkning i autonome biler"},"content":{"rendered":"<h5>En introduktion til dataanm\u00e6rkning i autonome biler<\/h5>\n<p>Mulighederne for semi-autonome eller autonome k\u00f8ret\u00f8jer er muliggjort gennem annoteringer. Annotering refererer til processen med at identificere interesseomr\u00e5det eller objektet af interesse i en video eller billede med afgr\u00e6nsningsbokse, samt specificering af andre attributter, der hj\u00e6lper ML-modellerne med at genkende og forst\u00e5 de objekter, der detekteres af k\u00f8ret\u00f8jets sensorer.<\/p>\n<p>Autonome og semi-autonome biler har teknologier, der spiller en vigtig rolle i at forbedre k\u00f8reoplevelsen. Dette er ved tilstedev\u00e6relsen af adskillige kamerasensorer, sensorer samt andre enheder. Hver af disse komponenter genererer en masse information. Et eksempel kunne v\u00e6re ADAS-enheden, som er baseret p\u00e5 computersyn. Den bruger en computer til at opn\u00e5 en dyb forst\u00e5else af billeder og ved at analysere forskellige scenarier advare chauff\u00f8ren om at tr\u00e6ffe sin beslutning mere effektivt.<\/p>\n<p>&nbsp;<\/p>\n<h3>Hvordan definerer du en anm\u00e6rkning?<\/h3>\n<p>Funktionerne af semi-autonome og autonome k\u00f8ret\u00f8jer forbedres takket v\u00e6re annoteringer. Annotering refererer til m\u00e6rkningen af interesseomr\u00e5det eller objektet, der er af interesse i videoen eller billedet, ved at bruge afgr\u00e6nsningsbokse samt definere andre karakteristika for at hj\u00e6lpe ML-modellerne med at genkende og forst\u00e5 de objekter, der detekteres af sensorer inde i k\u00f8ret\u00f8jet. Analyse som ansigtsgenkendelse, bev\u00e6gelsesdetektion og mere kr\u00e6ver data af h\u00f8j kvalitet, der er korrekt kommenteret.<\/p>\n<p>Hvis der ikke er en ordentlig annotering af information, kunne autonom k\u00f8rsel ikke v\u00e6re effektiv til det punkt, hvor det n\u00e6sten er umuligt at opn\u00e5. N\u00f8jagtigheden af dataene sikrer, at den f\u00f8rerl\u00f8se oplevelse er glat.<\/p>\n<h3>Hvorfor findes anm\u00e6rkning?<\/h3>\n<p>Moderne k\u00f8ret\u00f8jer genererer store m\u00e6ngder data p\u00e5 grund af eksistensen af flere kameraer og sensorer. Hvis disse datas\u00e6t ikke er korrekt m\u00e6rket til at blive behandlet, kan de ikke bruges til deres fulde potentiale. Datas\u00e6ttene b\u00f8r bruges som en del af en vurderingspakke til at skabe tr\u00e6ningsmodeller for autonome k\u00f8ret\u00f8jer. Forskellige automatiseringsv\u00e6rkt\u00f8jer kan hj\u00e6lpe med at m\u00e6rke dataene, fordi det ville tage meget tid at m\u00e6rke dem manuelt.<\/p>\n<h3>Hvad er processen med annotering?<\/h3>\n<p>For at g\u00f8re det muligt for et autonomt k\u00f8ret\u00f8j at rejse fra A til B, skal det v\u00e6re i stand til at forst\u00e5 det omgivende milj\u00f8 perfekt. Et ideelt scenarie for k\u00f8refunktioner, du gerne vil inkorporere i et k\u00f8ret\u00f8j, kunne kr\u00e6ve to sensors\u00e6t, der er identiske. Det ene s\u00e6t vil v\u00e6re det sensors\u00e6t, der er i gang med at teste, mens det andet sensors\u00e6t bruges som en indikator.<\/p>\n<p>Lad os antage, at en bil k\u00f8rer 3000 miles med en gennemsnitlig hastighed p\u00e5 45 kilometer i timen under varierende k\u00f8rselsforhold. Med disse tal kan vi fastsl\u00e5, at bilen tog 6700 timer for at tilbagel\u00e6gge afstanden. Det kunne ogs\u00e5 have flere kamera og <a href=\"https:\/\/www.datalabelify.com\/da\/\">LIDAR<\/a> (Light Detection and Ranging) systemer og Hvis vi antager, at de optog med en minimumshastighed p\u00e5 10 billeder i minuttet i l\u00f8bet af 6700 timer, kunne der genereres 240 millioner frames data. Hvis vi antager, at hver ramme typisk kan indeholde femten genstande, inklusive andre k\u00f8ret\u00f8jer og fodg\u00e6ngere, trafiklys s\u00e5vel som andre genstande, s\u00e5 har vi mere end 3,5 milliarder genstande. Hvert objekt skal v\u00e6re m\u00e6rket.<\/p>\n<p>Det er ikke nok blot at bem\u00e6rke. Det skal ogs\u00e5 v\u00e6re pr\u00e6cist. I mangel af dette er det umuligt at drage nogen meningsfuld sammenligning mellem de forskellige sensors\u00e6t til bilen. Hvad hvis vi blev forpligtet til manuelt at markere hvert objekt?<\/p>\n<p>Lad os pr\u00f8ve at forst\u00e5, hvordan manuel annotering fungerer. Det f\u00f8rste trin er at gennemse LIDAR-scanningerne og derefter tr\u00e6kke de relevante kameraoptagelser op. I tilf\u00e6lde af at du har en LIDAR, der har en 360-graders udsigt, ville det v\u00e6re en multi-cam-ops\u00e6tning, som viser optagelserne i overensstemmelse med det, der er kendt som LIDAR-perspektivet. N\u00e5r LIDAR-scanningerne og optagelserne fra kameraet er blevet indsamlet, er n\u00e6ste trin at justere LIDAR-perspektivet med kameraet. Hvis du ved, hvilke objekter der er i omr\u00e5det. Det andet trin er at udf\u00f8re objektdetektering og placere 3D-gr\u00e6nser omkring dem.<\/p>\n<p>Den simple handling med at placere afgr\u00e6nsningskasser samt generaliserede anm\u00e6rkninger s\u00e5som fodg\u00e6ngere, biler eller stopskilte osv. kunne ikke v\u00e6re tilstr\u00e6kkelig. Der er <a href=\"https:\/\/www.tesladigitalhq.com\/\" target=\"_blank\" rel=\"noopener\">egenskaber<\/a> for mest pr\u00e6cist at beskrive, hvad du ser p\u00e5. Derudover er det v\u00e6sentligt at kende betydningen af stop, bev\u00e6gelige genstande, stillest\u00e5ende genstande og udrykningsk\u00f8ret\u00f8jer, belysningsklassificeringen samt hvilken type advarselslygter, som udrykningsk\u00f8ret\u00f8jerne omfatter osv. Dette b\u00f8r v\u00e6re en omfattende liste over genstandene og deres egenskaber hvor hver egenskab skal overvejes efter tur. Det betyder, at vi diskuterer en stor m\u00e6ngde information.<\/p>\n<p>N\u00e5r du har gennemf\u00f8rt dette, skal du v\u00e6re sikker p\u00e5, at du har de rigtige annoteringer. En anden person er forpligtet til at bekr\u00e6fte, at de data, du har kommenteret, er rigtige. Dette sikrer, at der ikke er plads til fejl. Hvis annoteringsprocessen udf\u00f8res manuelt med en gennemsnitlig tid p\u00e5 60 sekunder pr. objekt, ville vi kr\u00e6ve 60 millioner timer eller blot 6-849 kalender\u00e5r for at markere alle de 3,6 milliarder objekter, som vi har diskuteret tidligere. S\u00e5 det er umuligt at annotere objekter manuelt.<\/p>\n<h3>Hvordan kan automatisering hj\u00e6lpe?<\/h3>\n<p>I det foreg\u00e5ende eksempel kan vi konkludere, at det ikke er sandsynligt, at man manuelt tilf\u00f8jer anm\u00e6rkninger til dataene. Talrige open source-v\u00e6rkt\u00f8jer kan hj\u00e6lpe med denne opgave. Det er muligt at registrere objekter automatisk uanset perspektiver, lav opl\u00f8sning eller svag belysning. Dette er muligt takket v\u00e6re deep-learning-modellerne. N\u00e5r det kommer til automatisering, vil det f\u00f8rste skridt v\u00e6re at designe opgaven med annotering. Begynd med at navngive opgaven, giv de etiketter og egenskaber, der er knyttet til dem. N\u00e5r du har fuldf\u00f8rt dette, er du klar til at oprette den database med data, du har, som skal kommenteres.<\/p>\n<p>Ud over ovenst\u00e5ende er der adskillige andre funktioner, der er mulige at tilf\u00f8je p\u00e5 jobbet. Annotering kan udf\u00f8res med bokse, polygoner og polylinjer. Forskellige typer annotering inkluderer interpolationstilstand s\u00e5vel som segmentering af attributannoteringstilstand og andre.<\/p>\n<p>Automatisering reducerer den tid, det tager at notere data. Automatisering vil reducere indsatsen og den mentale tr\u00e6thed med 65 procent.<\/p>\n<h3>Lukker op<\/h3>\n<p>For at f\u00e5 dette til at ske, vil de automatiseringsv\u00e6rkt\u00f8jer, der blev diskuteret tidligere i denne blog, hj\u00e6lpe med at opn\u00e5 annotering i en stor st\u00f8rrelse. Derudover er det essentielt at have et ekspertteam for at kunne facilitere dataannotering i massiv skala. eInfochips har v\u00e6ret en ingeni\u00f8rpartner for mange af verdens virksomheder med ekspertise p\u00e5 tv\u00e6rs af produktlivscyklussen, der starter fra produktdesign til kvalitetsingeni\u00f8rfasen s\u00e5vel som p\u00e5 tv\u00e6rs af v\u00e6rdik\u00e6den fra enhed op til digital. Labelify er ogs\u00e5 ekspert i kunstig intelligens samt maskinl\u00e6ring. Det har arbejdet med en r\u00e6kke forskellige bilvirksomheder for at levere l\u00f8sninger af h\u00f8j kvalitet. For mere information om vores dataannotering, bill\u00f8sninger og AI\/ML-ekspertise Kontakt vores eksperter.<\/p>","protected":false},"excerpt":{"rendered":"<p>An Introduction To Data Annotation In Autonomous Cars The capabilities of semi-autonomous or autonomous vehicles are made possible through annotations. Annotation refers to the process of identifying the area of interest or object of interest in a video or image with boundary boxes, as well as specifying other attributes that aid the ML models recognize [&hellip;]<\/p>","protected":false},"author":3,"featured_media":14331,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"inline_featured_image":false,"footnotes":""},"categories":[1],"tags":[],"class_list":["post-3019","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-data-annotation"],"blocksy_meta":[],"featured_image_urls":{"full":["https:\/\/www.datalabelify.com\/wp-content\/uploads\/2021\/11\/Data-Annotation-In-Autonomous-Cars.jpg",2240,1260,false],"thumbnail":["https:\/\/www.datalabelify.com\/wp-content\/uploads\/2021\/11\/Data-Annotation-In-Autonomous-Cars-150x150.jpg",150,150,true],"medium":["https:\/\/www.datalabelify.com\/wp-content\/uploads\/2021\/11\/Data-Annotation-In-Autonomous-Cars-300x169.jpg",300,169,true],"medium_large":["https:\/\/www.datalabelify.com\/wp-content\/uploads\/2021\/11\/Data-Annotation-In-Autonomous-Cars-768x432.jpg",768,432,true],"large":["https:\/\/www.datalabelify.com\/wp-content\/uploads\/2021\/11\/Data-Annotation-In-Autonomous-Cars-1024x576.jpg",1024,576,true],"1536x1536":["https:\/\/www.datalabelify.com\/wp-content\/uploads\/2021\/11\/Data-Annotation-In-Autonomous-Cars-1536x864.jpg",1536,864,true],"2048x2048":["https:\/\/www.datalabelify.com\/wp-content\/uploads\/2021\/11\/Data-Annotation-In-Autonomous-Cars-2048x1152.jpg",2048,1152,true],"trp-custom-language-flag":["https:\/\/www.datalabelify.com\/wp-content\/uploads\/2021\/11\/Data-Annotation-In-Autonomous-Cars-18x10.jpg",18,10,true],"ultp_layout_landscape_large":["https:\/\/www.datalabelify.com\/wp-content\/uploads\/2021\/11\/Data-Annotation-In-Autonomous-Cars-1200x800.jpg",1200,800,true],"ultp_layout_landscape":["https:\/\/www.datalabelify.com\/wp-content\/uploads\/2021\/11\/Data-Annotation-In-Autonomous-Cars-870x570.jpg",870,570,true],"ultp_layout_portrait":["https:\/\/www.datalabelify.com\/wp-content\/uploads\/2021\/11\/Data-Annotation-In-Autonomous-Cars-600x900.jpg",600,900,true],"ultp_layout_square":["https:\/\/www.datalabelify.com\/wp-content\/uploads\/2021\/11\/Data-Annotation-In-Autonomous-Cars-600x600.jpg",600,600,true],"yarpp-thumbnail":["https:\/\/www.datalabelify.com\/wp-content\/uploads\/2021\/11\/Data-Annotation-In-Autonomous-Cars-120x120.jpg",120,120,true]},"post_excerpt_stackable":"<p>An Introduction To Data Annotation In Autonomous Cars The capabilities of semi-autonomous or autonomous vehicles are made possible through annotations. Annotation refers to the process of identifying the area of interest or object of interest in a video or image with boundary boxes, as well as specifying other attributes that aid the ML models recognize and understand the objects detected by sensors of the vehicle. Autonomous and semi-autonomous cars have technologies that play an important part in improving the experience of driving. This is by the presence of numerous cameras sensors, sensors, as well as other devices. Each of these&hellip;<\/p>\n","category_list":"<a href=\"https:\/\/www.datalabelify.com\/da\/category\/data-annotation\/\" rel=\"category tag\">Data Annotation<\/a>","author_info":{"name":"Parth P","url":"https:\/\/www.datalabelify.com\/da\/author\/soeuidhae\/"},"comments_num":"0 comments","_links":{"self":[{"href":"https:\/\/www.datalabelify.com\/da\/wp-json\/wp\/v2\/posts\/3019","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.datalabelify.com\/da\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.datalabelify.com\/da\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.datalabelify.com\/da\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/www.datalabelify.com\/da\/wp-json\/wp\/v2\/comments?post=3019"}],"version-history":[{"count":2,"href":"https:\/\/www.datalabelify.com\/da\/wp-json\/wp\/v2\/posts\/3019\/revisions"}],"predecessor-version":[{"id":3088,"href":"https:\/\/www.datalabelify.com\/da\/wp-json\/wp\/v2\/posts\/3019\/revisions\/3088"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.datalabelify.com\/da\/wp-json\/wp\/v2\/media\/14331"}],"wp:attachment":[{"href":"https:\/\/www.datalabelify.com\/da\/wp-json\/wp\/v2\/media?parent=3019"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.datalabelify.com\/da\/wp-json\/wp\/v2\/categories?post=3019"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.datalabelify.com\/da\/wp-json\/wp\/v2\/tags?post=3019"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}