src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
En stor mängd mikrobiella sekvensdata genereras genom storskaliga projekt inom ekologi, jordbruk och människors hälsa. Effektiva höggenomströmningsmetoder behövs för att analysera massamängderna av metagenomiska data, allt DNA som finns i ett miljöprov. Ett stort hinder inom metagonik är oförmågan att få exakthet med hjälp av teknik som ger korta avläsningar. Vi konstruerar de unika N-mer frekvensprofiler av 635 mikrobiella genom offentligt tillgängliga i februari 2008. Dessa profiler används för att träna en naiv Bayes klassificerare (NBC) som kan användas för att identifiera genomet av något fragment. Vi visar att vår metod är jämförbar med BLAST för små 25 bp fragment men inte har tvetydigheten i BLASTs bundna topppoäng. Vi visar att detta tillvägagångssätt är skalbart för att identifiera eventuella fragment från hundratals genom. Det presterar också ganska bra på stammar, arter och släkten nivåer och uppnår stamupplösning trots att klassificera allmänt förekommande genomiska fragment (gen och icke-gena regioner). Korsvalideringsanalysen visar att artnoggrannheten uppnår 90 % för högrepresenterade arter som innehåller i genomsnitt 8 stammar. Vi visar att ett sådant verktyg kan användas på Sargasso Sea dataset, och vår analys visar att NBC kan förbättras ytterligare.
Rosen m.fl. utbildad en Naive Bayes klassificerare med offentligt tillgängliga mikrobiella genomer REF.
2,261,087
Metagenome Fragment Classification Using N-Mer Frequency Profiles
{'venue': 'Advances in Bioinformatics', 'journal': 'Advances in Bioinformatics', 'mag_field_of_study': ['Biology', 'Medicine', 'Computer Science']}
5,603
Abstract-Online sociala nätverk som Facebook och Twitter har börjat tillåta användare att tagga sina inlägg med geografiska koordinater samlas genom GPS-gränssnittet för användare smartphones. Även om denna information är ganska användbar och redan indikerar användarbeteende, det saknar också vissa semantik om vilken typ av plats användaren är (t.ex., restaurang, museum, skola) som skulle möjliggöra en bättre förståelse för användarnas mönster. Medan vissa platsbaserade sociala nätverkstjänster (t.ex. Foursquare) tillåter användare att tagga de platser de besöker, är detta inte en automatiserad process utan en som kräver användarens hjälp. I detta dokument utnyttjar vi dynamiken i mänsklig verksamhet för att koppla samman kategorier med GPS-koordinater för sociala nätverksposter. Vi har samlat geo-taggade tweets av en stor stad genom Twitter. En övervakad inlärningsram tar tweets rumsliga-temporala funktioner och bestämmer människans dynamik som vi använder för att härleda platskategorin. Våra resultat över data visar att prediktionsramverket kan exakt identifiera om en plats är av en viss kategori med tanke på dess användaraktivitetsmönster. Den genomsnittliga noggrannheten är cirka 70 % och den högsta noggrannheten för arbete (90 %) och utbildningsplatser (80 %). Dessutom identifierar ramen kategorin en plats, med en noggrannhet upp till 66%, att ta reda på var människor äter och dricker, går för underhållning, eller arbete / studier.
I REF togs problemet med märkning av platser i en stad på grundval av insamlade spatio-temporala data upp, inklusive i) för att dra slutsatsen om en plats tillhör en viss kategori eller inte och ii) för att välja kategori av en plats bland en uppsättning kategorier.
1,287,057
What is this place? Inferring place categories through user patterns identification in geo-tagged tweets
{'venue': '6th International Conference on Mobile Computing, Applications and Services', 'journal': '6th International Conference on Mobile Computing, Applications and Services', 'mag_field_of_study': ['Computer Science']}
5,604
Ett av de centrala problemen med maskininlärning och mönsterigenkänning är att utveckla lämpliga representationer för komplexa data. Vi anser att problemet med att bygga en representation för data ligger på ett lågdimensionellt grenrör inbäddat i ett högdimensionellt utrymme. Med utgångspunkt i överensstämmelsen mellan grafen Laplacian, Laplace Beltrami operatör på grenröret, och kopplingarna till värmeekvationen, föreslår vi en geometriskt motiverad algoritm för att representera de högdimensionella data. Algoritmen ger en beräkningseffektiv metod för att minska den ickelinjära dimensionaliteten som har lokala egenskaper och en naturlig koppling till klusterbildning. Vissa potentiella tillämpningar och belysande exempel diskuteras.
I REF föreslog författarna en geometriskt motiverad algoritm för icke-linjär dimensionsreduktion med lokala egenskaper.
14,879,317
Laplacian Eigenmaps for Dimensionality Reduction and Data Representation
{'venue': 'Neural Computation', 'journal': 'Neural Computation', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
5,605
ABSTRACT De kommande femte generationens (5G) nät kan ge ultratillförlitliga ultralågt latent fordon till allt för fordonsspecifika ad hoc-nät (VANET) för att främja trafiksäkerhet, trafikledning, informationsspridning och automatisk körning för förare och passagerare. 5G-VANET drar dock också till sig enorma säkerhets- och sekretessproblem. Även om flera pseudonyma autentiseringssystem har föreslagits för VANET, kan de dyra kostnaderna för deras ursprungliga autentisering orsaka allvarliga överbelastningsattacker (DoS), som dessutom gör det möjligt att göra stor skada på det verkliga utrymmet via VANET. Motiverade av detta, ett pussel-baserade co-autentication (PCA) system föreslås här. I PCA-systemet är Hash-pusslet noggrant utformat för att mildra DoS-attacker mot pseudonym autentiseringsprocess, som underlättas genom samarbetsverifiering. Det föreslagna systemets effektivitet och ändamålsenlighet godkänns genom prestandaanalys baserad på teori och experimentella resultat.
Puzzle-based co-autentication (PCA) REF-system minskar DOS-attacker i VANETs genom en samarbetsbaserad verifieringsprocess.
19,213,213
Mitigating DoS Attacks Against Pseudonymous Authentication Through Puzzle-Based Co-Authentication in 5G-VANET
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
5,606
Abstract-Aktuell GPS-baserade enheter har svårt att lokalisera i fall där GPS-signalen inte är tillgänglig eller inte är tillräckligt exakt. Detta dokument presenterar en algoritm för lokalisering av ett fordon på ett godtyckligt vägnät med hjälp av vision, väg krökningsberäkningar, eller en kombination av båda. Metoden använder en förlängning av topometrisk lokalisering, som är en hybrid mellan topologisk och metrisk lokalisering. Utvidgningen möjliggör lokalisering på ett vägnät snarare än bara en enda, icke-grenad rutt. Algoritmen, som inte är beroende av GPS, kan lokaliseras på ett tillförlitligt sätt i situationer där GPS-baserade enheter inte fungerar, inklusive "urban canyons" i centrala områden och längs tvetydiga vägar med parallella vägar. Vi demonstrerar algoritmen experimentellt på flera vägnät i stads-, förorts- och motorvägsscenarier. Vi utvärderar också vägkrökningsbeskrivningen och visar att den är effektiv när bilder är glest tillgängliga.
Xu et al:s arbete. REF kompletterar vårt arbete med datorseende för att lokalisera en bil på ett vägnät genom att skapa en vägkrökningsdeskriptor.
1,096,550
Topometric localization on a road network
{'venue': '2014 IEEE/RSJ International Conference on Intelligent Robots and Systems', 'journal': '2014 IEEE/RSJ International Conference on Intelligent Robots and Systems', 'mag_field_of_study': ['Computer Science']}
5,607
Hudcancer är ett stort folkhälsoproblem, liksom den vanligaste cancertypen och står för mer än hälften av cancerdiagnoserna över hela världen. Tidig upptäckt påverkar sjukdomens resultat och motiverar vårt arbete. Vi får state of the art results for the ISBI 2016 Melanom Classification Challenge (kallas Skin Lesion Analysis towards Melanom Detection) inför egenheter i att hantera en så liten, obalanserad, biologisk databas. För det, vi utforskar kommittéer av Convolutional Neural Networks utbildade över ISBI utmaning utbildning dataset artificiellt förstärkt av både klassiska bildbehandling transformer och bild warping vägleds av specialist kunskap om lesion axel och förbättra den slutliga klassificeringen invariance till vanliga melanom variationer.
Inom medicinområdet har dataförstärkning nyligen tillämpats i REF i relation till ISBI 2017 Melanom Classification Challenge (kallad Skin Lesion Analysis towards Melanom Detection) och lyckats övervinna den biologiska databasens lilla dimension och fördomsfulla karaktär.
15,545,473
Increasing Deep Learning Melanoma Classification by Classical And Expert Knowledge Based Image Transforms
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
5,608
I detta dokument behandlas problemet med att välja ikoniska bilder för att sammanfatta allmänna visuella kategorier. Vi definierar ikoniska bilder som högkvalitativa representanter för en stor grupp bilder konsekvent både i utseende och semantik. För att hitta sådana grupper utför vi gemensam klustring i utrymmet för globala bilddeskriptorer och latenta ämnesvektorer av taggar som hör ihop med bilderna. För att välja ut de representativa ikoniska bilderna för de gemensamma klusteren använder vi en kvalitetsrankning från en stor samling märkta bilder. För visualiseringen grupperas ikoniska bilder av semantiska "tema" och multidimensionella skalningar används för att beräkna en 2D-layout som speglar sambanden mellan temana. Resultat på fyra storskaliga datauppsättningar visar vår förmåga att upptäcka rimliga teman och återkommande visuella motiv för utmanande abstrakta begrepp som "kärlek" och "beauty".
Raguram och Lazebnik REF utför gemensam klustring i ett utrymme byggt från visuella och taggdeskriptorer för att hitta ikoniska sammanfattningar av abstrakta begrepp.
1,482,424
Computing iconic summaries of general visual concepts
{'venue': '2008 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops', 'journal': '2008 IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops', 'mag_field_of_study': ['Computer Science']}
5,609
I detta dokument presenterar vi ett nytt tillvägagångssätt för att identifiera argumentativa diskursstrukturer i övertygande essäer. Argumentationens struktur består av flera komponenter (dvs. fordringar och lokaler) som är kopplade till argumenterande relationer. Vi betraktar denna uppgift i två på varandra följande steg. För det första identifierar vi argumentens beståndsdelar med hjälp av klassificering i flera klasser. För det andra klassificerar vi ett par argumentkomponenter som antingen stöd eller icke-stöd för att identifiera strukturen av argumenterande diskurs. För båda uppgifterna utvärderar vi flera klassificeringar och föreslår nya funktionsuppsättningar inklusive strukturella, lexiska, syntaktiska och kontextuella funktioner. I våra experiment får vi en makro F1-poäng på 0,726 för att identifiera argumentkomponenter och 0,722 för argumentativa relationer.
REF identifierade påståenden och andra argumentkomponenter i studentuppsatser.
71,907
Identifying Argumentative Discourse Structures in Persuasive Essays
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
5,610
Drönare flyger alltmer i känsligt luftrum där deras närvaro kan orsaka skada, till exempel nära flygplatser, skogsbränder, stora trånga evenemang, säkra byggnader och till och med fängelser. Detta problem kommer sannolikt att öka med tanke på den snabba spridningen av drönare för handel, övervakning, rekreation och andra tillämpningar. Ett kostnadseffektivt detektionssystem behövs för att varna för förekomsten av drönare i sådana fall. I detta dokument undersöker vi genomförbarheten av billig RF-baserad upptäckt av förekomsten av drönare. Vi undersöker om drönarens fysiska egenskaper, såsom kroppsvibrationer och kroppsbyten, kan detekteras i den trådlösa signal som överförs av drönare under kommunikationen. Vi överväger om de mottagna drönarsignalerna unikt skiljer sig från andra mobila trådlösa fenomen såsom bilar utrustade med WiFi eller människor som bär en mobiltelefon. Känsligheten av detektion på avstånd av hundratals meter samt noggrannheten av det övergripande detektionssystemet utvärderas med hjälp av programdefinierad radio (SDR) implementation.
I ett annat verk REF föreslår författarna en ny RF-baserad detektionsmetod baserad på drönarens fysiska egenskaper, såsom kroppsvibration och kroppsväxling, som påverkar den trådlösa signal som överförs av drönaren under kommunikationen.
650,040
Matthan: Drone Presence Detection by Identifying Physical Signatures in the Drone's RF Communication
{'venue': "MobiSys '17", 'journal': None, 'mag_field_of_study': ['Computer Science']}
5,612
Vi analyserar det sociala nätverk som uppstår från användarens kommentar aktivitet på webbplatsen Slashdot. Nätverket uppvisar gemensamma drag i traditionella sociala nätverk såsom en gigantisk komponent, liten genomsnittlig väglängd och hög klusterbildning, men skiljer sig från dem som uppvisar måttlig ömsesidighet och neutral variation i grad. Med hjälp av Kolmogorov-Smirnovs statistiska tester visar vi att examensfördelningen förklaras bättre av log-normala istället för power-law-distributioner. Vi studerar också strukturen av diskussionstrådar med hjälp av en intuitiv radial trädrepresentation. Trådar visar stark heterogenitet och självlikhet under de olika häckningsnivåerna i ett samtal. Vi använder dessa resultat för att föreslå en enkel åtgärd för att utvärdera graden av kontroverser som framkallas av en post.
Gomez och Al. REF analyserar flera sociala nätverksegenskaper hos kommunikationsaktiviteten på webbplatsen Slashdot.
13,199,915
Statistical analysis of the social network and discussion threads in slashdot
{'venue': 'In Proceeding of the 17th international conference on WWW', 'journal': None, 'mag_field_of_study': ['Computer Science']}
5,613
Abstract-I detta papper, studerar vi den framträdande objektdetektion problem för bilder. Vi formulerar detta problem som en binär märkning uppgift där vi separerar det framträdande objektet från bakgrunden. Vi föreslår en uppsättning nya funktioner, inklusive multiscale kontrast, centersurround histogram, och färg spatial distribution, för att beskriva ett framträdande objekt lokalt, regionalt och globalt. Ett villkorligt slumpmässigt fält lär sig att effektivt kombinera dessa funktioner för framträdande objektdetektion. Vidare utvidgar vi det föreslagna tillvägagångssättet för att upptäcka ett framträdande objekt från sekventiella bilder genom att införa dynamiska framträdande egenskaper. Vi samlade in en stor bilddatabas med tiotusentals noggrant märkta bilder av flera användare och en videosegmentdatabas, och genomförde en uppsättning experiment över dem för att visa effektiviteten i det föreslagna tillvägagångssättet.
I REF integreras tre nya funktioner med ett villkorat slumpmässigt fält.
14,833,979
Learning to Detect a Salient Object
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
5,614
Abstrakt. För visualisering av diffusion tensor avbilda data, olika metoder har presenterats såsom skalära mätvärden, glyfer eller effektiviserar. Därmed effektivisera tekniker som vanligen kallas fiberspårning ger en omfattande och intuitiv representation. Därför tillämpas de helst för preoperativ planering. Visualiseringen av effektiviserar löses genom rendering linjer eller rör för att uppnå ännu mer betydande resultat. Men antalet effektiviserar för en spårning av hela hjärnan eller mycket täta system kan vara enorm, vilket gör en mesh-baserad tub visualisering ineffektiv. För att övervinna detta problem utvecklade vi en alternativ visualiseringsteknik för rör genom att använda texturerade triangelremsor.
En alternativ teknik för visualisering av DTI fiber traktater använder triangelband REF möjliggör interaktiv rendering.
11,579,857
Streamline Visualization of Diffusion Tensor Data Based on Triangle Strips
{'venue': 'Bildverarbeitung für die Medizin', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
5,615
Abstract-PHP webbprogram genererar rutinmässigt ogiltig HTML. Moderna webbläsare tyst korrigera HTML-fel, men ibland missbildade sidor gör inkonsekvent, orsaka webbläsare kraschar, eller exponera säkerhetssårbarheter. Att rätta fel i genererade sidor är oftast enkelt, men att reparera det genererande PHP-programmet kan vara mycket svårare. Vi observerar att missbildad HTML ofta produceras av felaktiga konstanta utskrifter, d.v.s. uttalanden som skriver ut ordalistiska strängar, och presentera två verktyg för att automatiskt reparera sådana HTML-genereringsfel. PHPQuickFix reparerar enkla fel genom att statiskt analysera enskilda utskrifter. PHPRepair hanterar mer allmänna reparationer med ett dynamiskt tillvägagångssätt. Baserat på en testsvit, egenskapen att alla tester bör producera sin förväntade utdata kodas som en sträng begränsning över variabler som representerar konstant utskrifter. Lösa denna begränsning beskriver hur konstanta utskrifter måste ändras för att göra alla tester passera. Båda verktygen implementerades som en Eclipse plugin och utvärderades på PHP-program som innehåller hundratals HTML-genereringsfel, varav de flesta våra verktyg kunde reparera automatiskt.
PHPRepair REF fokuserar på HTML-genereringsfel i PHP-program.
6,503,277
Automated repair of HTML generation errors in PHP applications using string constraint solving
{'venue': '2012 34th International Conference on Software Engineering (ICSE)', 'journal': '2012 34th International Conference on Software Engineering (ICSE)', 'mag_field_of_study': ['Computer Science']}
5,616
I detta dokument föreslås en ny texturdeskriptor baserad på den lokala områdesintensitetsskillnaden för innehållsbaserad bildsökning (CBIR). För beräkning av textur funktioner som lokala binära mönster (LBP), den centrala pixel i en 3×3 fönster av en bild jämförs med alla återstående grannar, en pixel i taget för att generera en binär bit mönster. Den ignorerar effekten av de angränsande grannarna av en viss pixel för sin binära kodning och även för textur beskrivning. Den föreslagna metoden bygger på konceptet att grannar till en viss pixel innehåller betydande mängd texturinformation som kan övervägas för effektiv textur representation för CBIR. Med detta i åtanke, utvecklar vi en ny textur deskriptor, namngiven som lokal granne Intensity Mönster (LNIP) som beaktar den relativa intensiteten skillnaden mellan en viss pixel och centrum pixel genom att överväga sina angränsande grannar och generera ett tecken och en magnitud mönster. Eftersom tecken- och magnitudmönster innehåller kompletterande information till varandra, är dessa två mönster sammanfogade till en enda funktionsdeskriptor för att generera en mer konkret och användbar funktionsdeskriptor. Den föreslagna deskriptorn har testats för bildsökning på fyra databaser, inklusive tre databaser med texturbilder -Brodatz texturbilddatabas, MIT VisTex databas och Salzburg texturdatabas och en ansiktsdatabas -AT&T ansikte databas. De precisions- och recallvärden som observeras i dessa databaser jämförs med vissa toppmoderna lokala mönster. Den föreslagna metoden visade en betydande förbättring jämfört med många andra befintliga metoder. 1 1 Inlämnat förtryck 2
Ett nyligen utfört arbete av Banerjee et al. I REF införs en ny funktionsbeskrivning som kallas "Local Grannskap Intensity Mönster" (LNIP).
23,616,160
Local Neighborhood Intensity Pattern: A new texture feature descriptor for image retrieval
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
5,617
Abstract-Vi undersöker kvantitativt hur maskininlärningsmodeller läcker information om de enskilda dataposter på vilka de utbildades. Vi fokuserar på den grundläggande medlemskap inference attack: med tanke på en datapost och black-box tillgång till en modell, avgöra om posten var i modellens träningsdataset. För att göra en medlemsslutsats mot en målmodell använder vi oss av maskininlärning och utbildar vår egen inferensmodell för att känna igen skillnader i målmodellens förutsägelser om de ingångar som den tränade på jämfört med de ingångar som den inte tränade på. Vi utvärderar empiriskt våra inferenstekniker på klassificeringsmodeller som utbildats av kommersiella "maskininlärning som en tjänst" leverantörer som Google och Amazon. Med hjälp av realistiska datauppsättningar och klassificeringsuppgifter, inklusive en datauppsättning för sjukhusutskrivning vars medlemskap är känsligt ur ett sekretessperspektiv, visar vi att dessa modeller kan vara sårbara för medlemsinferensattacker. Vi undersöker sedan de faktorer som påverkar detta läckage och utvärderar begränsningsstrategier.
Sochri m.fl. REF föreslår det första medlemskapet inference attack mot maskininlärning modeller.
10,488,675
Membership Inference Attacks Against Machine Learning Models
{'venue': '2017 IEEE Symposium on Security and Privacy (SP)', 'journal': '2017 IEEE Symposium on Security and Privacy (SP)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
5,618
Abstract-The Internet of Things (IoT) håller på att bli ett attraktivt systemparadigm för att förverkliga sammankopplingar genom fysiska, cyber och sociala utrymmen. Under samspelet mellan de allestädes närvarande sakerna blir säkerhetsfrågor anmärkningsvärda, och det är viktigt att etablera förbättrade lösningar för säkerhetsskydd. I detta arbete fokuserar vi på en befintlig U2IoT-arkitektur (dvs. enhet IoT och allmänt sakernas internet), för att utforma en aggregerad-säker baserad hierarkisk autentisering (APHA) för de skiktade nätverken. Konkret är 1) de aggregerade bevisen fastställda för flera mål för att uppnå bakåt- och framåt anonym dataöverföring; 2) de riktade vägdeskriptorerna, homomorfismfunktionerna och Chebysjev kaotiska kartor tillämpas gemensamt för ömsesidig autentisering; 3) olika åtkomstmyndigheter tilldelas för att uppnå hierarkisk åtkomstkontroll. Samtidigt, BAN logik formell analys utförs för att bevisa att den föreslagna APHA har inga uppenbara säkerhetsbrister, och det är potentiellt tillgänglig för U2IoT arkitektur och andra IoT-program.
Ett aggregerat-säkert baserat hierarkiskt autentiseringssystem (APHA) för sakernas Internet presenteras i REF.
18,428,956
Aggregated-Proof Based Hierarchical Authentication Scheme for the Internet of Things
{'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']}
5,619
Abstract-Crowdsourcing har visat sig vara effektivt i ett brett spektrum av applikationer, och ser en ökande användning. En storskalig crowdsourcing uppgift består ofta av tusentals eller miljontals atomära uppgifter, som var och en vanligtvis är en enkel uppgift som binärt val eller enkel röstning. För att fördela en storskalig crowdsourcing uppgift till begränsade folkmassor arbetare, är en vanlig praxis att packa en uppsättning atomiska uppgifter i en uppgift bin och skicka till en crowd arbetare i en batch. Det är utmanande att bryta ner en storskalig crowdsourcing uppgift och utföra mängder av atomära uppgifter, vilket garanterar tillförlitliga svar till en minimal total kostnad. Stora satser leder till otillförlitliga svar på atomiska uppgifter, medan små satser medför onödiga kostnader. I detta dokument undersöker vi en allmän crowdsourcing uppgift nedbrytningsproblem, som kallas Smart Large-scAle uppgift DEcomposer (SLADE) problem, som syftar till att bryta ner en storskalig crowdsourcing uppgift för att uppnå önskad tillförlitlighet till en minimal kostnad. Vi bevisar NP-hårdheten i SLADE-problemet och föreslår lösningar i både homogena och heterogena scenarier. För det homogena SLADE-problemet, där alla atomuppgifter har samma tillförlitlighetskrav, föreslår vi en girig heuristisk algoritm och ett effektivt och effektivt approximationsramverk med en optimal prioriterad köstruktur (OPQ) med ett påvisbart approximationsförhållande. När det gäller det heterogena SLADE-problemet, där de atomära uppgifterna kan ha olika tillförlitlighetskrav, utökar vi det OPQ-baserade ramverket med hjälp av en partitionsstrategi och bevisar även dess tillnärmningsgaranti. Slutligen kontrollerar vi effektiviteten och ändamålsenligheten hos de föreslagna lösningarna genom omfattande experiment på representativa crowdsourcingplattformar.
Tong m.fl. undersökt en allmän crowdsourcing uppgift nedbrytning problem, som syftar till att bryta ner en storskalig crowdsourcing uppgift för att uppnå önskad tillförlitlighet till en minimal kostnad i REF.
49,652,937
SLADE: A Smart Large-Scale Task Decomposer in Crowdsourcing
{'venue': 'IEEE Transactions on Knowledge and Data Engineering', 'journal': 'IEEE Transactions on Knowledge and Data Engineering', 'mag_field_of_study': ['Computer Science']}
5,620
En väsentlig del av en expertsökningsuppgift, t.ex. att matcha granskare med inlämnade handlingar, är förmågan att modellera en persons sakkunskap på grundval av handlingar. Vi utvärderar flera åtgärder av sambandet mellan ett dokument som ska granskas och en författare, representerat av deras tidigare dokument. Vi jämför språkmodellbaserade metoder med en ny ämnesmodell, Author-Persona-Topic (APT). I denna modell kan varje författare skriva under en eller flera "personas", som representeras som oberoende distributioner över dolda ämnen. Exempel på tidigare papper skrivna av potentiella granskare hämtas från Rexa databasen, som utdrag och disambiguates författaren nämner från dokument som samlats in från webben. Vi utvärderar modellerna med hjälp av en granskare matchande uppgift baserat på bedömningar av mänsklig relevans som avgör hur väl de föreslagna granskarnas expertis matchar en inlämning. Vi finner att APT-ämnesmodellen överträffar de andra modellerna.
Senare, Mimno et al. jämförde flera språkmodeller och föreslog Author-Persona-Topic modell REF.
10,094,229
Expertise modeling for matching papers with reviewers
{'venue': "KDD '07", 'journal': None, 'mag_field_of_study': ['Computer Science']}
5,621
Abstrakt. Utseendet av en utomhusscen beror på en mängd olika faktorer såsom visning geometri, scenstruktur och reflektion (BRDF eller BTF), belysning (sol, måne, stjärnor, gatulampor), atmosfäriskt tillstånd (klar luft, dimma, regn) och vittring (eller åldrande) av material. Med tiden förändras dessa faktorer, vilket förändrar hur en scen framträder. En stor uppsättning bilder krävs för att studera hela variabiliteten i scenutseendet. I detta papper presenterar vi en databas med högkvalitativa registrerade och kalibrerade bilder av en fast utomhus scen fångas varje timme i över 5 månader. Datasetet täcker ett brett spektrum av dagsljus- och nattbelysningsförhållanden, väderförhållanden och säsonger. Vi beskriver i detalj förfarandena för bildinhämtning och sensorkalibrering. Bilderna är taggade med en mängd olika sanningsdata som väder- och belysningsförhållanden och verkliga scendjup. Denna databas har potentiella konsekvenser för vision, grafik, bildbehandling och atmosfärsvetenskap och kan vara en testbädd för många algoritmer. Vi beskriver ett exempel på applikation - bildanalys i dåligt väder - och visar hur denna metod kan utvärderas med hjälp av bilderna i databasen. Databasen finns tillgänglig på http://www.cs.columbia.edu/CAVE/. Datainsamlingen pågår och vi planerar att skaffa bilder under ett år. Utseendet av en fast scen beror på flera faktorer - visning geometri, belysning geometri och spektrum, scen struktur och reflektion (BRDF eller BTF) och det medium (säg, atmosfär) i vilken scenen är nedsänkt. Uppskattningen av en eller flera av dessa utseendeparametrar från en eller flera bilder av scenen har varit en viktig del av forskningen inom datorseendet. Flera forskare har fokuserat på att lösa detta omvänt problem under specifika förhållanden av belysning (konstant eller smidigt varierande), scenstruktur (inga diskontinuiteter), BRDF (lambertian) och transparenta medier (ren luft). Bilder som fångas för att utvärdera deras metoder följer de specifika villkoren. Även om förståelse för vart och ett av dessa specifika fall är viktigt, modellering scen utseende i de mest allmänna inställningen är ytterst målet för ett visionssystem. För att modellera, utveckla och utvärdera ett sådant allmänt visionssystem är det viktigt att samla in en omfattande uppsättning bilder som beskriver den fullständiga variationen i en scens utseende. Flera forskargrupper har samlat bilder av en scen (t.ex. ansikten, texturer, objekt) under varierande ljusförhållanden
Separata belysningar har tillhandahållits för utomhusscener med växlande dagsljus och väderförhållanden REF.
5,864,360
All the images of an outdoor scene
{'venue': 'Proc. European Conf. Computer Vision', 'journal': None, 'mag_field_of_study': ['Computer Science']}
5,622
Semantiska ordrymder har varit mycket användbara men kan inte uttrycka betydelsen av längre fraser på ett principfast sätt. Ytterligare framsteg mot att förstå kompositionalitet i uppgifter som att upptäcka känslor kräver rikare övervakade utbildnings- och utvärderingsresurser och kraftfullare modeller för sammansättning. För att råda bot på detta inför vi en Sentiment Treebank. Den innehåller finkorniga känsloetiketter för 215.154 fraser i parseträden på 11.855 meningar och innebär nya utmaningar för känslosammansättningen. För att ta itu med dem, introducerar vi Recursive Neural Tensor Network. Vid utbildning på den nya trädbanken överträffar denna modell alla tidigare metoder på flera mätvärden. Det driver den senaste tekniken i en enda mening positiv / negativ klassificering från 80% upp till 85,4%. Noggrannheten i att förutsäga finkorniga känslor etiketter för alla fraser når 80,7%, en förbättring på 9,7% jämfört med påse med funktioner baslinjer. Slutligen är det den enda modell som exakt kan fånga effekterna av negation och dess omfattning på olika trädnivåer för både positiva och negativa fraser.
I Stanford Sentiment Treebank REF tilldelades en polaritetsetikett manuellt varje beståndsdel i meningens frasstrukturtolkning och de införde ett Recursive Neural Tensor Network-baserat förfarande för att fånga sammansättningseffekterna av meningarna.
990,233
Recursive Deep Models for Semantic Compositionality Over a Sentiment Treebank
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
5,623
Händelseextrahering är en särskilt utmanande typ av informationsextrahering (IE). De flesta nuvarande system för extrahering av händelser bygger på lokal information på fras- eller meningsnivå. Detta lokala sammanhang kan dock vara otillräckligt för att lösa oklarheter när det gäller att identifiera vissa typer av händelser; information från ett bredare perspektiv kan bidra till att lösa vissa av dessa tvetydigheter. I det här dokumentet använder vi dokumentnivåinformation för att förbättra prestandan för ACE-extrahering av händelser. I motsats till tidigare arbete begränsar vi oss inte till information om händelser av samma typ, utan använder information om andra typer av händelser för att göra förutsägelser eller lösa tvetydigheter gällande en viss händelse. Vi lär oss sådana relationer av träningens corpus och använder dem för att förutsäga händelser och händelseargument i en text. Experiment visar att vi kan få 9,0% (absolut) vinst i utlösa (händelse) klassificering, och mer än 8% vinst för argument (roll) klassificering i ACE händelse extraktion.
REF använde konsekvent information från flera olika håll för att förbättra utdrag av händelser på straffnivå.
11,187,670
Using Document Level Cross-Event Inference to Improve Event Extraction
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
5,624
Live migration av virtuella maskiner (VM) ger en betydande fördel för virtuella servrar rörlighet utan att störa tjänsten. Det används i stor utsträckning för systemhantering i virtualiserade datacenter. Migrationskostnaderna kan dock variera avsevärt för olika arbetsbelastningar på grund av mångfalden av virtuella konfigurationer och arbetsbelastningsegenskaper. För att ta hänsyn till omkostnaderna för migration i migrationsbeslut, undersöker vi designmetoder för att kvantitativt förutsäga migrationens prestanda och energikostnader. Vi analyserar noggrant de nyckelparametrar som påverkar migrationskostnaderna från teori till praktik. Vi konstruerar två tillämpningsoblivious modeller för kostnadsförutsägelsen genom att använda inlärd kunskap om arbetsbelastningen på hypervisor (även kallad VMM) nivå. Detta bör vara den första typen av arbete för att uppskatta den virtuella maskinens kostnader för levande migration både i fråga om prestanda och energi i ett kvantitativt tillvägagångssätt. Vi utvärderar modellerna med hjälp av fem representativa arbetsbelastningar på en virtualiserad Xen-miljö. Experimentella resultat visar att den förfinade modellen ger en noggrannhet som är högre än 90 % jämfört med den uppmätta kostnaden. Modellstyrda beslut kan avsevärt minska migrationskostnaderna med mer än 72,9 % vid en energibesparing på 73,6 %.
Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. REF-prestanda och energimodell för förutsägelse av migrationskostnader för virtuella maskiner.
36,569,536
Performance and energy modeling for live migration of virtual machines
{'venue': 'HPDC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
5,625
Vi analyserar det beräkningsmässiga problemet med multi-objekt spårning i videosekvenser. Vi formulerar problemet med hjälp av en kostnadsfunktion som kräver att uppskatta antalet spår, samt deras födelse- och dödstillstånd. Vi visar att den globala lösningen kan erhållas med en girig algoritm som i sekventiellt ögonblickliga spår med hjälp av kortaste vägberäkningar på ett flödesnät. Girighetsalgoritmer gör det möjligt för en att bädda in förbehandlingssteg, såsom icke-max dämpning, inom spårningsalgoritmen. Dessutom ger vi en nästan optimal algoritm baserad på dynamisk programmering som löper i tid linjär i antalet objekt och linjär i sekvenslängden. Våra algoritmer är snabba, enkla och skalbara så att vi kan bearbeta täta inmatningsdata. Detta resulterar i toppmoderna resultat.
Pirsiavash REF föreslog en girig algoritmbaserad spårningsmetod för att spåra ett variabelt antal personer från en enda kamera.
5,911,113
Globally-optimal greedy algorithms for tracking a variable number of objects
{'venue': 'CVPR 2011', 'journal': 'CVPR 2011', 'mag_field_of_study': ['Computer Science']}
5,626
Abstract-Net bearbetade styrsystem under vissa cyberattacker analyseras. Kommunikationsnätet för dessa kontrollsystem gör dem sårbara för angrepp från illvilliga utomstående. Vårt arbete handlar om två typer av attacker: attacker på nätverksnoder och attacker på kommunikationen mellan noderna. Vi föreslår ett distribuerat system för att upptäcka och isolera attackerna med hjälp av observatörer. Dessutom diskuterar vi hur man kan minska antalet observatörsnoder samtidigt som hela nätverkets täckning bibehålls. Resultaten tillämpas på två klasser av nätverksstyrda styrsystem: ett nätverk som kör konsensusprotokollet och ett kraftnät som definieras av den linjäriserade svängekvationen. Tillräckliga villkor för förekomsten av det föreslagna systemet för att upptäcka angrepp finns för den första klassen av system. För den andra klassen ger vi ett nödvändigt villkor för förekomsten av det föreslagna spårningssystemet.
I REF studeras detektering och identifiering av it-angrepp på nätverksanslutna styrsystem för linjära system med kontinuerlig tid.
14,817,418
Networked control systems under cyber attacks with applications to power networks
{'venue': 'Proceedings of the 2010 American Control Conference', 'journal': 'Proceedings of the 2010 American Control Conference', 'mag_field_of_study': ['Computer Science']}
5,627
I storskaliga trådlösa nätverk som mobila ad hoc- och sensornätverk är effektiva och robusta mekanismer för att upptäcka tjänster och få tillgång till data både viktiga och utmanande. Rendezvous-baserade mekanismer är en värdefull lösning för att tillhandahålla ett brett utbud av tjänster. I den här artikeln beskriver vi Rendezvous Regions (RRs) -en ny skalbar mötesbaserad arkitektur för trådlösa nätverk. RR är en allmän arkitektur som föreslås för servicelokalisering och bootstrappning i ad hoc-nätverk, förutom datacentrisk lagring, konfiguration och uppgiftstilldelning i sensornätverk. I RR är nättopologin uppdelad i geografiska regioner, där varje region ansvarar för en uppsättning nycklar som representerar de tjänster eller uppgifter som är av intresse. Varje nyckel är kartlagd till en region baserad på en hash-table-liknande kartläggningsschema. Några utvalda noder inom varje region ansvarar för att upprätthålla den kartlagda informationen. Tjänsten eller dataleverantören lagrar informationen i motsvarande region och de sökande hämtar den därifrån. Vi kör omfattande detaljerade simuleringar, och högnivåsimuleringar och analyser, för att undersöka designutrymmet, och studera arkitekturen i olika miljöer, inklusive nodrörlighet och misslyckanden. Vi utvärderar det mot andra metoder för att identifiera dess fördelar och begränsningar. Resultaten visar hög framgång och låg overhead även med dynamik. RR-skalor till ett stort antal noder och är mycket robust och effektiv för att nodfel. Det är också robust för att node rörlighet och placering inkorrekt med en betydande fördel jämfört med punktbaserade mötesplats mekanismer.
Den metod som beskrivs i REF föreslår att nätet delas upp i geografiska regioner.
5,862,971
Rendezvous regions: a scalable architecture for service location and data-centric storage in large-scale wireless networks
{'venue': '18th International Parallel and Distributed Processing Symposium, 2004. Proceedings.', 'journal': '18th International Parallel and Distributed Processing Symposium, 2004. Proceedings.', 'mag_field_of_study': ['Computer Science']}
5,628
Vi undersöker arkitekturer av discriminativt utbildade djupa Convolutional Networks (ConvNets) för åtgärdsigenkänning i video. Utmaningen är att fånga den kompletterande informationen om utseende från stillbildsramar och rörelse mellan ramar. Vi strävar också efter att i nätverksdesignen integrera aspekter av de bäst presterande handgjorda funktionerna. Vårt bidrag är trefaldigt. För det första föreslår vi en tvåströms ConvNet-arkitektur som innehåller rumsliga och tidsmässiga nätverk. För det andra visar vi att ett ConvNet utbildat på multi-frame tät optiskt flöde kan uppnå mycket bra prestanda trots begränsade träningsdata. Slutligen visar vi att multitask-inlärning, som tillämpas på två olika åtgärdsklassificeringsdatauppsättningar, kan användas för att öka mängden utbildningsdata och förbättra prestandan på båda. Vår arkitektur är utbildad och utvärderas på standard video åtgärder riktmärken för UCF-101 och HMDB-51, där det matchar den senaste tekniken. Det överstiger också med stor marginal tidigare försök att använda djupa nät för videoklassificering.
Simonyan m.fl. REF utvidgade det konvolutionella neurala nätverket genom att föreslå en två-ströms arkitektur.
11,797,475
Two-Stream Convolutional Networks for Action Recognition in Videos
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
5,629
Sammanhang Barns exponering för våld, blod, sexuella teman, svordomar, substanser och spel i media är fortfarande en källa till oro för folkhälsan. Innehållet i videospel som spelas av äldre barn och ungdomar har dock inte kvantifierats eller jämförts med den betygsinformation som lämnats till konsumenterna av Entertainment Software Rating Board (ESRB). Mål Att kvantifiera och karakterisera innehållet i TV-spel som klassats T (för "Teen") och mäta överenskommelsen mellan det innehåll som observerats i spelet och ESRB-tilldelade innehållsdeskriptorer som visas i spelrutan. Vi skapade en databas över alla 396 T-klassade videospelstitlar som släpptes på de stora videospelskonsolerna i USA senast den 1 april 2001, för att identifiera fördelningen av spel efter genre och för att karakterisera distributionen av ESRB-signerade innehållsdeskriptorer. Vi slumpvis provade 80 videospelstitlar (som inkluderade 81 spel eftersom 1 titel inkluderade 2 separata spel), spelade varje spel i minst 1 timme, kvantitativt utvärderade innehållet, och jämförde det innehåll vi observerade med de innehållsdeskriptorer som ESRB tilldelade. Huvudsakliga resultat Åtgärder Avbildningar av våld, blod, sexuella teman, spel, och alkohol, tobak, eller andra droger; oavsett om skada eller döda karaktärer belönas eller krävs för att avancera i spelet; karakterisering av kön i samband med sexuella teman; och användning av svordomar i dialog, texter, eller gester. Resultat Analys av alla innehållsdeskriptorer som tilldelats 396 T-klassade videospelstitlar visade 373 (94 %) fick innehållsdeskriptorer för våld, 102 (26 %) för blod, 60 (15 %) för sexuella teman, 57 (14 %) för svordomar, 26 (7 %) för komiskt ofog, 6 (2 %) för ämnen och ingen för spelande. I det slumpmässiga urvalet av 81 matcher vi spelade, fann vi att 79 (98%) involverade avsiktligt våld för i genomsnitt 36% av spelet, 73 (90%) belönade eller krävde spelaren att skada tecken, 56 (69%) belönade eller krävde spelaren att döda, 34 (42%) avbildade blod, 22 (27%) avbildade sexuella teman, 22 (27%) innehöll svordomar, 12 (15%) avbildade ämnen, och 1 (1%) involverade spel. Våra observationer av 81 matcher motsvarar ESRB:s innehållsdeskriptorer för våld i 77 matcher (95 %), för blod i 22 (27 %), för sexuella teman i 16 (20 %), för svordomar i 14 (17 %) och för substanser i 1 (1 %). Spelen var betydligt mer benägna att skildra kvinnor delvis nakna eller engagerade i sexuella beteenden än män. Sammantaget identifierade vi 51 observationer av innehåll som kunde motivera en innehållsdeskriptor i 39 matcher (48 %) där ESRB inte hade tilldelat en innehållsdeskriptor. Vi fann att ESRB tilldelade 7 innehållsdeskriptorer för 7 spel (9 %) där vi inte observerade det angivna innehållet inom 1 timme efter spel. Slutsatser Innehållsanalys tyder på en betydande mängd innehåll i TV-spel som kan förvåna ungdomar och deras föräldrar med tanke på förekomsten av detta innehåll i spel utan ESRB-innehållsdeskriptorer. Läkare och föräldrar bör vara medvetna om att populära T-klassade videospel kan vara en källa till exponering för ett brett utbud av oväntat innehåll.
Haninger m.fl. REF kvantifierade och karakteriserade innehållet i TV-spel som klassats T (för "Teen") och mäta hur korrekt ESRB-tilldelade innehållsdeskriptorer som visas i spelboxen är för det verkliga spelet.
39,334,032
Content and Ratings of Teen-Rated Video Games
{'venue': 'JAMA', 'journal': 'JAMA', 'mag_field_of_study': ['Medicine']}
5,630
Robotsvärmar är distribuerade system vars medlemmar interagerar via lokala kontrolllagar för att uppnå en mängd olika beteenden, såsom flockning. I många praktiska tillämpningar, mänskliga operatörer kan behöva ändra det nuvarande beteendet hos en svärm från målet att svärmen var på väg mot ett nytt mål på grund av dynamiska förändringar i uppdragsmål. Det finns två relaterade men tydliga förmågor som behövs för att övervaka en robotsvärm. Den första är förståelsen av svärmens tillstånd och den andra är förutsägelsen om effekterna av mänskliga ingångar på svärmens beteende. Båda är mycket utmanande. Tidigare arbete i litteraturen har visat att införandet av den mänskliga inputen så snart som möjligt för att avleda svärmen från sitt ursprungliga mål mot det nya målet inte alltid resulterar i optimal prestanda (mätt enligt vissa kriterier såsom den totala tid som krävs av svärmen för att nå det andra målet). Detta fenomen har kallats Neglect Benevolence, som förmedlar tanken att det i många fall är att föredra att försumma svärmen under en tid innan man sätter in mänsklig input. I den här artikeln studerar vi hur människor kan utveckla en förståelse av svärmdynamiken så att de kan förutsäga effekterna av timingen av deras input på svärmens tillstånd och prestanda. Vi utvecklade svärmen konfiguration form förändras Neglect Benevolence Task som en Human Swarm Interaction (HSI) referensuppgift som möjliggör jämförelse mellan mänsklig och optimal inmatning timing prestanda för kontroll av svärmar. Våra resultat visar att människor kan lära sig att uppskatta optimal timing och att displayer som gör konsensusvariabler perceptuellt tillgängliga kan förbättra prestandan.
En uppföljningsstudie i REF visade att mänskliga operatörer också kunde lära sig att känna igen och anpassa sig till bristande välvilja.
16,102,930
Bounds of Neglect Benevolence in Input Timing for Human Interaction with Robotic Swarms
{'venue': "HRI '15", 'journal': None, 'mag_field_of_study': ['Computer Science']}
5,631
En Nash jämvikt av ett routing nätverk representerar ett stabilt tillstånd av nätverket där ingen användare finner det fördelaktigt att ensidigt avvika från sin routing strategi. I detta arbete undersöker vi strukturen av sådan jämvikt inom ramen för ett visst spel som modellerar självisk routing för en uppsättning n användare varje frakta sin trafik över ett nätverk som består av m parallella länkar. Framför allt är vi intresserade av att identifiera den värsta Nash-jämvikten - den som maximerar de sociala kostnaderna. I värsta fall introducerades Nash equilibria och studerades i Koutsoupiias och Papadimitrious pionjärarbete [9]. Mer specifikt fortsätter vi studien av Conjecture of the Fully Mixed Nash Equilibrium, hädanefter förkortat som FMNE Conjecture, som hävdar att den helt blandade Nash jämvikt, när den existerar, är den värsta-fall Nash jämvikt. (I den helt blandade Nash jämvikt, den blandade strategin för varje användare tilldelar (strikt) positiv sannolikhet till varje länk.) Vi rapporterar om betydande framsteg när det gäller att identifiera giltighet, metoder för att fastställa, och begränsningar av, FMNE Conjecture.
I REF Lücking m.fl. fortsätta att studera helt blandade Nash Equilibrium Conjecture och rapportera betydande framsteg mot att identifiera giltigheten.
2,195,177
Which Is the Worst-Case Nash Equilibrium?
{'venue': 'MFCS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
5,632
Mål Att identifiera utmaningar i kartläggningen av intern internationell klassificering av sjukdomar, 9:e upplagan, Klinisk ändring (ICD-9-CM) kodade äldre data till Systematic Nomenklatur of Medicine (SNOMED), med SNOMED-preskriberade kompositionsmetoder där så är lämpligt, och att undersöka karttäckningen från US National Library of Medicine (NLM) kliniska kärnan delmängd SNOMED. Design Denna studie valde ICD-CM-koder som inträffade minst 100 gånger i organisationens problemlista eller diagnosdata 2008. Efter att ha eliminerat koder vars exakta kartläggningar redan fanns i UMLS kartlades resten manuellt med programvaruhjälp. Resultat Av 2194-koderna krävde 784 (35,7%) manuell kartläggning. 435 av dessa representerade begreppstyper som dokumenterats i SNOMED som avprekerade: dessa inkluderade kvalificeringsfraser såsom "inte någon annanstans klassificerade". En tredjedel av koderna var sammansatta och krävde flera SNOMED-koder för att kartlägga. Representerar 45 sammansatta begrepp som krävs för att införa diskommunikation ('eller') eller set-difference ('utan') operatörer, som för närvarande inte definieras i SNOMED. Endast 47% av de begrepp som krävs för sammansättningen fanns i den kliniska kärnundergruppen. Sökandet av SNOMED efter de rätta begreppen krävde ofta en omfattande tillämpning av kunskaper i både engelsk och medicinsk synonym. Slutsats Strategier för att hantera äldre ICD-data måste ta itu med frågan om koder som skapats av icke-taxonomistiska användare. NLM-kärnan behöver eventuellt förstärkas med koncept från vissa SNOMED-hierarkier, särskilt kvalificerare, kroppsstrukturer, ämnen/produkter och organismer. Konceptmatchning programvara måste utnyttja frågeexpansionsstrategier, men dessa kan vara effektiva i produktionsinställningar endast om en stor men icke-redundant SNOMED delmängd som minimerar andelen omfattande förkoordinerade koncept är också tillgänglig.
REF Bland 2.194 ICD-9CM-koder krävde 7REF4 (35.7 %) manuell kartläggning och sökning av SNOMED för de rätta begreppen ofta omfattande tillämpning av kunskaper i både engelsk och medicinsk synonym.
18,254,783
Migrating existing clinical content from ICD-9 to SNOMED
{'venue': 'Journal of the American Medical Informatics Association : JAMIA', 'journal': 'Journal of the American Medical Informatics Association : JAMIA', 'mag_field_of_study': ['Computer Science', 'Medicine']}
5,633
Vi presenterar ett datorstödd designflöde för kvantkretsar, komplett med automatisk layout och kontrolllogik extraktion. För att motivera automatiserad layout för kvantkretsar undersöker vi rutnätsbaserade layouter och visar en prestandavarians på fyra gånger eftersom vi varierar rutnätsstruktur och initial qubit placering. Vi föreslår sedan två polynomtidsdesignheuristik: en girig algoritm som lämpar sig för små, trängselfria kvantkretsar och en dataflödesbaserad analysmetod för placering och routing med implicit inledande placering av qubits. Slutligen visar vi att vår dataflödesbaserade heuristiska genererar bättre layouter än den toppmoderna automatiserade rutnätsbaserade layout och schemaläggningsmekanism i termer av latens och potentiell pipelinability, men till priset av vissa områden.
Whitney och Al. I REF föreslogs ett datorstödd konstruktionsflöde för layout, schemaläggning och styrning av jonfällningsbaserade kvantkretsar.
15,295,294
Automated generation of layout and control for quantum circuits
{'venue': "CF '07", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Physics']}
5,634
Bakgrund: Dålig information integritet praxis har identifierats i hälso-appar. Medicinska appackrediteringsprogram erbjuder en mekanism för att säkerställa kvaliteten på appar; dock är lite känt om deras förmåga att kontrollera information integritetsrisker. Vi strävade efter att bedöma i vilken utsträckning redan certifierade appar följde dataskyddsprinciperna enligt det största nationella ackrediteringsprogrammet. Metoder: Tvärsektionell, systematisk, 6 månaders utvärdering av 79 appar certifierade som kliniskt säkra och pålitliga av UK NHS Health Apps Library. Protokollbaserad testning användes för att karakterisera insamling av personuppgifter, lagring av lokala enheter och informationsöverföring. Observerad information hantering praxis jämfördes mot integritetspolicy åtaganden. Resultat: Studien visade att 89 % (n = 70/79) av appar överförd information till onlinetjänster. Ingen app krypterad personlig information lagrad lokalt. Dessutom använde 66 % (23/35) av de appar som skickade identifierande information via Internet inte kryptering och 20 % (7/35) hade ingen sekretesspolicy. Totalt 67 % (53/79) av appar hade någon form av sekretesspolicy. Ingen app insamlad eller överförd information som en policy uttryckligen sagt att den inte skulle; dock 78 % (38/49) av informationsöverföring apps med en policy inte beskriva arten av personlig information som ingår i överföringar. Fyra appar skickade både identifierande och hälsoinformation utan kryptering. Även om undersökningen inte var utformad för att undersöka datahantering efter överföring till onlinetjänster, verkade säkerhetsproblemen försätta användare i riskzonen för datastöld i två fall. Slutsatser: Systematiska luckor i överensstämmelse med dataskyddsprinciper i ackrediterade hälsoappar ifrågasätter om certifieringsprogram som huvudsakligen bygger på utvecklare avslöjanden kan ge en pålitlig resurs för patienter och kliniker. Ackrediteringsprogram bör åtminstone ge konsekventa och tillförlitliga varningar om eventuella hot och helst kräva att förlagen rättar till sårbarheter innan appar släpps.
En annan studie REF utvärderade i vilken utsträckning certifierade m-hälsoappar var förenliga med de dataskyddsprinciper som det brittiska NHS Health Apps Library gav order om.
12,486,345
Unaddressed privacy risks in accredited health and wellness apps: a cross-sectional systematic assessment
{'venue': 'BMC Medicine', 'journal': 'BMC Medicine', 'mag_field_of_study': ['Medicine']}
5,635
I detta dokument utvecklar vi en ram baserad på diskontiv programmering för rörelseplanering av robotnätverk. Även om den metod som presenteras i detta dokument kan tillämpas på allmänna rörelseplaneringsproblem fokuserar vi på att samordna ett team av mobila routrar för att upprätthålla anslutning mellan en fast basstation och en mobil användare i en muromgärdad miljö. Detta konnektivitetshanteringsproblem bryts ned i tre steg: i) en genomförbar linje-av-sikt-väg mellan basstationen och den mobila användaren beräknas, ii) antalet nödvändiga routrar och deras målplatser bestäms, och iii) rörelseplanering med hinder- och kollisionsundvikande mellan fordon är löst. För att illustrera flexibiliteten i det föreslagna tillvägagångssättet formulerar vi också en ny rörelseplaneringsalgoritm för ett team av mobila robotar som ett diskontivt program. Cellnedbrytning används för att ta hänsyn till robotarnas storlek och orientering. I båda fallen, konnektivitet och rörelseplanering, de blandade-integer optimeringsproblemen löses med hjälp av CPLEX. Dessutom kan det föreslagna tillvägagångssättet lätt ta hänsyn till synpunkter och andra begränsningar och uppdragsmål. Simuleringsresultat visar att den föreslagna strategin är tillämplig.
I REF används en kedja av mobila routrar för att hålla siktlinjen mellan en basstation och en användare som rör sig i en konkav miljö.
1,042,770
A DISJUNCTIVE PROGRAMMING APPROACH FOR MOTION PLANNING OF MOBILE ROUTER NETWORKS
{'venue': 'Int. J. Robotics Autom.', 'journal': 'Int. J. Robotics Autom.', 'mag_field_of_study': ['Computer Science']}
5,636
Sammanfattning av denna webbsida: Bluetooth Low Energy (BLE) har fått betydande fart. Den ursprungliga designen av BLE fokuserade dock på stjärntopologinätverk, vilket begränsar nätverkstäckningsområdet och utesluter end-to-end-banamångfald. Andra konkurrerande tekniker övervinner däremot sådana begränsningar genom att stödja nättopologin. Av dessa skäl har den akademiska världen, industrin och standardiseringsorganisationerna designat lösningar för att möjliggöra BLE mesh-nätverk. Trots detta saknar litteraturen en konsoliderad syn på detta framväxande område. I detta dokument görs omfattande undersökningar av toppmoderna BLE mesh-nätverk. Vi tillhandahåller först en taxonomi av BLE mesh nätverkslösningar. Vi går sedan igenom lösningarna och beskriver de olika tillvägagångssätt som utnyttjar befintlig BLE-funktionalitet för att möjliggöra BLE mesh-nätverk. Vi identifierar viktiga aspekter av BLE mesh nätverkslösningar och diskuterar deras fördelar och nackdelar. Slutligen lyfter vi fram de frågor som för närvarande är öppna.
Slutligen, Darroudi och Gomez Ref-undersökning state-of-the-art BLE mesh nätverkslösningar och diskutera deras fördelar och nackdelar.
3,450,189
Bluetooth Low Energy Mesh Networks: A Survey
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']}
5,637
Abstrakt. Nya metoder till exempel-medveten semantisk märkning har förstärkt konvolutionella neurala nätverk (CNN) med komplexa multitask arkitekturer eller beräknings dyrt grafiska modeller. Vi presenterar en metod som utnyttjar ett helt konvolutionellt nätverk (FCN) för att förutsäga semantiska etiketter, djup och en instansbaserad kodning med hjälp av varje pixel riktning mot dess motsvarande instans centrum. Därefter använder vi datorseende tekniker på låg nivå för att generera toppmoderna instanssegmentering på gatuscenen datauppsättningar KITTI och Cityscapes. Vår strategi överträffar befintliga verk med stor marginal och kan dessutom förutsäga absoluta avstånd från enskilda instanser från en monokulär bild samt en pixel-nivå semantisk märkning.
Uhrig och Al. REF presenterade en metod som utnyttjar ett FCN-nätverk för att förutsäga semantiska etiketter, djup, och en instansbaserad kodning med hjälp av varje pixel riktning mot dess motsvarande instans centrum och därmed tillämpa låg nivå datorseende tekniker.
5,571,650
Pixel-level Encoding and Depth Layering for Instance-level Semantic Labeling
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
5,638
Preference framkallande är ett utmanande grundläggande problem när man utformar recommender system. I det nuvarande arbetet föreslår vi en innehållsbaserad teknik för att automatiskt generera en semantisk representation av användarens musikaliska preferenser direkt från ljud. Med utgångspunkt från en explicit uppsättning musikspår som användaren tillhandahåller som bevis på hans/hennes preferenser kan vi sluta oss till semantiska deskriptorer på hög nivå för varje spår som får en användarmodell. För att bevisa fördelarna med vårt förslag presenterar vi två tillämpningar av vår teknik. I den första överväger vi tre tillvägagångssätt till musikrekommendation, två av dem baserade på ett semantiskt musikliknande mått, och ett baserat på en semantisk probabilistisk modell. I den andra applikationen tar vi upp visualiseringen av användarens musikaliska preferenser genom att skapa en humanoid tecknad karaktär - Musical Avatar - automatiskt härledd från den semantiska representationen. Vi genomförde en preliminär utvärdering av den föreslagna tekniken i samband med dessa ansökningar med 12 ämnen. Resultaten är lovande: rekommendationerna utvärderades positivt och nära dem som kommer från toppmoderna metadatabaserade system, och försökspersonerna bedömde de genererade visualiseringarna för att fånga deras kärnpreferenser. Slutligen lyfter vi fram fördelarna med den föreslagna semantiska användarmodellen för att förbättra användargränssnitten för informationsfiltreringssystem.
I REF genererar den innehållsbaserade tekniken automatiskt en hög semantisk representation av användarens musikaliska preferenser direkt från ljud för att rekommendera musik.
1,936,504
Semantic audio content-based music recommendation and visualization based on user preference examples
{'venue': 'Inf. Process. Manag.', 'journal': 'Inf. Process. Manag.', 'mag_field_of_study': ['Computer Science']}
5,639
Referensåtgärder är specialiserade utlösare som används för att automatiskt upprätthålla referensintegritet. Även om deras lokala beteende lätt kan förstås, är det långt ifrån klart vad den kombinerade effekten av en uppsättning referentiella handlingar, d.v.s., deras globala semantik bör vara. Till exempel kan olika exekutionsorder leda till tvetydigheter när det gäller att fastställa den slutliga uppsättningen uppdateringar som ska tillämpas. För att lösa dessa problem föreslår vi en abstrakt logisk ram för regelbaserat upprätthållande av referensintegritet: För det första identifierar vi önskvärda abstrakta egenskaper som tillåtlighet av uppdateringar som leder till en icke-konstruktiv global semantik av referensåtgärder. Vi får en konstruktiv definition genom att formalisera en uppsättning referensåtgärder RA som logiska regler, och visa att de förklarande semantikerna i det resulterande logiska programmet PRA fångar den avsedda abstrakta semantiken: Den välgrundade modellen av PRA ger en unik uppsättning uppdateringar, vilket är en säker, skeptisk approximation av uppsättningen av alla maximalt tillåtna uppdateringar; den thud sanning-värdet odefinierad tilldelas alla kontroversiaI uppdateringar. Slutligen visar vi hur man får en karakterisering av alla maximalt tillåtna delmängder av en given uppsättning uppdateringar med hjälp av vissa maximal stabila modeller.
Semantik av referensintegritet åtgärder fångas med hjälp av stabila modeller av logiska program med negation i REF.
9,169,967
Referential actions as logical rules
{'venue': "PODS '97", 'journal': None, 'mag_field_of_study': ['Computer Science']}
5,640
De flesta befintliga forskning anser homogena sensornätverk, som lider av prestanda flaskhals och dålig skalbarhet. I detta dokument antar vi en heterogen sensornätverksmodell för att lösa dessa problem. Sensing täckning är ett grundläggande problem i sensornätverk och har studerats väl under de senaste åren. De flesta täckningsalgoritmer tar dock bara hänsyn till det enhetliga täckningsproblemet, det vill säga alla områden har samma täckningsgradskrav. I många scenarier behöver vissa nyckelområden hög täckningsgrad, medan andra områden bara behöver låg täckningsgrad. Vi föreslår en differentierad täckningsalgoritm som kan ge olika täckningsgrader för olika områden. Algoritmen är energieffektiv eftersom den bara håller minsta antal sensorer för att fungera. Den differentierade täckningsalgoritmens prestanda utvärderas genom omfattande simuleringsförsök. Våra resultat visar att algoritmen presterar mycket bättre än någon annan differentierad täckningsalgoritm.
Olika känslighetstäckningsgrad har granskats och simulerats för olika nätverksplatser REF.
3,243,776
Maintaining Differentiated Coverage in Heterogeneous Sensor Networks
{'venue': None, 'journal': 'EURASIP Journal on Wireless Communications and Networking', 'mag_field_of_study': ['Computer Science']}
5,641
Detta papper studerar webbobjekt klassificering problem med den nya prospektering av sociala taggar. Att automatiskt klassificera webbobjekt i hanterbara semantiska kategorier har länge varit en grundläggande förprocess för att indexera, bläddra, söka och bryta dessa objekt. Den explosiva tillväxten av heterogena webbobjekt, särskilt icke-textuella objekt som produkter, bilder och videor, har gjort problemet med webbklassificering allt svårare. Sådana föremål lider ofta av brist på lättåtkomliga funktioner med semantisk information, sammankopplingar mellan varandra samt utbildningsexempel med kategorietiketter. I detta dokument undersöker vi de sociala märkningsuppgifterna för att överbrygga denna klyfta. Vi kastar webbobjekt klassificering problem som ett optimeringsproblem på en graf av objekt och taggar. Vi föreslår sedan en effektiv algoritm som inte bara använder sociala taggar som berikade semantiska funktioner för objekten, utan också drar slutsatser om kategorierna av omärkta objekt från både homogena och heterogena märkta objekt, genom den implicita anslutningen av sociala taggar. Experimentella resultat visar att utforskningen av sociala taggar effektivt ökar klassificeringen av webbobjekt. Vår algoritm överträffar avsevärt toppmoderna allmänna klassificeringsmetoder.
Yin m.fl. REF har undersökt sociala taggar för klassificering av webbobjekt och validerat att prospektering av sociala taggar effektivt ökar klassificeringen av webbobjekt.
11,345,579
Exploring social tagging graph for web object classification
{'venue': 'KDD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
5,642
Att fånga de osäkra aspekterna inom cybersäkerhet är viktigt för säkerhetsanalyser i företagsnätverk. Det har dock inte gjorts tillräckliga ansträngningar för att studera vilka modelleringsmetoder som på ett korrekt sätt fångar upp sådan osäkerhet och hur man konstruerar modellerna för att göra dem användbara i praktiken. I detta dokument presenterar vi vårt arbete med att motivera osäkerhetsmodellering för it-säkerhet, och en första rapport visar att det är ett användbart tillvägagångssätt. Vårt arbete är centrerat runt nära realtid säkerhetsanalys såsom intrång svar. Vi måste få veta vad som verkligen händer, omfattningen och svårighetsgraden, möjliga konsekvenser och eventuella motåtgärder. Vi rapporterar våra nuvarande insatser för att identifiera de viktiga typerna av osäkerhet och för att använda Bayesian nätverk för att fånga dem för förbättrad säkerhetsanalys. Vi bygger ett exempel Bayesian nätverk baserat på en aktuell säkerhetsgraf modell, motivera vår mod eling strategi genom attack semantik och experimentell studie, och visa att den resulterande Bayesian nätverk är inte känslig för parameter perturbation.
Xie och Al. REF föreslog att Bayesian Network skulle användas för att motivera de viktiga typerna av osäkerhet i säkerhetsanalysen i realtid.
16,120,682
Using Bayesian networks for cyber security analysis
{'venue': '2010 IEEE/IFIP International Conference on Dependable Systems & Networks (DSN)', 'journal': '2010 IEEE/IFIP International Conference on Dependable Systems & Networks (DSN)', 'mag_field_of_study': ['Computer Science']}
5,643
Abstract-Under de senaste åren, robotik gemenskapen har gjort betydande framsteg i detektion och 3D utgör uppskattning av kända och okända objekt. Frågan om hur man ska identifiera föremål baserade på språkbeskrivningar har dock inte undersökts i detalj. Medan datorseende gemenskapen nyligen började undersöka användningen av attribut för objektigenkänning, dessa metoder inte beaktar de aktivitetsinställningar som vanligtvis observeras i robotik, där en kombination av utseende attribut och objektnamn kan användas i referensspråk för att identifiera specifika objekt i en scen. I detta dokument introducerar vi ett tillvägagångssätt för att identifiera objekt baserade på naturligt språk som innehåller utseende och namnattribut. För att lära sig rika RGB-D funktioner som behövs för attribut klassificering, utökar vi nyligen infört sparse kodning tekniker för att automatiskt lära attribut-beroende funktioner. Vi introducerar en stor datauppsättning attributbeskrivningar av objekt i RGB-D-objektdatasetet. Experiment på denna datauppsättning visar den starka prestandan hos vår strategi för språkbaserad objektidentifiering. Vi visar också att våra attributberoende funktioner ger betydligt bättre generalisering till tidigare osynliga attributvärden, vilket möjliggör snabbare inlärning av nya attributvärden.
I det arbete som presenterades av REF använde författarna objektattribut (t.ex. färg, form) inlärda från RGB-D-data för att identifiera objekt baserat på frågor om naturligt språk som innehöll utseende och namnattribut.
8,413,785
Attribute based object identification
{'venue': '2013 IEEE International Conference on Robotics and Automation', 'journal': '2013 IEEE International Conference on Robotics and Automation', 'mag_field_of_study': ['Computer Science']}
5,644
Fog computing tillhandahåller en distribuerad infrastruktur i utkanten av nätet, vilket resulterar i låg latent access och snabbare svar på ansökningar. Omputeringskraven för mobila användare fortsätter att öka, eftersom dator- och kommunikationskapaciteten hos smarta och bärbara enheter och system i fordon fortsätter att förbättras. Många applikationer förlitar sig på fjärrresurser för att avlasta och slutföra uppgifter, främst genom användning av en storskalig datoranläggning som finns i ett datacenter. Sådana molnsystem kan också stödja applikationer genom att lagra data M A R C H /A P R I L 2 0 1 7 I E E E C LO U D CO M P U T I N G 2 7 och bearbeta uppgifter som avlastas av mobila eller fasta enheter. Med ökande fokus på Internet-of-Things (IoT), otaliga enheter utspridda och anslutna till Internet, producerar och konsumerar data kräver skalbar resurshantering på aldrig tidigare skådade nivåer. 1 Datadynamiken och heterogeniteten till följd av denna förväntade explosionsexpansion av anslutna enheter, vanligen kallade Big Data, kräver också nya bearbetningsmodeller och infrastrukturer för att stödja dess huvudsakliga dimensioner: datavolym, hastighet och variation. En viktig aspekt av denna nya era är att både dataförbrukning och produktion är kraftigt fördelade och i nätets kanter (dvs. Närmre eller vid slutanvändarenheter). Medan den centraliserade datacentermodellen för molndata kan hantera många typer av applikationer och stora mängder data, är dess infrastruktur och nätverksanslutning till kanten inte utformade för att hantera detta Big Data fenomen. I detta sammanhang är dator- och datahanteringsmodeller som stöder datorkapacitet i nätets utkanter nu föremål för betydande forskning. Mobila moln, fordonsnätverk och dimdata är exempel på nya distribuerade datormodeller som utnyttjar kantkapaciteten närmare dataproduktionen. Med data som också produceras i utkanten kan både datagenerering och konsumtion förekomma på många olika platser och tider. I detta sammanhang kan olika tillämpningar ha olika krav, särskilt när det gäller svarstid. För närvarande är applikationer ofta beroende av molnet för att ha data och bearbetningsstöd, vilket kanske inte är lämpligt för lägre latenskrav. Dessutom, utförande av applikationer i molndatacenter tar inte hänsyn till användarens rörlighet, och data eller behandling av en ansökan kan ske på en geografiskt avlägsen datacenter. Å andra sidan, i ett distribuerat datorscenario vid nätets kanter, kan datadistribution och behandling upprätthållas närmare användaren, minska nätverkstrafiken till datacenter och förbättra applikationens svarstider till följd av lägre nätlatens eller fördröjning. Detta dokument diskuterar problemet med resursfördelning med tanke på den hierarkiska infrastrukturen som består av kantkapacitet och molndatacenter, analysera programklasser tillsammans med olika schemaläggningspolicyer. För att ta itu med denna utmaning inför vi ett antal schemaläggningsmetoder som tar hänsyn till användarens rörlighet och kantdatorkapacitet, inom ramen för en Fog Computing-infrastruktur. 1 Vi diskuterar fördelarna med att kombinera applikationsklasser med schemaläggningspolicyer i scenarier som illustrerar dessa schemaläggningsmetoder, särskilt i samband med användarrörlighet. I nästa avsnitt presenteras den dimdatamodell som behandlas i detta dokument och därefter diskuteras därmed tillhörande arbete. Därefter introducerar vi ansökningsmodellen och två exempeltillämpningar, som används i utvärderingen vidare i dokumentet. Därefter presenterar vi olika fördelningspolicyer och simuleringsresultat. Sedan diskuterar vi resursfördelningsutmaningar för dimdata. Användarprogram som får tillgång till det publika molnet gör det genom en åtkomstpunkt som gör det möjligt för datautbyte via stamnätet att nå molndatacentret. Med införandet av datorkapacitet i utkanten av nätet kan dessa åtkomstpunkter utvidgas till att även tillhandahålla data- och lagringstjänster: molnen. Figur 1 illustrerar molnmolnskonceptet inom dimmans hierarkiska infrastruktur. Denna dimdataarkitektur presenterar en hierarkisk, dubbelriktad datorinfrastruktur: kantenheter kommunicerar med moln och molnmoln kommunicerar med moln. Cloudlets kan också kommunicera med varandra för att utföra data- och processhantering för att stödja tillämpningskrav, och för att utbyta dimstyrning/hanteringsdata (såsom användarenhet och applikationstillstånd). I dimma databehandling, bearbetning och lagring kapacitet är ett hopp bort från produktionen/konsumtionen av data, som kan gynna olika typer av applikationer • Applikationer med låga latens krav, såsom fotgängare och trafiksäkerhet, övervakning, applikationer för syn, hörsel, eller rörelsehindrade användare, onlinespel, förstärkt verklighet, och taktil databehandling kan dra nytta av lägre latens på grund av en enda humleanslutning till en cloudlet. • Applikationer som för närvarande förlitar sig på molnet kan också dra nytta av lägre förseningar och svarstider när man antar en dimbaserad distribution om deras data och behandling utförs av en närliggande cloudlet. Detta kan också minska datatrafiken till molnet. • Råa data som samlas in av många enheter ofta inte behöver överföras till molnet för långsiktig lagring: data kan behandlas, filtreras, eller aggregeras för att extrahera kunskap och producera reducerade datamängder, som i sin tur ska lagras, eller det kan behandlas och användas direkt till andra kantenheter i den så kallade sensor / aktuator loopen. I båda fallen kan dimdataparadigmet minska nätverkstrafiken från kanten till datacenter. Cloudlets kan ge minskad latens och hjälpa till att undvika/minska trafikstockningar i nätets kärna. Detta kommer dock till ett pris: det behövs mer komplexa och sofistikerade resursförvaltnings- och planeringsmekanismer. Detta medför nya utmaningar att övervinna, t.ex. att dynamiskt bestämma vad, när och var (enhet/fog/moln) ska utföra behandlingen av förfrågningar för att uppfylla deras kvalitet på tjänsterna. Med smarta och bärbara anordningar måste sådana mekanismer dessutom införliva datakällornas rörlighet och sänkor i dimman. Traditionell resursförvaltning och schemaläggningsmodeller för distribuerade system tar inte hänsyn till rörlighet och aktualitet för dataproduktion och -konsumtion i resurshanterings- och tilldelningsprocessen. Schemaläggning av fogdata måste föra användarna till resursfördelningspolicyerna för att upprätthålla fördelarna med dimdatorns närhet till användaren. Resurshantering och schemaläggning inom dimdata är ett nytt ämne som kombinerar aspekter från sensornätverk, cloud computing, mobil databehandling och genomträngande datafält. I dimma beräkning, sensorer och andra enheter genomträngande närvarande vid kanten av dimman generera data och konsumera data som måste behandlas med molnen och molnen. Vart och ett av dessa fält har en uppsjö av litteratur, väldokumenterad av forskare. 3, 4, 5 Fog computing har diskuterats som en plattform för att ge stöd för Internet of Things (IoT) och analys. Bonomi m.fl. diskutera många aspekter av en diminfrastruktur, inklusive samspelet mellan dimma och molnsystem. Författarna hävdar att dimma databehandling kan bättre adressera applikationer och tjänster som inte passar bra i molnet, såsom låg-latens eller geo-distribuerade program. I detta dokument främjar vi denna diskussion genom att införa strategier som kan antas i närvaro av olika tillämpningsklasser. En programmeringsmodell har föreslagits för att stödja dimdatatillämpningar, som omfattar händelsehanterare och ett programprogrammeringsgränssnitt (API). 6 Programmeringsmodeller kompletterar det presenterade arbetet, eftersom de förlitar sig på programplaneringsstrategier för att avgöra var de funktioner som skapas av användarna ska fördelas. GigaSight är en virtuell maskinbaserad molnbaserade infrastruktur som används för att stödja videolagringsanalys vid kanten. 7 En motivering till förslaget är att undvika överväldigande storstadsnätverk med en stor mängd videoströmmar som skickas till molnleverantörer. GigaSight program kan dela molnen med andra typer av program, där en korrekt resursfördelning kan förbättra prestanda. Jennings och Stadler 3 diskuterar resurshanteringsmål och utmaningar inom cloud computing. Många aspekter täcks av dem, bland annat resurshanteringsfunktioner och resursallokering i nätverk, som också är relevanta för dimdata. Kantanordningar i dimman medför särskilda egenskaper som måste beaktas, bland vilka tillämpningskrav och rörlighet diskuteras i resten av detta dokument. Multi-moln är plattformar som aggregerar dataresurser från olika molnleverantörer. Medan multi-moln kan hjälpa till att minska latenser till slutanvändarna, de kan inte ge riktigt låga latenser som de som förespråkas av dimma dator med sin 1-hop bort cloudlet infrastruktur. Den hierarkiska kombinationen av dimma och moln (stå ensamma eller federerade) ger därför fortfarande fördelar när det gäller latens och nätverkstrafik. Europeiska institutet för telekommunikationsstandarder (ETSI) har lanserat initiativet Mobile-Edge Computing (MEC) för att skapa standarder för mobila datorplattformar, efter att ha föreslagit en plan 9 och även dokument med tekniska krav, terminologi och tjänstescenarier. En första specifikation förväntas levereras i slutet av 2016. När det gäller resursfördelning och schemaläggning är det viktigt att avlasta beslut i mobila enheter. 5 Kosta m.fl. presentera ThinkAir, ett ramverk för att avlasta mobila applikationer till molnet. 10 ThinkAir kan parallellisera utförandet med hjälp av virtuella maskiner, uppnå förkortade utförandetider och energiförbrukning i den mobila enheten. I ett dimdatascenario bör de avlastade modulerna fördelas enligt tillämpningskraven, vilket vi diskuterar vidare i detta dokument. Dimarkitekturen är hierarkisk, där beslut om bearbetnings- och lagringsplats omfattas av tillämpningsbegränsningar och användarens geolokalisering. Medan den förra kan specificeras på olika sätt, som i form av kvalitet på tjänsten (QoS) begränsningar, den senare beror på mänskliga (eller andra autonoma system) beteende. I slutändan bestämmer användarens beteende tid och position för en datorenhet, som tillsammans med QoS-begränsningar kan användas för att skapa programklasser som är relevanta för resurshantering och schemaläggning i en dimdatormiljö. Genom att erkänna olika programklasser kunde man använda olika schemaläggningsprinciper, algoritmer eller mekanismer för att hantera varje klass. För att illustrera hur resurshantering i dimma dator kan gynna applikationer genom att överväga geolokalisering och olika programklasser, identifierar vi två typer av appar: nära realtid och delay-tolerant. För det förra beskriver vi det elektroencefalografiska (EEG) traktorstrålspelet; för det senare ett program för videoövervakning/objektspårning. I EEG traktorstrålspelet (EEGTBG) försöker spelarna samla föremål genom att koncentrera sig på dem. En spelare som har en bättre koncentration på ett objekt kan locka det mot sig själv. Snabb bearbetning och låga svarstider som uppnås av edge computing-enheter kan ge spelarna en sann online-upplevelse i realtid. EEGTBG-applikationen har 5 moduler EEG-sensor, display, klient, koncentrationsräknare och koordinator. EEG-headsetet känner av användarens koncentration och strömmar rådata till klientmodulen. Kundmodulen filtrerar/ vidarebefordrar konsekventa data till koncentrationsräknaren, som beräknar användarens koncentrationsnivå. Koncentrationsnivån skickas till klientmodulen, som uppdaterar speldisplayen till spelaren. Koordinatormodulen samlar och distribuerar uppmätt koncentration mellan spelare. EEG-sensorn, displayen och klientmodulerna placeras i den mobila enheten (t.ex. smartphone). Koncentrationskalkylatorn och koordinatormodulerna kan placeras i molnen eller i ett molndatacenter. Programmet för videoövervakning/objektspårning (VSOT) bygger på en uppsättning distribuerade intelligenta kameror som kan spåra rörelser med 6 moduler (se figur 2): kamera, rörelsedetektor, objektdetektor, objektspårare, användargränssnitt och panor, lutning och zoomstyrning (PTZ). Kameran strömmar video till rörelsedetektormodulen, som filtrerar inkommande ström och vidarebefordrar video där rörelse detekterades till objektdetektormodulen. Objektdetektormodulen identifierar de rörliga objekten, skickar objektidentifikation och positionsinformation till objektspåraren, som i sin tur beräknar den önskvärda PTZ och skickar kommandot till styrmodulen PTZ. Vi anser att rörelsedetektorn och styrmodulerna för PTZ alltid placeras i kameran, medan användargränssnittet alltid finns i molnet. Objektdetektorn och objektspåraren är de två moduler som ska placeras genom beslutspolicyer i ett moln eller i ett molndatacenter. Båda applikationerna -EEGTBG och VSOT - kan installeras i en diminfrastruktur för att dra nytta av lägre latens på grund av användning av cloudlets. VSOT kan arbeta tillfredsställande under datacentral- distans latenser (> 100 millisekunder). Å andra sidan kan större förseningar i EEGTBG påverka spelarnas uppfattning i realtid, vilket gör spelet overkligt och försämrar dess spelbarhet. Vi anser att VSOT 30 och EEGTBG tillhör två olika typer av tillämpningar (fördröjningskänsliga och fördröjningstoleranta) som kan dra nytta av en dimdatainfrastruktur. Med den snabba användningen av mobila (smarta) enheter måste infrastrukturen för dimdata kunna tillgodose varierande krav i molnen, samtidigt som den förlitar sig på elasticitet i molndatasystem för att avlasta bearbetning och/eller lagring vid behov. Detta scenario illustreras i figur 3, där tre moln är anslutna till en gateway som ger tillgång till ett moln-baserat datacenter. För illustrationsändamål, låt oss anta att Cloudlet 2 ligger i en stadskärna och det stöder ett antal smarta kameror som kör VSOT-programmet. Låt oss också anta att de två andra molnen ligger längs en stig mellan förorterna och stadens centrum. Under rusningstid (till exempel) brukar användare gå mot centrum, och därmed Cloudlet 2 kommer att få mer belastning från inkommande användare. I vårt scenario kännetecknas denna belastning av EEGTBG-spelare med sina smarta telefoner. Om många EEGTBG-spelare flyttar till den region där Cloudlet 2 ligger kan det bli överbelastat (processor, lagring och/eller nätverk). I idealfallet bör Cloudlet 2 ha tillräcklig kapacitet för att hantera lasten från alla sina användare, inklusive de ytterligare EEGTBG-användare som rör sig mot sin region. Men under många timmar på dagen detta moln skulle underutnyttjas av VSOT-applikationen ensam, vilket skulle innebära lågt resursutnyttjande och onödig energiförbrukning, förutom potentiella drifts- och underhållskostnader. För att undvika sådant avfall i resursanvändning kan Cloudlet 2 planeras för att stödja efterfrågan på applikationer i den lägre delay-klassen, och samtidigt köra andra program när det är möjligt. Därför bör resurshanteringsstrategier för att fördela resurser mellan molntjänster och molntjänster kunna hantera varierande efterfrågan samtidigt som hänsyn tas till tillämpningars egenskaper och användares rörlighet. Olika tillämpningskrav tillsammans med dimmans mobila karaktär kräver en förbättrad policy som kan optimera resursutnyttjandet och erbjuda servicekvalitet i enlighet därmed. Vi illustrerar hur tre olika schemaläggningsstrategier kan påverka applikationers servicekvalitet i en dimmetisk Concurrent, First Come-First Servering (FCFS) och Delayy-priority-strategier. Jämförelsen är avsedd att visa hur prioriteringen av applikationer med låga fördröjningar (fördröjningsprioritet) skulle förbättra tillämpningen jämfört med vanliga resursdelningstekniker (konkurrent och FCFS). Dessa algoritmer bör köras i en cloudlet när en ny ansökan begäran anländer, besluta om var denna begäran ska köras: i cloudlet eller i molnet. Detta beslut kan baseras på både nuvarande cloudlet-belastning (t.ex. Processorn) och kraven på begäran (t.ex. fördröjning), som beskrivs nedan • Konkurrent strategi: ansökningar som anländer till en cloudlet helt enkelt tilldelas en sådan cloudlet, oavsett kapacitet eller nuvarande användning. • Första Come-First Serverad (FCFS) strategi: förfrågningar serveras i ordningen för deras ankomst, tills det inte finns några fler datorresurser tillgängliga. För enkelhetens skull, vi bara överväga CPU kapacitet, men flera kriterier beslutsfattande ofta beaktas i schemaläggning litteratur. När cloudlet blir full (dvs., återstående CPU-kapacitet är mindre än tillämpningskrav), program börjar schemaläggas för utförande vid molndatacentret. • Försening-prioritering: program som kräver lägre fördröjning är schemalagda först; nästa klass av ansökningar är planerad i molnet tills det inte finns någon CPU-kapacitet tillgänglig, och de återstående program är schemalagda i molnet. Strategierna implementerar en kombinationsmekanism för modulen som beskrivs i algoritmen Edge-ward, 11 där moduler i samma applikation grupperas för att placeras på samma enhet. I denna sammanfogningsmekanism flyttas även alla moduler av samma slag till samma enhet när en modul flyttas till en annan enhet. För att utvärdera de olika strategierna i ett dimdatascenario utförde vi simuleringar med iFogSim. IFogSim valdes eftersom det körs på toppen av den väletablerade CloudSim simulator, som har använts och testats i stor utsträckning, och det är en simulator som tillåter hierarkisk sammansättning av kantenheter, moln och moln, också stödja mätning av programförseningar. Utvärderingen syftar till att analysera ansökningarnas prestanda i form av förseningar samt att bedöma hur fördelningspolicyn påverkar nätverkstrafiken. Vi har satt upp scenariot som beskrivs i figur 3 med fyra VSOT-tillämpningar som körs i Cloudlet 2 och tolv EEGTBG-programanvändare i cloudlets 1 och 3. Inledningsvis spelar sex EEGTBG-användare spelet på platser nära Cloudlet 1 och andra sex spelare är närmare Cloudlet 3. Vi flyttar EEGTBG spelare en efter en till Cloudlet 2, efterliknar en mobilitet beteende, för att bedöma eventuell kvalitet på servicedegradering till följd av dålig resursallokering. Eftersom EEGTBG har låga latenskrav anser vi att en spelare i en cloudlet endast spelar mot spelare i samma cloudlet. Resultat visade fokus på analysen av Cloudlet 2, som tar emot program från rörliga användare. Varje cloudlet hade en bearbetningskapacitet på 4000 MIPS (miljoner instruktioner per sekund) och var ansluten till porten genom en länk med 10.000 Kbps bandbredd och fyra millisekunder latens. Länken mellan porten och molnet hade 10.000 Kbps bandbredd och 100 millisekunder latens. Mobila enheter och kameraenheter kopplades till molnen genom en länk med 10.000 Kbps bandbredd och två millisekunders latens. Schemaläggning beslutsfattandet sker innan programmet körs, vilket innebär att den faktiska CPU-kapacitet som används av varje programmodul inte är exakt känd vid schemaläggningstidpunkten. Vid schemaläggningstid, strategier måste kontrollera om en cloudlet har tillräckligt med fri CPU-kapacitet för att hantera varje programmodul. I scenariot vi övervägde, varje modul behövde, under genomförandet, högst den CPU kapacitet som visas i tabell 1. Under utförandet använder varje program vid en given tidpunkt CPU-kapacitet som beror på interaktionen mellan dess moduler (dvs. hur mycket data det tar emot från/skickar till andra moduler, vilket utlöser CPU-intensiva åtgärder). Dessa uppskattningar kommer från ansökan beskrivning, som modellerar ansökan som en riktad graf, eller arbetsflöde, med dess attribut, som allmänt finns i schemaläggning litteratur. 11,12 Exakt uppskattning är dock en utmanande fråga och det är ett fokus för forskning i sig. För vissa tillämpningar är indataegenskaper (t.ex. video- eller bildkvalitet) och historiska data bra indikatorer för att uppskatta framtida prestanda, medan andra program uppvisar oförutsägbart beteende och uppskattar sin framtida prestanda inte ger mycket exakta resultat. Varje program har en processloop bland sina moduler som måste utföras för att visa resultaten. Fördröjningen i slingan är den tid det tar för en applikationsslinga att köra. I VSOT-applikationen börjar denna loop med kamerasensorerna som producerar videoströmmen, går igenom rörelsedetektorn, objektdetektorn, objektspårningen och slutligen PTZ-kontrollen, och mäter hur lång tid det tar för ett objekt att upptäckas, spåras och kameran justeras för att få bättre bilder av detta objekt. I EEGTBG-applikationen består slingan av EEG-sensoröverföringen till mobiltelefonen, kundval av konsekventa avläsningar, koncentrationsräknaren, klienten igen och displayen. Detta mäter den tid som tagits mellan den avkännda koncentrationsnivån och visningen av aktuell spelstatus för användaren. Figur 4 visar fördröjningen av programslingorna VSOT och EEG-BTG för de tre olika schemaläggningsstrategierna beroende på antalet användare som har flyttat från cloudlets 1 och 3 till Cloudlet 2. När bara en EEGBTG-spelare har flyttat till Cloudlet 2, har alla tre strategierna samma resultat för båda programmen. När den andra spelaren flyttade till Cloudlet 2, börjar olika schemaläggningsstrategier påverka programmen på olika sätt. VSOT-slingan fördröjs med konkurrent- och Delayprioritetsstrategierna, samtidigt som en låg fördröjning bibehålls med FCFS-strategin. Detta innebär att schemaläggning med hjälp av den Konkurrenta strategin medför resurs I E E C LO U D CO M P U T I N W W. CO M P U T E R. O R G /C LO U D CO M P U T I N G innehåll till Cloudlet 2, med VSOT-applikationen upplever en mycket hög fördröjning i sin kontroll slinga, vilket resulterar i kvalitet på tjänsten nedbrytning och därav följande program missuppfos, vilket undviks av FCFS genom att flytta EEGTBG moduler till molnet. Å andra sidan flyttar Delay-priority VSOT-moduler till molnet som ett resultat av den högre prioritet EEGTBG-applikationen ankomst, vilket ökar VSOT-slingan fördröjning till en acceptabel nivå på cirka 200 millisekunder samtidigt som EEGTBG förseningar så lägre som möjligt.
Dessutom undersöker Bittencourt REF schemaläggningsalgoritmer för dimdata med tanke på programmets prestanda som utförs av användarens rörlighet.
206,449,409
Mobility-Aware Application Scheduling in Fog Computing
{'venue': 'IEEE Cloud Computing', 'journal': 'IEEE Cloud Computing', 'mag_field_of_study': ['Computer Science']}
5,645
Feature diagram är ett populärt sätt att dokumentera variabilitet i programvara produktlinje teknik. När vi undersökte funktionsdiagram i litteraturen och från industrin, observerade vi att samma modellering begrepp används för att dokumentera två olika typer av variabilitet: (1) produktlinjevariabilitet, som återspeglar beslut av produkthantering om hur de system som hör till produktlinjen bör variera, och (2) programvara variabilitet, som återspeglar förmågan hos återanvändbara produktlinje artefakter att anpassas eller konfigureras. För att reda ut variabilitetsdokumentationen följer vi tidigare förslag om att relatera ortogonala variabilitetsmodeller (OVM) till funktionsdiagram. Detta papper återanvänder en befintlig formalisering av funktionsscheman, men introducerar en formalisering av OMMs. Sedan formaliseras också relationerna mellan de två typerna av modeller. Förutom en exakt definition av språken och länkarna, är den viktiga fördelen med denna formalisering att den fungerar som en grund för ett verktyg som stöder automatiserat resonemang om variabilitet. Detta verktyg kan t.ex. analysera om produktseriens artefakter är tillräckligt flexibla för att bygga alla system som ska tillhöra produktserien. Många industrisektorer står inför utmaningen att tillfredsställa den ökande efterfrågan på individanpassade programvarusystem och programvaruintensiva system. Programvaran produktlinje (PL) engineering paradigm (SPLE, se [24]) har visat sig ge organisationer för att utveckla en mångfald av liknande system till lägre kostnad, på kortare tid, och med högre kvalitet jämfört med utvecklingen av enskilda system [24]. Nyckeln till SPLE är att utnyttja de gemensamma egenskaperna hos de system som tillhör PL och att hantera variationen (dvs. skillnaderna) mellan dessa system. Gemensamma egenskaper är egenskaper och kvaliteter som delas av alla system i PL [14], t.ex. alla mobiltelefoner låter användare ringa samtal. I SPLE kan två typer av variabilitet urskiljas: Programvarans variabilitet och PL-variabilitet. Variabilitet i programvara avser "möjligheten hos ett programvarusystem eller artefakt att effektivt utökas, ändras, anpassas eller konfigureras för användning i ett visst sammanhang" [31]. Denna typ av variabilitet är väl känt från utvecklingen av enskilda system. Som exempel, en abstrakt Java super-klass tillåter olika specialiseringar att användas där superklassen används; ett gränssnitt tillåter olika implementationer att väljas. PL variabilitet [14, 24, 21 ] är specifik för SPLE och beskriver variationen mellan de system som tillhör ett PL när det gäller egenskaper och kvaliteter, såsom funktioner som tillhandahålls eller krav som uppfylls. Det är viktigt att förstå att definiera PL variabilitet, dvs. bestämma vad som bör variera mellan systemen i ett PL och vad som inte bör, är ett uttryckligt beslut om produkthantering (se [21, 24] ). Som ett exempel kan produkthanteringen ha beslutat att mobiltelefonerna i deras PL antingen skulle erbjuda GSM eller UMTS-protokollet. En utmanande uppgift i SPLE är att kartlägga PL-variabiliteten till programvariabilitet. Detta innebär att de återanvändbara artefakter från vilka PL:s system byggs (s.k. kärntillgångarna, som utgör PL-plattformen [24]) bör konstrueras tillräckligt flexibelt för att möjliggöra ett effektivt och ändamålsenligt byggande av dessa system [18, 26]. Detta problem kan ses som ett exempel på problemet med krav på formgivning i SPLE-sammanhang. Beslut att vara 15:e IEEE International Requirement Engineering Conference
REF föreslog en formalisering av Orthogonal Variability Models (OVMs) och följde också SAT-metoden för att analysera OVMs automatiskt.
11,126,681
Disambiguating the Documentation of Variability in Software Product Lines: A Separation of Concerns, Formalization and Automated Analysis
{'venue': '15th IEEE International Requirements Engineering Conference (RE 2007)', 'journal': '15th IEEE International Requirements Engineering Conference (RE 2007)', 'mag_field_of_study': ['Computer Science']}
5,646
Vi presenterar en polyvariant stängning, säkerhet, och bindningstid analys för den otypade lambda kalkyl. Innovationen är att analysera varje abstraktion på nytt vid alla syntaktiska tillämpningspunkter. Detta uppnås genom en semantik-bevarande program transformation följt av en ny monovariant analys, uttryckt med hjälp av typ begränsningar. Begränsningarna löses i kubiktid genom en enda beräkning med fasta punkter. Syftet med säkerhetsanalysen är att fastställa om en term kommer att orsaka ett fel under utvärderingen. Vi har nyligen visat att den monovarianta säkerhetsanalysen accepterar strikt fler termer än enkla typslutsatser. Detta dokument visar att polyvariant omvandlingen gör ännu fler termer acceptabla, även vissa utan högre-order polymorfa typer. Dessutom kan multivariant bindningstidsanalys förbättra de partiella utvärderare som baserar en polyvariant specialisering på endast monovariant bindningstid analys.
I REF ges en begränsningsbaserad slutanalys av den otypade lambdakalkylen.
55,593,916
Polyvariant Analysis of the Untyped Lambda Calculus
{'venue': 'DAIMI Report Series', 'journal': 'DAIMI Report Series', 'mag_field_of_study': ['Mathematics']}
5,647
Vi studerar problemet med att söka på data som krypteras med hjälp av ett offentligt nyckelsystem. Överväg användare Bob som skickar e-post till användaren Alice krypterad under Alice offentliga nyckel. En e-postgateway vill testa om e-postmeddelandet innehåller nyckelordet "brådskande" så att det kan dirigera e-postmeddelandet i enlighet med detta. Alice, å andra sidan vill inte ge porten förmågan att dekryptera alla hennes meddelanden. Vi definierar och konstruerar en mekanism som gör det möjligt för Alice att ge en nyckel till porten som gör det möjligt för porten att testa om ordet "brådskande" är ett nyckelord i e-postmeddelandet utan att lära sig något annat om e-postmeddelandet. Vi hänvisar till denna mekanism som Public Key Kryptering med nyckelord Sök. Som ett annat exempel, överväga en e-postserver som lagrar olika meddelanden offentligt krypterade för Alice av andra. Med hjälp av vår mekanism Alice kan skicka e-postservern en nyckel som gör det möjligt för servern att identifiera alla meddelanden som innehåller några specifika sökord, men lära sig inget annat. Vi definierar begreppet allmän nyckelkryptering med sökordssökning och ger flera konstruktioner.
Begreppet öppen nyckelkryptering med sökordssökning (PKE-KS) lades först fram av Boneh et al. Hoppa över det.
929,338
Public Key Encryption with Keyword Search
{'venue': 'EUROCRYPT', 'journal': None, 'mag_field_of_study': ['Computer Science']}
5,648
Probabilistiska modeller analyserar data genom att förlita sig på en uppsättning antaganden. Uppgifter som uppvisar avvikelser från dessa antaganden kan undergräva slutsatsen och förutsägelsens kvalitet. Robusta modeller ger skydd mot obalans mellan en modells antaganden och verkligheten. Vi föreslår ett sätt att systematiskt upptäcka och minska bristande överensstämmelse mellan en stor klass av probabilistiska modeller. Tanken är att öka sannolikheten för varje observation till en vikt och sedan dra slutsatsen både latenta variabler och vikter från data. Genom att dra slutsatsen att vikterna gör det möjligt för en modell att identifiera observationer som matchar dess antaganden och nedvikta andra. Detta möjliggör en robust slutledning och förbättrar prediktiv noggrannhet. Vi studerar fyra olika former av missmatchning med verkligheten, allt från saknade latenta grupper till strukturfelspecifikation. En Poisson factorization analys av Moviens 1M dataset visar fördelarna med detta tillvägagångssätt i ett praktiskt scenario.
I REF föreslogs en Bayesiansk metod som ger exempelvikter som latenta variabler.
6,335,393
Robust Probabilistic Modeling with Bayesian Data Reweighting
{'venue': 'ICML', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
5,649
Daikon är en implementation av dynamisk detektion av sannolika invarianter; det vill säga Daikon invariant detektor rapporterar sannolikt programinvarianter. En invariant är en egendom som innehar vid en viss tidpunkt eller punkter i ett program; dessa används ofta i hävda uttalanden, dokumentation och formella specifikationer. Exempel är konstant (x = a), icke-noll (x = 0), vara i ett intervall (a ≤ x ≤ b), linjära relationer (y = ax + b), beställa (x ≤ y), funktioner från ett bibliotek (x = fn(y)), inneslutning (x till y), sorteradhet (x sorteras) och många fler. Användare kan förlänga Daikon för att kontrollera ytterligare invarianter. Dynamisk invariant upptäckt kör ett program, observerar de värden som programmet beräknar, och sedan rapporterar egenskaper som var sanna över de observerade avrättningar. Dynamisk invariant detektion är en maskininlärning teknik som kan tillämpas på godtyckliga data. Daikon kan upptäcka invarianter i C, C++, Java och Perl program, och i rekordstrukturerade datakällor; det är lätt att utöka Daikon till andra program. Invarianter kan vara användbara i programförståelse och en mängd andra tillämpningar. Daikon's output har använts för att generera testfall, förutsäga inkompatibiliteter i komponentintegration, automatisera teorem-proving, reparera inkonsekventa datastrukturer, och kontrollera giltigheten av dataströmmar, bland andra uppgifter. Daikon är fritt tillgänglig i källa och binär form, tillsammans med omfattande dokumentation, på
Till exempel, Daikon analyserar dynamisk information för att rapportera sannolika program invariants REF.
17,620,776
The Daikon system for dynamic detection of likely invariants
{'venue': 'Science of Computer Programming', 'journal': None, 'mag_field_of_study': ['Computer Science']}
5,650
Med det ökande kravet på korrekt och aktuell resurs- och miljöinformation för regional och global övervakning utnyttjas stora regioner som omfattas av multi-temporella, multispektral massiva fjärranalysdata (RS) för bearbetning. Fjärranalysdatabehandlingen följer i allmänhet en komplex processkedja i flera steg, som består av flera oberoende bearbetningssteg som omfattas av typer av RS-tillämpningar. I allmänhet erkänns RS-databehandling för regional miljö- och katastrofövervakning som typiska både beräkningsintensiva och dataintensiva tillämpningar. För att lösa de ovannämnda frågorna effektivt föreslår vi pipsCloud som kombinerar den senaste Cloud computing- och HPC-tekniken för att möjliggöra storskalig RS-databehandling som realtidstjänster på begäran. Den massiva RS-datahanteringen och databehandlingen för dynamisk miljöövervakning kan dra nytta av molndatamodellens allestädes närvarande, elasticitet och hög grad av transparens. Där används en Hilbert-R +-baserad dataindexeringsmekanism för optimal sökning och åtkomst av RS-bilder, RS-dataprodukter samt interimsdata. I kärnplattformen under molntjänsterna tillhandahåller vi ett parallellt filsystem för massiva högdimensionella RS-data och erbjuder gränssnitt för intensiv oregelbunden åtkomst av RS-data för att ge förbättrad datalokalitet och optimerad I/O-prestanda. Dessutom antar vi ett adaptivt arbetsflöde för RS-dataanalys för hantering av arbetsflöden på begäran och gemensamt utförande av distribuerad komplex kedja av RS-databehandling, såsom upptäckt av skogsbränder, mineralresurser och kustövervakning. Genom den experimentella analysen har vi visat hur effektiv pipsCloud-plattformen är.
I samma kategori försöker pipsCloud REF ta itu med det ökande kravet på tillförlitlig och aktuell information om resurser och miljö.
27,242,051
pipsCloud: high performance cloud computing for remote sensing big data management and processing
{'venue': 'Future Gener. Comput. Syst.', 'journal': 'Future Gener. Comput. Syst.', 'mag_field_of_study': ['Computer Science']}
5,651
Regenererande koder är en klass av distribuerade lagringskoder som optimalt byter den bandbredd som behövs för reparation av en misslyckad nod med mängden data som lagras per nod i nätverket. Minimum Storage Regenerating (MSR) koder minimera först, mängden data som lagras per nod, och sedan reparation bandbredd, medan Minimum Bandwidth Regenerating (MBR) koder utför minimeringen i omvänd ordning. En [n, k, d] regenererande kod gör det möjligt att återställa data genom att ansluta till någon k i n noderna i nätverket, samtidigt som det krävs att reparation av en misslyckad nod möjliggörs genom att ansluta (med länkar av mindre kapacitet) till någon d noder. Tidigare, explicita och allmänna konstruktioner av exakta regenererande koder har begränsats till fallet n = d + 1. I detta dokument presenterar vi optimala, explicita konstruktioner av MBR-koder för alla möjliga värden av [n, k, d] och MSR-koder för alla [n, k, d ≥ 2k − 2], med hjälp av ett produkt-matrisramverk. Den särskilda produktmatrisen hos konstruktionerna har visat sig avsevärt förenkla systemets funktion. Såvitt vi vet är dessa de första konstruktionerna av exakta regenererande koder som tillåter antalet n noder i det distribuerade lagringsnätet, att väljas oberoende av de andra parametrarna. Papperet innehåller också en enklare beskrivning, i produktmatrisramen, av en tidigare konstruerad MSR-kod där parametern d uppfyller [n = d + 1, k, d ≥ 2k − 1].
I REF presenterades en optimal exakt konstruktion av MBR-koder och MSR-koder under produktmatrisramverk.
3,132,259
Optimal Exact-Regenerating Codes for Distributed Storage at the MSR and MBR Points via a Product-Matrix Construction
{'venue': 'IEEE Transactions on Information Theory, vol. 57, no. 8, pp. 5227 - 5239, August 2011', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
5,652
Abstract-Vi föreslår en naturlig avslappning av differentiell integritet baserat på Rényi divergens. Nära besläktade föreställningar har framträtt i flera av de senaste tidningarna som analyserade sammansättningen av olika privata mekanismer. Vi hävdar att det användbara analysverktyget kan användas som en integritetsdefinition, kompakt och korrekt representerar garantier på svansen av integritetsförlusten. Vi visar att den nya definitionen delar många viktiga egenskaper med standarddefinitionen av differentiell integritet, samtidigt som den möjliggör en stramare analys av sammansatta heterogena mekanismer.
Rényi differential privacy (RDP) REF är ett integritetsskyddsbegrepp baserat på log normaliserad-moment av integritetsförlust distributionen (Rényi divergensen).
9,386,213
Renyi Differential Privacy
{'venue': 'Proceedings of IEEE 30th Computer Security Foundations Symposium CSF 2017, pages 263-275, IEEE, Aug 2017', 'journal': None, 'mag_field_of_study': ['Computer Science']}
5,653
Vi fortsätter utredningen av problem med korrelationsklustring eller klusterbildning med kvalitativ information, vilket är en klusterformulering som har studerats nyligen [5, 7, 8, 3]. Grundinställningen här är att vi ges som inmatning en komplett graf på n noder (som motsvarar noder som ska klustras) vars kanter är märkta + (för liknande par av objekt) och − (för olika par av objekt). Således har vi bara som insats kvalitativ information om likhet och ingen kvantitativ avståndsmått mellan poster. Kvaliteten på en klusterering mäts i form av dess antal avtal, vilket helt enkelt är det antal kanter den korrekt klassificerar, det vill säga summan av antal - kanter vars ändpunkter det placerar i olika kluster plus antalet + kanter båda vars ändpunkter det placerar inom samma kluster. I detta dokument studerar vi problemet med att hitta kluster som maximerar antalet avtal, och den kompletterande minimeringsversionen där vi söker kluster som minimerar antalet meningsskiljaktigheter. Vi fokuserar på situationen när antalet kluster anges vara en liten konstant k. Vårt främsta resultat är att för varje k, det finns en polynom tid approximation system för både maximering avtal och minimera meningsskiljaktigheter. (Problemen är NPhard för varje k ≥ 2.) Det huvudsakliga tekniska arbetet är för minimering version, eftersom PTAS för maximering avtal följer i linje med fastighetstestaren för Max k-CUT från [13]. Däremot, när antalet kluster inte anges, problemet med att minimera meningsskiljaktigheter visade sig vara APX-hård [7], även om maximering versionen medger en PTAS.
REF beakta korrelationskluster när antalet kluster är fast.
1,196,261
Correlation clustering with a fixed number of clusters
{'venue': "SODA '06", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
5,654
Förhållande klassificering är en viktig semantisk bearbetning uppgift vars state-of-t hjärta system fortfarande förlitar sig på användningen av dyra handgjorda funktioner. I detta arbete tar vi itu med relationsklassificeringen med hjälp av ett konvolutionellt neuralt nätverk som utför klassificering enligt rankning (CR-CNN). Vi föreslår en ny parvis ranking förlustfunktion som gör det enkelt att minska effekterna av artificiella klasser. Vi utför experiment med hjälp av datasetet SemEval-2010 Task 8, som kodar uppgiften att klassificera förhållandet mellan två nominella som markeras i en mening. Med hjälp av CR-CNN överträffar vi den senaste tekniken för denna datauppsättning och uppnår en F1 på 84,1 utan att använda några dyra handgjorda funktioner. Dessutom visar våra experimentella resultat också att: (1) vårt tillvägagångssätt är mer effektivt än CNN följt av en softmax klassificerare; (2) utelämna representationen av den artificiella klassen Övrigt förbättrar både precision och återkallande; och (3) använda endast ord inbäddningar som indata är tillräckligt för att uppnå state- of-art resultat om vi bara beaktar texten mellan de två mål nominella.
Santos m.fl. hantera problemet genom att använda ett CNN som utförde RC genom att ranka REF.
15,620,570
Classifying Relations by Ranking with Convolutional Neural Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
5,655
En rad naturliga språk bearbetning uppgifter innebär att göra bedömningar om semantiska släktskap med ett par meningar, såsom känna igen Textual Entailing (RTE) och svarsval för Question Answering (QA). En viktig utmaning som dessa uppgifter står inför gemensamt är bristen på uttrycklig anpassning mellan ett meningspar. Vi fångar anpassningen genom att använda en ny probabilistisk modell som modellerar trädredigering på beroendeparsträd. Till skillnad från tidigare träd-edit modeller som kräver en separat anpassning-finnande fas och tillgripa ad-hoc avståndsmått, vår metod behandlar anpassningar som strukturerade latenta variabler, och erbjuder en principiell ram för att införliva komplexa språkliga funktioner. Vi demonstrerar robustheten i vår modell genom att utföra experiment för RTE och QA, och visar att vår modell presterar konkurrenskraftigt på båda uppgifterna med samma uppsättning allmänna funktioner.
REF föreslår en probabilistisk Tree-Edit-modell med strukturerade latenta variabler för att lösa textförnödenheter och frågesvar.
16,725,676
Probabilistic Tree-Edit Models with Structured Latent Variables for Textual Entailment and Question Answering
{'venue': 'COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']}
5,656
Abstract-I denna uppsats, anser vi problemet med att utforska en okänd miljö med ett team av mobila robotar. En av de viktigaste frågorna i multi-robot utforskning är hur man tilldela mål platser till de enskilda robotarna. För att bättre fördela robotarna över miljön och för att undvika överflödigt arbete tar vi hänsyn till vilken typ av plats ett potentiellt mål finns i (t.ex. en korridor eller ett rum). För att bestämma vilken typ av plats vi använder en klassificerare lärd med AdaBoost som dessutom beaktar rumsliga beroenden mellan närliggande platser. Vårt tillvägagångssätt att integrera typen av platser i samordningen av robotarna har implementerats och testats i olika miljöer. Experimenten visar att vårt system effektivt distribuerar robotarna över miljön och gör det möjligt för dem att utföra sitt uppdrag snabbare jämfört med tillvägagångssätt som ignorerar de semantiska platsetiketterna.
I ett tidigare arbete har vi övervägt problemet med att integrera semantisk bakgrundsinformation i samordningsförfarandet.
9,235,721
Speeding-up multi-robot exploration by considering semantic place information
{'venue': 'Proceedings 2006 IEEE International Conference on Robotics and Automation, 2006. ICRA 2006.', 'journal': 'Proceedings 2006 IEEE International Conference on Robotics and Automation, 2006. ICRA 2006.', 'mag_field_of_study': ['Engineering', 'Computer Science']}
5,657
Obemannade luftfartyg förväntas användas i stor utsträckning i framtida trådlös kommunikation på grund av fördelarna med hög rörlighet och enkel användning. De trådlösa kanalerna för sändning till mark för med sig en ny utmaning för informationssäkerheten i UAV-markkommunikationen. Detta dokument tar itu med en sådan utmaning i det fysiska skiktet genom att utnyttja rörligheten för UAV via sin bana design. Vi anser att en UAV-mark kommunikationssystem med flera potentiella tjuvlyssnare på marken, där informationen om platserna för tjuvlyssnare är ofullständig. Vi formulerar ett optimeringsproblem, som maximerar den genomsnittliga värsta fall sekretessen i systemet genom att gemensamt utforma den robusta banan och överföra kraft UAV under en given flygtid. Optimeringsproblemets icke konvexitet och den bristfälliga lokaliseringsinformationen för tjuvlyssnarna gör det svårt att lösa problemet på ett optimalt sätt. Vi föreslår en iterativ suboptimal algoritm för att lösa detta problem effektivt genom att tillämpa blockkoordinatmetoden, S-proceduren och successiv konvex optimeringsmetod. Simuleringsresultat visar att den föreslagna algoritmen kan förbättra den genomsnittliga värsta fallsekretessen avsevärt, jämfört med två andra referensalgoritmer utan robust design. Index Terms-UAV kommunikation, fysisk lagersäkerhet, banoptimering, strömkontroll, robust design.
Med tanke på ett mer praktiskt scenario där platser för flera tjuvlyssnare är bristfälligt kända för UAV, författarna i REF föreslå en gemensam konstruktion algoritm av robust bana och överföra kraft UAV för att maximera det värsta fall sekretess i systemet.
49,301,058
Robust Trajectory and Transmit Power Design for Secure UAV Communications
{'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
5,658
Abstract -Många företag idag har ett stort antal samtrafikförfrågningar för nya solcellsinstallationer på sina distributionsnät. Sammanlänkningar bör godkännas i god tid men utan att nätets tillförlitlighet äventyras. Det är därför viktigt att veta ett näts PV värdkapacitet, som definierar den övre gränsen för PV-storlekar som inte utgör någon risk för nätverket. I detta dokument undersöks hur genomförandet av reaktiv effektkontroll på solcellsinverteraren påverkar PV värdkapaciteten för ett distributionsnät. En lokal Volt-Var droop kontroll används och simuleringar utförs i OpenDSS och Matlab. Flera matare testas och det konstateras att kontrollen avsevärt förbättrar den totala värdkapaciteten för mataren samt lokalisering hos värdkapaciteten för de flesta spänningsbegränsade bussar. Index Termer - fotovoltaiska system, reaktiv effektstyrning, spänningsreglering.
J. Seuss m.fl. i REF implementerad reaktiv effektreglering i inverteraren för att förbättra HC, och en lokal Volt-VAR kontroll används.
22,083,719
Improving distribution network PV hosting capacity via smart inverter reactive power support
{'venue': '2015 IEEE Power & Energy Society General Meeting', 'journal': '2015 IEEE Power & Energy Society General Meeting', 'mag_field_of_study': ['Engineering']}
5,659
Abstract-En metod för snabbt visuellt erkännande av personlig identitet beskrivs, baserat på misslyckandet med ett statistiskt oberoendetest. Den mest unika fenotypiska egenskapen som syns i en persons ansikte är den detaljerade strukturen på varje ögas iris: En uppskattning av dess statistiska komplexitet i ett urval av den mänskliga befolkningen avslöjar variation som motsvarar flera hundra oberoende grader av frihet. Morphogenetic randomness i texturen uttryckt fenotypiskt i iris trabecular meshwork ser till att ett test av statistisk självständighet på två kodade mönster från olika ögon passerar nästan säkert, medan samma test misslyckas nästan säkert när de jämförda koderna kommer från samma öga. Den synliga strukturen hos en persons iris i en videobild i realtid är kodad i en kompakt sekvens av flerskalig kvadratur 2-D Gabor wavelet koefficienter, vars mest betydande bitar består av en 256 byte "iris kod." Statistisk beslutsteori genererar identifieringsbeslut från exklusiva-OR-jämförelser av fullständiga iriskoder med en hastighet på 4 000 per sekund, inklusive beräkning av beslutskonfidensnivåer. De fördelningar som observerats empiriskt i sådana jämförelser innebär en teoretisk "cross-over" felfrekvens på en på 131000 när ett beslutskriterium antas som skulle utjämna falska acceptera och falska avvisa felfrekvenser. I det typiska erkännande fallet, med tanke på den genomsnittliga observerade graden av iris kodavtal, beslut konfidensnivåer motsvarar formellt ett villkorligt falskt acceptera sannolikheten för en i ca 10 31.
Daugmans system REF baseras på en metod för irisdetektion.
7,234,088
High confidence visual recognition of persons by a test of statistical independence
{'venue': 'IEEE Trans. Pattern Anal. Mach. Intell.', 'journal': 'IEEE Trans. Pattern Anal. Mach. Intell.', 'mag_field_of_study': ['Computer Science']}
5,660
Förmåga att kontinuerligt lära sig och anpassa sig från begränsad erfarenhet i icke-stationära miljöer är en viktig milstolpe på vägen mot allmän intelligens. I detta dokument kastar vi problemet med kontinuerlig anpassning i ramen för lärande till lärande. Vi utvecklar en enkel gradientbaserad metalärande algoritm som lämpar sig för anpassning i dynamiskt föränderliga och kontradiktoriska scenarier. Dessutom utformar vi en ny konkurrensmiljö för flera ämnen, RoboSumo, och definierar itererade anpassningsspel för att testa olika aspekter av kontinuerliga anpassningsstrategier. Vi visar att meta-lärande möjliggör betydligt effektivare anpassning än reaktiva baslinjer i systemet med få stötar. Våra experiment med en population av agenter som lär sig och tävlar tyder på att meta-lärarna är de starkaste.
Al-Shedivat m.fl. REF utvecklar en gradientbaserad metainlärningsalgoritm som liknar MAML-algoritm och som lämpar sig för kontinuerlig anpassning av RL-medel i icke-stationära miljöer.
3,503,217
Continuous Adaptation via Meta-Learning in Nonstationary and Competitive Environments
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
5,661
Störningar till följd av kognitiva radioapparater (CR) är den viktigaste aspekten av kognitiva radionät som leder till försämring av tjänstekvalitet (QoS) i både primära och CR-system. Effektstyrning är en av de effektiva tekniker som kan användas för att minska störningar och uppfylla Signal-till-Interference Ratio (SIR) begränsningen bland CR. I detta dokument föreslås en ny distribuerad kraftkontrollalgoritm baserad på spelteori tillvägagångssätt i kognitiva radionätverk. Förslaget fokuserar på kognitiva radioanvändares kanalstatus för att förbättra systemets prestanda. En ny kostnadsfunktion för SIR-baserad effektstyrning via en sigmoidviktningsfaktor införs. Förekomsten av Nash Equilibrium och konvergens av algoritmen bevisas också. Fördelen med den föreslagna algoritmen är möjligheten att använda och genomföra den på ett distribuerat sätt. Simuleringsresultat visar betydande besparingar på Nash Equilibrium effekt jämfört med relevanta algoritmer medan minskning av uppnått SIR är obetydlig.
I REF föreslås det SIR-baserade sigmoid-kraftstyrningsspelet i kognitiva radionät (CRN) för att minska energiförbrukningen hos kognitiva radioapparater.
12,722,000
A New SIR-Based Sigmoid Power Control Game in Cognitive Radio Networks
{'venue': 'PLoS ONE', 'journal': 'PLoS ONE', 'mag_field_of_study': ['Computer Science', 'Medicine']}
5,662
Abstrakta hälsoskillnader i diabetes och dess komplikationer och komorbiditeter finns globalt. En nyligen publicerad Endokrine Society Scientific Statement beskrev hälsoskillnaderna vid flera endokrina störningar, däribland typ 2-diabetes. I denna recension sammanfattar vi detta uttalande och ger nya uppdateringar om ras/etniska skillnader hos barn och vuxna med typ 1-diabetes, barn med typ 2-diabetes och i delpopulationer i Latino. Vi granskar också ras/etniska skillnader i epidemiologi av diabetes, prediabetes, och diabetes komplikationer och dödlighet i USA och globalt. Slutligen diskuterar vi biologiska, beteendemässiga, sociala, miljömässiga och hälso- och sjukvårdssystemets bidrag till diabetesskillnader för att identifiera områden för framtida förebyggande insatser.
En ny uppdatering om ras/etniska skillnader hos barn och vuxna med typ 1-diabetes, barn med typ 2-diabetes i delpopulationer i Latino granskade REF.
45,993,480
Race/Ethnic Difference in Diabetes and Diabetic Complications
{'venue': 'Current Diabetes Reports', 'journal': 'Current Diabetes Reports', 'mag_field_of_study': ['Medicine']}
5,663
Även om alternationer av diates har använts som funktioner för manuell verbklassificering, och det finns nyligen arbete på att införliva sådana funktioner i beräkningsmodeller för mänskligt språk förvärv, arbete på storskalig verb klassificering har ännu att undersöka potentialen för att använda diates alternationer som inmatningsfunktioner till klusterprocessen. I detta dokument föreslås en metod för approximering av diatesalterneringsbeteende i corpusdata och med hjälp av ett toppmodernt verbklustersystem visar detta att egenskaper som bygger på alternation approximation överträffar dem som baseras på oberoende delkategoriseringsramar. Vårt växlingsbaserade tillvägagångssätt är särskilt skickligt på att utnyttja information från mindre frekventa data.
REF presenterar en oövervakad metod för den semantiska klassificeringen av verb som använder approximationer av diatesalternationer som egenskaper.
13,309,080
Diathesis alternation approximation for verb clustering
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
5,664
ABSTRACT Distributionen av data är ett viktigt överföringssätt för trådlösa sensornätverk (WSN) i Internet-of-Things (IoT) system. Att söka den optimala vidaresändningsvägen för sändningsdata är ett icke-deterministiskt polynomproblem, och därför försökte vi använda teorin om opportunistisk routing för att minska överflödiga återsändningar och öka tillförlitligheten i överföringen. Det finns dock ett minimum av forskning som fokuserar på den opportunistiska sändningen i det planara strukturnätet, som är en modell för överföring från punkt till punkt. I detta dokument undersöks utförandet av utsändningen av data genom att använda opportunistisk routing för point-to-multipoint i teorin. Ett nytt protokoll som kallas protokollet för förhandlingsmöjlighet för mottagare (RNOB) föreslås, inklusive systemet för distribuerat samarbete och algoritmen för prioriteringsplanering. Simuleringsresultat visade att prestandan hos RNOB är bättre än traditionella protokoll, som ska förbättra tillförlitligheten och effektiviteten av dataöverföring för WSNs i IoT-system. INDEX TERMS Möjlighetssändning, tillförlitlig dataspridning, routingprotokoll, trådlösa sensornätverk.
I REF syftar författarna till att hitta den optimala vidaresändningsvägen för sändningsdata i trådlösa sensornätverk för IoT-tjänster.
53,014,474
RNOB: Receiver Negotiation Opportunity Broadcast Protocol for Trustworthy Data Dissemination in Wireless Sensor Networks
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
5,665
Abstrakt. Befintliga låg latenta anonymitetsnätverk är sårbara för trafikanalys, så lokaliseringsmångfald av noder är avgörande för att försvara mot attacker. Tidigare arbete har visat att helt enkelt säkerställa geografisk mångfald av noder inte motstår, och i vissa fall förvärrar, risken för trafikanalys av Internetleverantörer. Att säkerställa stor autonomi-system-mångfald (AS) kan motstå denna svaghet. Internetleverantörer ansluter ofta till många andra Internetleverantörer på en enda plats, känd som Internet eXchange (IX). Detta dokument visar att IX:or är en enda punkt där trafikanalys kan utföras. Vi undersöker i vilken utsträckning detta är sant, genom en fallstudie av Tor noder i Storbritannien. Dessutom, några IXes provpaket som flödar genom dem av prestandaanalys skäl, och dessa data kan utnyttjas för att avanonymisera trafiken. Vi utvecklar och utvärderar sedan Bayesian trafikanalys tekniker som kan bearbeta denna provdata.
Undersökningar i Ref visar att data från Internetutbyten kan användas för Bayesian trafikanalys.
7,297,965
Sampled traffic analysis by internet-exchange-level adversaries
{'venue': 'In Privacy Enhancing Technologies (PET), LNCS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
5,666
Abstract-Vi presenterar en ny strategi för att partitionera en dokumentsamling på flera servrar och för att utföra ett effektivt samlingsval. Metoden är baserad på analys av frågeloggar. Vi föreslog en ny dokumentrepresentation kallad frågevektorsmodell. Varje dokument representeras som en lista som registrerar de frågor för vilka själva dokumentet är en match, tillsammans med deras led. För att både partitionera samlingen och bygga samlingen urvalsfunktionen, vi co-cluster frågor och dokument. Dokumentklustren tilldelas sedan de underliggande IR-servrarna, medan frågeklustren representerar frågor som returnerar liknande resultat och används för val av samling. Vi visar att detta dokument partition strategi kraftigt ökar prestandan för standard insamling val algoritmer, inklusive Cori, w.r.t. Ett round-robin-uppdrag. För det andra visar vi att utföra insamlingsval genom att matcha frågan till de befintliga frågekluster och successivt välja endast en server, vi når en genomsnittlig precision-at-5 upp till 1.74 och vi ständigt förbättra Cori precision av en faktor mellan 11% och 15%. Som ett sidoresultat visar vi ett sätt att välja sällan efterfrågade dokument. Genom att skilja dessa dokument från resten av samlingen kan indexören ta fram ett mer kompakt index som endast innehåller relevanta dokument som sannolikt kommer att begäras i framtiden. I våra tester, är cirka 52% av dokumenten (3 128 366) inte returneras bland de första 100 topprankade resultaten av någon fråga.
Också relevant är arbetet av Puppin et al. REF, som föreslog en dokumentpartitionering strategi baserad på co-clustering frågor och dokument.
9,873,821
Query-driven document partitioning and collection selection
{'venue': "InfoScale '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
5,667
Abstrakt. Nya framsteg inom AI och robotik har krävt många otroliga resultat med djupt lärande, men inget arbete hittills har tillämpat djupt lärande på problemet med flytande perception och resonemang. I detta dokument tillämpar vi fullt konvolutionella djupa neurala nätverk för att upptäcka och spåra vätskor. Vi utvärderar tre modeller: ett enda nätverk, flerramsnätverk och ett återkommande LSTM-nätverk. Våra resultat visar att de bästa vätskedetekteringsresultaten uppnås när data samlas över flera ramar och att LSTM-nätverket överträffar de andra två i båda uppgifterna. Detta tyder på att LSTM-baserade neurala nätverk har potential att vara en viktig komponent för att göra det möjligt för robotar att hantera vätskor med hjälp av robusta, slutna regulatorer.
I detta dokument, liknande REF, simulerar vi direkt vätskor.
12,918,749
Towards Learning to Perceive and Reason About Liquids
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Engineering', 'Computer Science']}
5,668
Ett viktigt problem med många forskningsprojekt om parallellisering av kompilatorer för distribuerade minnesmaskiner är att automatiskt bestämma en lämplig datapartitioneringsschema för ett program. De flesta av de nuvarande projekten lämnar detta tråkiga problem nästan helt till användaren. I detta dokument presenterar vi en ny strategi för problemet med automatisk datapartitionering. Vi inför begreppet begränsningar av datadistributionen och visar hur man utifrån resultatöverväganden skall införa begränsningar för distributionen av olika datastrukturer. Dessa begränsningar kombineras sedan av kompilatorn för att få en fullständig och konsekvent bild av datadistributionssystemet, ett system som ger goda resultat när det gäller den totala genomförandetiden. Vi presenterar resultat av en studie vi utfört på Fortran program som tagits från Linpack och Eispack bibliotek och Perfect Benchmarks för att avgöra tillämpligheten av vår strategi för verkliga program. Resultaten är mycket uppmuntrande, och visa genomförbarheten av automatisk data partitionering för program med regelbundna beräkningar som kan vara statiskt analyserade, som täcker en extremt signi cant klass av scienti c program.
Gupta och Banerjee REF tar upp problemet med automatisk datapartitionering genom att analysera hela programmet.
10,792,071
Demonstration of Automatic Data Partitioning Techniques for Parallelizing Compilers on Multicomputers
{'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': None, 'mag_field_of_study': ['Computer Science']}
5,669
På ICSE'2013 var det den första sessionen någonsin tillägnad automatisk programreparation. I den här sessionen, Kim et al. presenterade PAR, en ny mallbaserad metod för att rätta Java fel. Vi håller inte alls med om de viktigaste punkterna i detta dokument. Vår kritiska granskning har två mål. För det första syftar vi till att förklara varför vi inte håller med Kim och kollegerna och varför skälen bakom denna oenighet är viktiga för forskningen om automatisk programvarureparation i allmänhet. För det andra syftar vi till att bidra till fältet med ett klargörande av de väsentliga idéerna bakom automatisk programvarureparation. I synnerhet diskuterar vi de viktigaste utvärderingskriterierna för automatisk programvarureparation: begriplighet, korrekthet och fullständighet. Vi visar att utvärderingsmålen kan vara motstridiga beroende på hur man sätter upp reparationsscenariot. Så småningom diskuterar vi typen av fix acceptability och dess förhållande till begreppet programvara korrekthet.
Monperrus m.fl. I REF diskuteras de viktigaste utvärderingskriterierna för automatisk programvarureparation, inklusive begriplighet, korrekthet och fullständighet.
13,355,761
A critical review of "automatic patch generation learned from human-written patches": essay on the problem statement and the evaluation of automatic software repair
{'venue': 'ICSE 2014', 'journal': None, 'mag_field_of_study': ['Computer Science']}
5,670
Abstract-Electric lagringsenheter är en viktig del i det framväxande smarta elnätet. I denna uppsats studeras interaktioner och energihandelsbeslut för ett antal geografiskt distribuerade lagringsenheter med hjälp av ett nytt ramverk baserat på spelteori. I synnerhet är ett icke-kooperativt spel formulerat mellan lagringsenheter, såsom plug-in hybrid elfordon, eller en rad batterier som handlar med sin lagrade energi. Här kan varje lagerenhets ägare bestämma den maximala mängden energi att sälja på en lokal marknad för att maximera en nytta som återspeglar avvägningen mellan intäkterna från energihandel och de åtföljande kostnaderna. På denna marknad för energiutbyte mellan lagringsenheter och smarta nätelement bestäms sedan priset till vilket energi handlas genom en auktionsmekanism. Spelet visar sig medge minst en Nash jämvikt och en ny algoritm som är garanterad att nå en sådan jämviktspunkt föreslås. Simuleringsresultat visar att det föreslagna tillvägagångssättet ger betydande resultatförbättringar när det gäller den genomsnittliga nyttan per lagringsenhet, upp till 130,2 % jämfört med ett konventionellt girigt tillvägagångssätt. Index Terms-Dubbel auktioner, elektrisk lagringsenhet, energihantering, icke-kooperativa spel.
Det mest relaterade arbetet till vårt är litteratur REF som utformar en auktionsmekanism för att handla energi i det smarta nätet.
1,011,550
A Game-Theoretic Approach to Energy Trading in the Smart Grid
{'venue': 'IEEE Transactions on Smart Grid', 'journal': 'IEEE Transactions on Smart Grid', 'mag_field_of_study': ['Mathematics', 'Economics', 'Computer Science']}
5,671
Nätverk beskriver en mängd interaktioner genom vilka människor möts, idéer sprids och infektionssjukdomar sprids i ett samhälle [1] [2] [3] [4] [5]. Att identifiera de mest effektiva "spridarna" i ett nätverk är ett viktigt steg för att optimera användningen av tillgängliga resurser och säkerställa en effektivare informationsspridning. Här visar vi att det, till skillnad från vanlig tro, finns rimliga omständigheter där de bästa spridarna inte motsvarar de bästa uppkopplade personerna eller de mest centrala människorna (högt mellanklass) [6] [7] [8] [9] [10]. I stället finner vi: (i) De mest effektiva spridarna är de som ligger inom nätets kärna som identifierats genom k-shell sönderdelningsanalysen [11] [12] [13]. ii) När flera spridare beaktas samtidigt blir avståndet mellan dem den avgörande parameter som bestämmer spridningens omfattning. Dessutom finner vi att infektioner kvarstår i de höga k-skalen i nätverket, även i fall där återhämtade individer inte utvecklar immunitet. Vår analys ger en rimlig väg för en optimal utformning av effektiva spridningsstrategier. Spridning är en allestädes närvarande process som beskriver många viktiga aktiviteter i samhället [2] [3] [4] [5]. Kunskapen om spridningsvägarna genom nätverket av sociala interaktioner är avgörande för att utveckla effektiva metoder för att antingen hindra spridning vid sjukdomar eller påskynda spridningen vid spridning av information. Människor är i själva verket sammankopplade beroende på hur de interagerar med varandra i samhället och den stora heterogeniteten i det resulterande nätverket avgör i hög grad hur effektivt och snabbt spridningen är. När det gäller nätverk med en bred grad fördelning (antal länkar per nod) [6], tror man att de mest uppkopplade personer (hubbar) är de nyckelaktörer som är ansvariga för den största omfattningen av spridningsprocessen [6] [7] [8]. Dessutom, inom ramen för den sociala nätverksteorin, är betydelsen av en nod för spridning ofta förknippad med mellanhetens centralitet, ett mått på hur många kortaste vägar korsar genom denna nod, som tros avgöra vem som har mer "interpersonellt inflytande" på andra [9, 10]. Här hävdar vi att topologin av nätverksorganisationen spelar en viktig roll så att det finns rimliga omständigheter under vilka de högt anslutna noderna eller de högsta mellanhet noderna har liten effekt i intervallet för en given spridningsprocess. Till exempel, om ett nav finns i slutet av en gren i ett näts periferi, kommer det att ha en minimal inverkan i spridningsprocessen genom nätets kärna, medan en mindre ansluten 2 person som är strategiskt placerad i nätets kärna kommer att ha en betydande effekt som leder till spridning genom en stor del av befolkningen. För att identifiera nätets kärna och periferi använder vi k-skalet (även kallat k-core) sönderdelningen av nätet [11] [12] [13] [14]. Genom att undersöka denna mängd i ett antal verkliga nätverk kan vi identifiera de bästa enskilda spridarna i nätverket när spridningen har sitt ursprung i en enda nod. För en spridningsprocess med ursprung i många noder samtidigt visar vi att vi kan förbättra effektiviteten ytterligare genom att överväga att sprida ursprung på ett bestämt avstånd från varandra. Vi studerar verkliga komplexa nätverk som representerar arketypiska exempel på sociala strukturer. Vi undersöker (i) vänskapsnätverket mellan 3,4 miljoner medlemmar i The To study the spreading process we applied the Susceptible-Infectious-Recovered (SIR) and Susceptible-Infectious-Susceptible (SIS) models [2, 3, 18] on the ovan networks (se avsnittet Metoder). Dessa modeller har använts för att beskriva sjukdomsspridning samt information och rykten som sprids i sociala processer där en aktör ständigt behöver påminnas [19]. Vi betecknar sannolikheten att en smittsam nod infekterar en mottaglig granne som β. I vår studie använder vi relativt små värden för β, så att den infekterade procentandelen av befolkningen förblir liten. När det gäller stora β-värden, där spridning kan nå en stor del av befolkningen, är rollen av enskilda noder inte längre viktig och spridning skulle täcka nästan hela nätverket, oberoende av varifrån det härrör. Platsen för en nod i nätverket erhålls med hjälp av k-skalets nedbrytningsanalys [11] [12] [13]. Denna process tilldelar ett heltal index eller kärna, k S, till varje nod som representerar dess plats enligt på varandra följande lager (k-skal) i nätverket. K S-indexet är ett ganska robust mått och nodernas rankning påverkas inte nämnvärt när det gäller ofullständig information (för detaljer se SI-avsnitt II). Små värden på k S definierar nätets periferi och den innersta nätkärnan motsvarar stora k S (se exemplet ovan antyder att nodens position i förhållande till nätverkets organisation avgör dess spridningsinflytande mer än en lokal egenskap hos en nod, som t.ex. graden k. För att kvantifiera påverkan av en given nod i i en SIR-spridningsprocess studerar vi den genomsnittliga storleken på populationen M i som smittats i en epidemi som härrör från nod i med en given (k S, k). Den smittade befolkningen är i genomsnitt över alla ursprung med samma där analysen av M(k S, k) i de studerade sociala nätverken avslöjar tre allmänna resultat (se Dessa resultat indikerar att k-shell index av en nod är en bättre prediktor för spridning inflytande. När ett utbrott börjar i kärnan av nätverket (stor k S ) finns det många vägar genom vilka ett virus kan infektera resten av nätverket; detta resultat är giltigt oavsett nodgrad. Förekomsten av dessa vägar innebär att under ett typiskt epidemiskt utbrott från ett slumpmässigt ursprung, noder belägna i höga k S-skikt är mer benägna att smittas och de kommer att smittas tidigare än andra noder (se SI-avsnitt III). Grannskapet av dessa noder gör dem mer effektiva i att upprätthålla en infektion i det tidiga skedet, vilket gör det möjligt för epidemierna att nå en kritisk massa som gör det möjligt för den att fullt ut utvecklas. Liknande resultat på högk S-noders effektivitet erhålls från analysen Bild. 2, där C B är mellanhet centralitet av en nod i nätverket [9, 10] : värdet av C B är inte en bra prediktor för spridning effektivitet. För att kvantifiera betydelsen av k S i spridningen beräknar vi "imprecisionsfunktioner", och C B (p). Dessa funktioner uppskattar för var och en av de tre indikatorerna k S, k och C B hur nära den optimala spridningen den genomsnittliga spridningen av pN (0 < p < 1) valda ursprung i varje fall (se Metoder och SI-avsnitt IV). Strategin för att förutsäga spridningseffektiviteten hos en nod baserad på k S är genomgående mer exakt än en metod baserad på k i det studerade p-området (Fig. 3a)................................................................. Den C B-baserade strategin ger dåliga resultat jämfört med de två andra strategierna. Vårt fynd är inte specifikt för de sociala nätverk som visas i Bild. 2............................................................... I SI-avsnitt V analyserar vi spridningseffektiviteten i andra nätverk som inte har ett socialt ursprung, som Internet på routernivå [20], med liknande slutsatser. Den viktigaste insikten i vårt fynd är att i de studerade nätverken finns ett stort antal nav i de perifera låga k S-lagren (Fig. 3b visar platsen för de 25 största naven i CNI, se även SI-avsnitt V) och bidrar därför dåligt till spridningen. Förekomsten av nav i periferin är en följd av den rika topologiska strukturen i verkliga nätverk. I ett helt slumpmässigt nätverk som erhålls genom att slumpmässigt omkoppla ett verkligt nätverk bevarar graden av varje nod (ett sådant slumpmässigt nätverk motsvarar konfigurationsmodellen [21], se SI-avsnitt VI) placeras alla nav i nätets kärna (se den röda scatter-plotten i bild). 3c ) och de bidrar i lika hög grad till spridningen. I en sådan randomiserad struktur finns samma information i k-skalet som i examensklassificeringen eftersom det finns ett till ett samband mellan båda mängderna som är ungefär linjärt, k S på k (Fig. 3c och SI-Fig. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. Exempel på verkliga nät som liknar en slumpmässig struktur är nätet av produktutrymme för ekonomiska varor [22] och Internet på AS-nivå (analyseras i SI-avsnitt V). Vår studie belyser vikten av den relativa lokaliseringen av en enda spridning ursprung. Därefter tar vi upp frågan om omfattningen av en epidemi som börjar på flera håll samtidigt. Figur 3d visar omfattningen av SIR-spridningen i CNI-nätverket när utbrottet samtidigt startar från n-noder med högsta k- eller högsta k S-index. Även om de höga k S noder är de bästa enskilda spridare, i fallet med multipel spridning noder med högsta grad är mer effektiva än de med högsta k S. Detta resultat tillskrivs överlappningen av de infekterade områden av de olika spridare: stora k S noder tenderar att samlas nära varandra, medan nav kan vara mer spridda i 5 nätverket och, i synnerhet, de behöver inte kopplas till varandra. Tydligt, de steg-liknande funktioner i tomten av högsta k S noder (röd fast kurva i Bild. 3d ) tyder på att den infekterade procentandelen förblir konstant så länge de infekterade noderna hör hemma i samma skal. Inklusive bara en nod från ett annat skal resulterar i en betydligt ökad spridning. Detta resultat tyder på att en bättre spridningsstrategi med hjälp av flera n spridare är att välja antingen den högsta k eller k S noder med kravet att inga två av de n spridare är direkt kopplade till varandra. Detta system ger sedan det största smittade området i nätet som visas i bild. 3d. Vad är det för fel på dig? ge full immunitet efter infektion i enlighet med SIR-modellen och därför på lämpligt sätt beskrivas av SIS-epidemimodellen, där en smittsam nod återvänder till det mottagliga tillståndet med sannolikhet λ. I en SIS-epidemi når antalet smittsamma noder så småningom ett dynamiskt jämvikts-"endemiskt" tillstånd där så många smittsamma individer blir mottagliga när mottagliga noder blir smittsamma [18]. I motsats till SIR är 20 % av nätverksnoderna redan smittade i början av våra SIS-simuleringar. Spridningseffektiviteten hos en viss nod i i SIS-utbredningen är varaktigheten, ρ i (t), definierad som sannolikheten för att nod i är infekterad vid tidpunkten t [7]. I ett endemiskt SIS-tillstånd blir ρ i (t → ∞) oberoende av t (se SI-avsnitt VII). Tidigare studier har visat att den största persistens ρ i (t → ∞) finns i nätverket nav som åter-infekteras ofta på grund av det stora antalet grannar [7, 24, 25]. Vi anser dock att detta resultat endast gäller slumpmässiga nätverksstrukturer. I de verkliga nätverkstopologier som studeras här finner vi att virus huvudsakligen består i höga k S-lager istället, oavsett graden av noderna i kärnan. När det gäller slumpmässiga nätverk visar det sig att virus sprids till hela nätverket över ett epidemiskt tröskelvärde som ges av β > β 24, 26]. I verkliga nätverk, såsom CNI-nätverket, tröskeln β c skiljer sig från β rand c. Dessutom, i verkliga nätverk, finner vi att virus kan överleva lokalt även när β < β c, men endast inom de höga k S-skikten i nätverket, medan virus persistens i perifera k S-lager är försumbar (Fig. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. Eftersom k-skalstrukturen är beroende av nätassortiviteten är det lägre tröskelvärdet i överensstämmelse med konstaterandet att hög positiv diverseitet [27] kan minska epidemitröskeln. Betydelsen av höga k S noder i SIS spridning bekräftas när vi analyserar den asymptotiska sannolikheten att noder av givna (k S, k) värden kommer att infekteras. Denna sannolikhet 6 kvantifieras av persistensfunktionen som en funktion av (k S, k) vid olika β-värden (Fig. 4a och b). Höga k S lager i nätverk kan vara nära relaterade till begreppet en kärngrupp i sexuellt överförbara infektioner forskning [23]. Kärngrupperna definieras som undergrupper i den allmänna populationen som kännetecknas av hög omsättningsgrad och omfattande intergroupinteraktion [23]. Likt kärngruppen, det täta sub-nätverk som bildas av noder i de innersta kshells hjälper viruset att konsekvent överleva lokalt i det inre kärnområdet och infektera andra noder i närheten av området. Dessa k-skal bevarar förekomsten av ett virus, i motsats till t.ex. isolerade nav i periferin. Observera att ett virus inte kan överleva i den gradbevarande randomiserade versionen av CNI-nätverket, på grund av avsaknaden av höga k-skal. Betydelsen av de inre knutpunkternas spridning påverkas inte av infektionens sannolikhetsvärden, β. I båda modellerna, SIS och SIR, finner vi att persistensen ρ respektive den genomsnittliga infekterade fraktionen M, är systematiskt större för noder i inre k-skal jämfört med noder i yttre skal, över hela β-området som vi studerade (Fig. 4c,d)............................................................................................... K-shell-måttet är således en robust indikator för spridningseffektiviteten hos en nod. Att hitta den mest korrekta rangordningen av enskilda noder för spridning i en population kan påverka framgången med spridningsstrategier. När spridning startar från en enda nod, k S-värdet är tillräckligt för denna rankning, medan i fallet med många samtidiga ursprung, sprids kraftigt förbättras när vi dessutom stöter bort spridare med stor grad eller k S. I fallet med infektioner som inte ger immunitet för återvunna individer, kärnan i nätverket i de stora k S-skikten bildar en reservoar där infektion kan överleva lokalt. Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. K-skalets nedbrytningsnoder tilldelas k-skal efter deras återstående grad, som erhålls genom successiv beskärning av noder med grad som är mindre än k S-värdet för det aktuella lagret. Vi börjar med att ta bort alla noder med grad k = 1. Efter att ha tagit bort alla noder med k = 1, kan vissa noder lämnas med en länk, så vi fortsätter beskära systemet iterativt 7 tills det inte finns någon nod kvar med k = 1 i nätverket. De borttagna noderna, tillsammans med motsvarande länkar, bildar ett k-skal med index k S = 1. På liknande sätt tar vi iterativt bort nästa k-skal, k S = 2, och fortsätter att ta bort högre k-skal tills alla noder tas bort. Som ett resultat, varje nod är associerad med en unik k S-index, och nätverket kan ses som föreningen av alla k-skal. Den resulterande klassificeringen av en nod kan vara mycket annorlunda än när grad k används. För att studera spridningsprocessen använder vi modellerna Susceptible-Infectious-Recovered (SIR) och Susceptible-Infectious-Susceptible (SIS). I SIR-modellen är alla noder ursprungligen i mottagligt tillstånd (S) med undantag för en nod i smittsamt tillstånd (I). Vid varje gång steg, jag noder försöker infektera sina mottagliga grannar med sannolikhet β och sedan gå in i det återvunna tillståndet (R) där de blir immuniserade och kan inte smittas igen. SIS-modellen syftar till att beskriva spridningsprocesser som inte ger immunitet till återvunna individer: infekterade individer försöker fortfarande infektera sina grannar med sannolikhet β men de återvänder till det mottagliga tillståndet med sannolikhet λ (här använder vi λ = 0,8) och kan återinfekteras vid efterföljande steg, medan de förblir smittsamma med sannolikhet 1 − λ. Mellanhet centralitet, C B (i), av en nod i definieras enligt följande: Betrakta två noder s och t och den inställda σ st av alla möjliga kortaste vägar mellan dessa två noder. Om delmängd av denna uppsättning som innehåller sökvägarna som passerar genom noden i betecknas av σ st (i), då mellanhet centralitet av denna nod ges av: där summan går över alla noder s och t i nätverket. Den imprecisionsfunktion (p) kvantifierar skillnaden i den genomsnittliga spridningen mellan pN noderna (0 < p < 1) med högsta k S, k eller C B från den genomsnittliga spridningen av pN mest effektiva spridare (N är antalet noder i nätverket). Således testar den förtjänsten av att använda k-shell, k och C B för att identifiera de mest effektiva spridare. För ett givet β-värde och 8 en given fraktion av systemet p identifierar vi först uppsättningen av Np mest effektiva spridare mätt med M i (vi betecknar detta som och eff ). På samma sätt identifierar vi Np-individer med det högsta k-shell indexet (en k S ). Vi definierar imprecisionen av k-skal identifiering som på k S (p) 1 − M k S /M eff, där M k S och M eff är de genomsnittliga infekterade procenttalen i genomsnitt över de k S och eff grupper av noder respektive. . [1] Caldarelli G., Vespignani A. (eds) Omfattande struktur och dynamik i komplexa nätverk.
Kitsak et al hittades, i motsats till vanlig tro, det finns rimliga omständigheter där de bästa spridare inte motsvarar de mest högt anslutna eller de mest centrala människor REF.
1,294,608
Identification of influential spreaders in complex networks
{'venue': 'Nature Physics, 6, 888 (2010)', 'journal': None, 'mag_field_of_study': ['Physics']}
5,672
Det är välkänt att kontextuella och flerskaliga representationer är viktiga för korrekt visuell igenkänning. I detta dokument presenterar vi Inside-Outside Net (ION), en objektdetektor som utnyttjar information både inom och utanför intresseregionen. Sammanhangsinformation utanför den region av intresse är integrerad med hjälp av rumsliga återkommande neurala nätverk. Inuti använder vi skip pooling för att extrahera information på flera skalor och nivåer av abstraktion. Genom omfattande experiment utvärderar vi designutrymmet och ger läsarna en överblick över vilka knep i branschen som är viktiga. ION förbättrar state-of-the-art på PASCAL VOC 2012 objektdetektion från 73,9% till 77,9% mAP. På den nya och mer utmanande MS COCO dataset, vi förbättrar state-of-the-art från 19,7% till 33,1% mAP. I 2015 MS COCO Detection Challenge vann vår ION-modell "Best Student Entry" och avslutade 3 rd plats totalt. Som intuitionen antyder, våra upptäckt resultat ger starka bevis för att sammanhang och flerskaliga representationer förbättra små objekt upptäckt.
Vi använder återkommande neurala nätverk initierade med identitetsmatrisen (IRNN) REF för att extrahera riktningen sammanhang.
7,148,278
Inside-Outside Net: Detecting Objects in Context with Skip Pooling and Recurrent Neural Networks
{'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
5,673
Att konstruera sensorbarriärer för att upptäcka inkräktare som passerar ett slumpmässigt utplacerat sensornätverk är ett viktigt problem. Tidiga resultat har visat hur man konstruerar sensorbarriärer för att upptäcka inkräktare som rör sig längs begränsade korsningsvägar i rektangulära områden. Vi presenterar en komplett lösning på detta problem för sensorer som distribueras enligt en Poisson-punktprocess. I synnerhet presenterar vi en effektiv distribuerad algoritm för att konstruera sensorbarriärer på långa band områden med oregelbunden form utan några begränsningar på korsande vägar. Vårt tillvägagångssätt är följande: Vi visar först att i ett rektangulärt område med bredd w och längd med w = ska(log ), om sensorns densitet når ett visst värde, då det finns, med hög sannolikhet, flera separata sensorbarriärer över hela längden av området så att inkräktare inte kan korsa området oupptäckt. Å andra sidan, om w = o(log ), sedan med hög sannolikhet finns det en korsningsbana som inte täcks av någon sensor oavsett sensor densitet. Vi utformar sedan, baserat på detta resultat, en effektiv distribuerad algoritm för att konstruera flera separata barriärer i ett stort sensornätverk för att täcka en lång gränsområde av en oregelbunden form. Vår algoritm approximerar arean genom att dela den i horisontella rektangulära segment som interleaved av vertikala tunna remsor. Varje segment och vertikal band självständigt beräknar barriärerna i sitt eget område. Genom att konstruera "horisontella" barriärer i varje segment som är sammankopplade med "vertikala" barriärer i angränsande vertikala remsor uppnår vi kontinuerlig barriärtäckning för hela regionen. Vårt tillvägagångssätt minskar avsevärt förseningar, kommunikationskostnader och beräkningskostnader jämfört med centraliserade tillvägagångssätt. Slutligen implementerar vi vår algoritm och utför ett antal experiment för att visa effektiviteten i att bygga barriärtäckning.
Nyligen härledde Liu, Dousse, Wang och Saipulla de kritiska förutsättningarna för förekomsten av barriärtäckning och utformade effektiva algoritmer för att konstruera sensorbarriärer REF.
5,272,574
Strong barrier coverage of wireless sensor networks
{'venue': "MobiHoc '08", 'journal': None, 'mag_field_of_study': ['Computer Science']}
5,674
Den senaste tidens tillgång till digitala spår som genereras av telefonsamtal och inloggning online har avsevärt ökat den vetenskapliga förståelsen för människors rörlighet. Hittills har dock begränsad dataupplösning och datatäckning hindrat en enhetlig beskrivning av mänskliga förskjutningar över olika rumsliga och tidsmässiga skalor. Här karakteriserar vi mobilitetsbeteenden i flera storleksordningar genom att analysera 850 individers digitala spår som provtas var 16:e sekund i 25 månader med 10 meters rumslig upplösning. Vi visar att fördelningen av avstånd och väntetider mellan på varandra följande platser bäst beskrivs av log-normala och gamma fördelningar, respektive, och att naturliga tidsskalor framträder från regelbundenheten i människans rörlighet. Vi påpekar att log-normala distributioner också kännetecknar mönster för upptäckt av nya platser, vilket antyder att de inte är en enkel följd av det moderna livets rutin.
En annan studie använde högupplösta GPS-data från 850 individers digitala spår provade var 16 sekunder i 25 månader och föreslog att fördelningen av avstånd och väntetider mellan på varandra följande platser bäst beskrivs av log-normala och gamma fördelningar REF.
18,347,679
Multi-scale spatio-temporal analysis of human mobility
{'venue': None, 'journal': None, 'mag_field_of_study': ['Physics', 'Computer Science', 'Medicine']}
5,675
Abstract En perifert införd centralkateter (PICC) är en tunn kateter som sätts in via arm vener och gängas nära hjärtat, vilket ger intravenös åtkomst. Den slutliga kateterspetspositionen bekräftas alltid på en lungröntgen (CXR) omedelbart efter insättning eftersom felplacerade PICCs kan orsaka potentiellt livshotande komplikationer. Även om radiologer tolkar PICC spets placering med hög noggrannhet, kan förseningar i tolkningen vara betydande. I denna studie föreslog vi ett helautomatiskt, djuplärande system med en kaskadsegmentering AI-system som innehåller två helt konvolutionella neurala nätverk för att upptäcka en PICC-linje och dess spets placering. En förbehandlingsmodul utförde bildkvalitet och dimension normalisering, och en efterbehandlingsmodul fann PICC-spetsen exakt genom att beskära falska positiva. Vår bästa modell, tränad på 400 träningsfall och selektivt inställd på 50 valideringsfall, fick absoluta avstånd från marken sanning med ett medelvärde på 3,10 mm, en standardavvikelse på 2,03 mm, och en rot medel kvadratfel (RMSE) på 3,71 mm på 150 hållna test fall. Detta system skulle kunna bidra till att snabbt bekräfta PICC:s position och ytterligare generaliseras till att omfatta andra typer av vaskulär åtkomst och terapeutiskt stöd.
Ett mycket nyligen utfört arbete använde ett helt konvolutionellt neuralt nätverk för detektion av perifert införda centrala kateter (PICC) spetsposition på vuxna bröst röntgenbilder REF.
4,057,260
A Deep-Learning System for Fully-Automated Peripherally Inserted Central Catheter (PICC) Tip Detection
{'venue': 'Journal of Digital Imaging', 'journal': 'Journal of Digital Imaging', 'mag_field_of_study': ['Medicine', 'Computer Science']}
5,676
Symbolisk körning används med framgång för att automatiskt testa statiskt sammanställd kod [4, 7, 9, 15]. Allt fler system och tillämpningar skrivs dock på dynamiska tolkade språk som Python. Att bygga en ny symbolisk exekvering motor är en monumental ansträngning, och så håller den uppdaterad när målspråket utvecklas. Dessutom leder tvetydiga språkspecifikationer till att de genomförs i en symbolisk exekveringsmotor som potentiellt skiljer sig från produktionstolken på subtila sätt. Vi tar itu med dessa utmaningar genom att vända på problemet och använda tolken själv som en specifikation av språksemantiken. Vi presenterar ett recept och verktyg (kallas CHEF) för att förvandla en vaniljtolk till ett ljud och komplett symbolisk exekvering motor. CHEF kör symboliskt målprogrammet genom att symboliskt köra tolkens binära samtidigt som man utnyttjar inferred kunskap om programmets högnivåstruktur. Med hjälp av CHEF utvecklade vi en symbolisk exekveringsmotor för Python på 5 persondagar och en för Lua på 3 persondagar. De erbjuder fullständig och trogen täckning av språkfunktioner på ett sätt som håller jämna steg med framtida språkversioner till nästan noll kostnad. CHEF tillverkade motorer är upp till 1000× mer performant än om direkt köra tolken symboliskt utan CHEF.
Ett tillvägagångssätt för att använda tolkens källkod som en modell av språket i för symbolisk körning föreslås i REF, men det används för att generera tester, inte verifiera program.
10,487,074
Prototyping symbolic execution engines for interpreted languages
{'venue': "ASPLOS '14", 'journal': None, 'mag_field_of_study': ['Computer Science']}
5,677
Android använder ett system av behörigheter för att styra hur appar får tillgång till känsliga enheter och datalager. Tyvärr har vi lite förståelse för utvecklingen av Android-behörigheter sedan starten (2008). Är behörighetsmodellen så att Android-plattformen och apparna blir säkrare? I detta dokument presenterar vi utan tvekan den första långsiktiga studien som är centrerad kring både tillståndsutveckling och användning, av hela Android ekosystem (plattform, tredje part apps, och förinstallerade appar). Först studerar vi Android-plattformen för att se hur uppsättningen av behörigheter har utvecklats; vi finner att denna uppsättning tenderar att växa, och tillväxten är inte inriktad på att ge finare-grained behörigheter utan snarare på att erbjuda tillgång till nya hårdvarufunktioner; en särskild oro är att uppsättningen farliga tillstånd ökar. För det andra studerar vi Android tredje part och förinstallerade appar för att undersöka om de följer principen om minst privilegier. Vi finner att så inte är fallet, eftersom en ökande andel av de populära appar vi studerar är överprivilegierade. Dessutom har apparna en tendens att använda fler behörigheter över tid. För det tredje lyfter vi fram vissa problem med förinstallerade appar, t.ex. appar som leverantörer distribuerar med telefonen; dessa appar har tillgång till och använder en större uppsättning högreprivilegierade behörigheter som utgör säkerhets- och integritetsrisker. Med risk för överförenkling säger vi att Android-ekosystemet inte blir säkrare ur användarens synvinkel. Vår studie härleder fyra rekommendationer för att förbättra Android-säkerheten och föreslår behovet av att se över praxis och politik i ekosystemet.
Wei et al studerade utvecklingen av behörigheter över Android-versioner och visade att uppsättningen behörigheter på Android tenderar att växa med varje release REF.
7,022,711
Permission evolution in the Android ecosystem
{'venue': "ACSAC '12", 'journal': None, 'mag_field_of_study': ['Computer Science']}
5,678
Målet med Web Service Composition (WSC) problemet är att hitta en optimal "komposition" av webbtjänster för att tillfredsställa en given begäran med hjälp av deras syntaktiska och / eller semantiska funktioner, när ingen enda tjänst uppfyller det. I detta dokument studerar vi särskilt WSC-problemet ur semantiska aspekter, utnyttjar förhållandet supertyp-subtype mellan parametrar, och föreslår en ny lösning baserad på tekniker för booleska satisfiability problem (SAT). Med tanke på en uppsättning webbtjänstbeskrivningar och en kravwebbtjänst, reducerar vi WSC-problemet till ett tillgänglighetsproblem på ett tillståndsövergångssystem, och sedan hittar vi den kortaste vägen för tillgänglighetsproblem, vilket motsvarar den optimala sammansättningen. Ett preliminärt experiment med 7 exempel visar att vårt förslag kan hitta optimala sammansättningar av webbtjänster på ett effektivt sätt.
En kompositionsmetod närmast vår presenteras i REF, där författarna reducerar WSCP till ett problem med att nå ett tillståndsövergångssystem.
8,277,964
Type-Aware Web Service Composition Using Boolean Satisfiability Solver
{'venue': '2008 10th IEEE Conference on E-Commerce Technology and the Fifth IEEE Conference on Enterprise Computing, E-Commerce and E-Services', 'journal': '2008 10th IEEE Conference on E-Commerce Technology and the Fifth IEEE Conference on Enterprise Computing, E-Commerce and E-Services', 'mag_field_of_study': ['Computer Science']}
5,679
Testmetoden för in vivo-programvara fokuserar på att testa levande applikationer genom att utföra enhetstester under hela livscykeln, inklusive efter installation. Motiveringen är att den "kända tillståndsmetoden" för traditionella enhetstester inte alltid är tillräcklig; utplacerade applikationer fungerar sällan under sådana förhållanden, och det kan vara mer informativt att utföra tester i levande miljöer. En av begränsningarna med detta tillvägagångssätt är de höga prestandakostnader det medför, eftersom enhetstesterna utförs parallellt med applikationen. Här presenterar vi distribuerade in vivo tester, som fokuserar på att lätta bördan genom att dela belastningen över flera fall av tillämpning av intresse. Det vill säga, vi höjer omfattningen av in vivo-testning från en enda instans till en gemenskap av instanser, som alla deltar i testprocessen. Vårt tillvägagångssätt skiljer sig från tidigare arbete genom att vi aktivt testar under utförandet, i motsats till passiv övervakning av applikationen eller utförande av tester i användarmiljön före drift. Vi diskuterar nya tillägg till den befintliga testramen in vivo (kallas Invite) och presenterar empiriska resultat som visar prestanda overhead förbättrar linjärt med antalet kunder.
Chu och al. REF uppger att det kan bli mer informativt att utföra testerna inne i live-situationer.
14,081,312
Distributed In Vivo Testing of Software Applications
{'venue': '2008 1st International Conference on Software Testing, Verification, and Validation', 'journal': '2008 1st International Conference on Software Testing, Verification, and Validation', 'mag_field_of_study': ['Computer Science']}
5,680
Vi visar att relationsextraktion kan reduceras till att svara på enkla frågor om läsförståelse, genom att koppla en eller flera frågor på ett naturligt språk till varje relations kortplats. Denna minskning har flera fördelar: vi kan (1) lära sig relationsextraktion modeller genom att utöka de senaste neurala läsförståelse tekniker, (2) bygga mycket stora träningsset för dessa modeller genom att kombinera relationsspecifika crowd-sourced frågor med avlägsen övervakning, och även (3) göra noll-shot lärande genom att extrahera nya relationstyper som endast specificeras vid test-tid, för vilka vi inte har några märkta utbildningsexempel. Experiment på en Wikipedia slot-fyllning uppgift visar att metoden kan generalisera till nya frågor för kända relationstyper med hög noggrannhet, och att noll-shot generalisering till osynliga relationstyper är möjligt, på lägre noggrannhetsnivåer, sätta ribban för framtida arbete på denna uppgift.
REF har formulerat relationsextraktionsuppgiften som ett läsförståelseproblem genom att koppla en eller flera frågor om naturligt språk till varje relation.
793,385
Zero-Shot Relation Extraction via Reading Comprehension
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
5,681
Neural arkitektur sökning (NAS) har en stor inverkan genom att automatiskt utforma effektiva neurala nätverk arkitekturer. Den oöverkomliga beräkningsefterfrågan för konventionella NAS-algoritmer (t.ex. 10 4 GPU timmar) gör det svårt att direkt söka arkitekturer på storskaliga uppgifter (t.ex. AvbildaNet). Differentierbara NAS-enheter kan minska kostnaden för GPU-timmar genom en kontinuerlig representation av nätverksarkitekturen, men drabbas av problemet med hög GPU-minnesförbrukning (växa linjärt w.r.t. kandidat inställd storlek). Som ett resultat, de behöver för att använda proxy uppgifter, såsom utbildning på en mindre datauppsättning, eller lärande med bara några block, eller träning bara för några epoker. Dessa arkitekturer optimerade på proxyuppgifter är inte garanterade att vara optimal på måluppgift. I det här dokumentet presenterar vi Proxyless-NAS som direkt kan lära sig arkitekturerna för storskaliga måluppgifter och hårdvaruplattformar. Vi tar itu med problemet med hög minnesförbrukning för olika NAS-enheter och minskar beräkningskostnaden (GPU-timmar och GPU-minne) till samma nivå av regelbunden träning samtidigt som vi fortfarande tillåter en stor kandidatuppsättning. Experiment på CIFAR-10 och ImageNet visar effektiviteten av direktion och specialisering. På CIFAR-10, vår modell uppnår 2,08% testfel med endast 5,7M parametrar, bättre än den tidigare state-of-the-art arkitektur AmoebaNet-B, samtidigt som du använder 6× färre parametrar. På ImageNet uppnår vår modell 3,1% bättre topp-1 noggrannhet än MobileNetV2, samtidigt som den är 1,2× snabbare med uppmätt GPU latency. Vi tillämpar även ProxylessNAS för specialiserade neurala arkitekturer för hårdvara med direkta hårdvarumått (t.ex. latency) och ge insikter för effektiv CNN arkitekturdesign. 1 1 Förskolade modeller och utvärderingskod ges ut på https://github.com/MIT-HAN-LAB/ProxylessNAS. Figur 1: ProxylessNAS optimerar direkt neurala nätverksarkitekturer på måluppgift och hårdvara. Dra nytta av den direkta och specialisering, kan ProxylessNAS uppnå anmärkningsvärt bättre resultat än tidigare proxy-baserade metoder. Proxy (figur 1 ). Vi tar också bort begränsningen av upprepade block i tidigare NAS-enheter Liu et al., 2018c) och låter alla block läras och specificeras. För att uppnå detta minskar vi beräkningskostnaden (GPU-timmar och GPU-minne) för arkitektursökning till samma nivå av regelbunden utbildning på följande sätt. GPU timvis, inspirerad av nya verk (Liu et al., 2018c; Bender et al., 2018) formulerar vi NAS som en process för beskärning av sökvägar. Specifikt tränar vi direkt ett överparameteriserat nätverk som innehåller alla kandidatbanor ( Figur 2). Under utbildningen introducerar vi uttryckligen arkitekturparametrar för att lära oss vilka vägar som är överflödiga, medan dessa redundanta vägar beskärs i slutet av utbildningen för att få en kompakt optimerad arkitektur. På så sätt behöver vi bara träna ett enda nätverk utan meta-controller (eller hypernätverk) under arkitektursökningen. Men naivt med alla kandidatvägar leder till GPU-minnesexplosion (Liu et al., 2018c; Bender et al., 2018), eftersom minnesförbrukningen växer linjärt w.r.t. Antalet val. Således, GPU minne-wise, vi binarize arkitekturparametrarna (1 eller 0) och tvinga bara en väg för att vara aktiv vid körtid, vilket minskar det nödvändiga minnet till samma nivå av utbildning en kompakt modell. Vi föreslår en lutningsbaserad metod för att träna dessa binariserade parametrar baserat på Bina-ryConnect (Courbariaux et al., 2015). Dessutom, för att hantera icke-differentiable hårdvarumål (med latency som exempel) för att lära specialiserade nätverksarkitekturer på målhårdvara, modellerar vi nätverk latency som en kontinuerlig funktion och optimerar den som regularization förlust. Dessutom presenterar vi även en REINFORCE-baserad (Williams, 1992) algoritm som en alternativ strategi för att hantera hårdvarumått. I våra experiment på CIFAR-10 och ImageNet, dra nytta av den direkta och specialisering, vår metod kan uppnå starka empiriska resultat. På CIFAR-10 når vår modell 2,08% testfel med endast 5,7M parametrar. På ImageNet uppnår vår modell 75,1% topp-1 noggrannhet som är 3,1% högre än MobileNetV2 (Sandler et al., 2018) samtidigt som den är 1,2× snabbare. Våra bidrag kan sammanfattas på följande sätt: • ProxylessNAS är den första NAS-algoritmen som direkt lär sig arkitekturer på den storskaliga datauppsättningen (t.ex. ImageNet) utan någon proxy medan fortfarande tillåter en stor kandidat ställa och ta bort begränsningen av upprepa block. Det utvidgade effektivt sökområdet och uppnådde bättre prestanda. • Vi tillhandahåller ett nytt sökvägsperspektiv för NAS-enheten, vilket visar en nära anslutning mellan NAS-enheten och modellkomprimering (Han et al., 2016). Vi sparar minnesförbrukningen i en storleksordning genom att använda bana-nivå binarization. • Vi föreslår en ny gradientbaserad metod (latensregleringsförlust) för hantering av hårdvarumål (t.ex. latency) (t.ex. "latency") och "latency" (t.ex. "latency" (t.ex. "latency") (t.ex. "latency" eller "latency" (t.ex. latency). Med tanke på olika hårdvaruplattformar: CPU/GPU/FPGA/TPU/NPU, ProxylessNAS möjliggör hårdvarumedveten neural nätverk specialisering som är exakt optimerad för målhårdvaran. Till vår bästa kunskap är det första arbetet med att studera specialiserade neurala nätverksarkitekturer för olika maskinvaruarkitekturer. • Omfattande experiment visade fördelen med direktionen egendom och specialisering egenskapen ProxylessNAS. Det uppnådde state-of-the-art noggrannhet prestanda på CIFAR-10 och ImageNet under latency begränsningar på olika hårdvaruplattformar (GPU, CPU och mobiltelefon). Vi analyserar också insikterna i effektiva CNN-modeller specialiserade på olika hårdvaruplattformar och ökar medvetenheten om att specialiserad neural nätverksarkitektur behövs på olika hårdvaruarkitekturer för effektiv inferens.
ProxylessNAS REF minskar minnesförbrukningen genom att anta en strategi för att släppa vägen.
54,438,210
ProxylessNAS: Direct Neural Architecture Search on Target Task and Hardware
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
5,682
Abstract-En viktig aspekt av människans perception är förväntan, som vi i stor utsträckning använder i våra dagliga aktiviteter när vi interagerar med andra människor såväl som med vår omgivning. Att förutse vilka aktiviteter en människa kommer att göra härnäst (och hur) kan göra det möjligt för en hjälprobot att planera framåt för reaktiva reaktioner. Dessutom kan förväntan till och med förbättra detektionsnoggrannheten i tidigare aktiviteter. Utmaningen är dock tvåfaldig: Vi måste fånga den rika kontexten för att modellera aktiviteter och objektförmögenhet, och vi måste förutse fördelningen över ett stort utrymme av framtida mänskliga aktiviteter. I detta arbete representerar vi varje möjlig framtid med hjälp av ett förutseende temporalt villkorligt slumpmässigt fält (ATCRF) som modellerar de rika rumsliga-temporala relationerna genom objektförmågor. Vi betraktar sedan varje ATCRF som en partikel och representerar fördelningen över potentiella framtider med hjälp av en uppsättning partiklar. I en omfattande utvärdering av CAD-120 human aktivitet RGB-D dataset visar vi först att förväntan förbättrar resultaten från hjärtdetektering. Vi visar sedan att för nya ämnen (som inte setts i träningssetet) får vi en aktivitetsförväntning noggrannhet (definierad som om en av de tre bästa förutsägelserna faktiskt inträffade) på 84,1, 74,4 och 62,2 procent för en förväntanstid på 1, 3 respektive 10 sekunder. Slutligen visar vi också en robot som använder vår algoritm för att utföra några reaktiva svar.
Dessutom införlivade Ref-referensdokumentet föremålsförmågor för att förutse mänsklig verksamhet för reaktiva reaktioner.
1,121,245
Anticipating Human Activities Using Object Affordances for Reactive Robotic Response
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
5,683
Esignatörer av säkerhetskänsliga program talar ibland om en kompromiss mellan att uppnå stark säkerhet och att göra programvara lätt att använda. När vi letar efter sätt att justera en befintlig design, användbarhet förbättringar verkar ge lättare äventyras programvara, och lägga säkerhetsåtgärder verkar göra programvara tråkig att använda eller svårt att förstå. Ändå har designers inte råd att försumma antingen-både säkerhet och användbarhet misslyckanden kan göra en produkt värdelös. Konflikter mellan säkerhet och användbarhet kan ofta undvikas genom en annan inställning till säkerhet i designprocessen och själva designen. Varje designproblem innebär handel av många faktorer, men de mest framgångsrika design hitta sätt att uppnå flera mål samtidigt. Därför diskuterar jag i den här artikeln när och hur vi kan få säkerhet och användbarhet i linje genom dessa huvudpunkter: • Säkerhet och användbarhet element kan inte strös på en produkt som magiska älvstoft. Vi måste införliva båda målen under hela designprocessen. När säkerhet och användbarhet inte längre behandlas som tillägg kan vi utforma dem tillsammans för att undvika konflikter. • Vi kan se säkerhet och användbarhet som aspekter av ett gemensamt mål: att uppfylla användarnas förväntningar. Detta innebär att upprätthålla en överenskommelse mellan ett systems säkerhetstillstånd och användarens mentala modell, som båda förändras över tiden. • En viktig teknik för att anpassa säkerheten och användbarheten är att integrera säkerhetsbeslut i användarnas arbetsflöden genom att dra slutsatsen att behörighetshandling redan är en del av deras primära uppgift. Jag tillämpar dessa punkter på tre klasser av dagliga säkerhetsproblem: maskar, cookiehantering och phishing attacker. Två antaganden ligger till grund för min diskussion. Först antar jag att en känd användare, bortser från problemet med att autentisera användaren. Den här artikeln kommer inte att bidra med några insikter om behörighetskontroll. För det andra antar jag att de partier som vi har för avsikt att tjäna har en ömsesidigt förstådd ram av acceptabelt beteende. (Mördiga parter kan försöka sig på ett oacceptabelt beteende, men vi är inte intresserade av att tjäna deras behov.) Om till exempel musikdistributörerna vill införa kopieringsrestriktioner som musiklyssnarna finner orimliga, då kan inte programvarudesigner betjäna både distributörer och lyssnare utan att kompromissa. I en sådan situation beror konflikten inte på användbarhetsfrågor utan på meningsskiljaktigheter mellan människor om politik, vilket är ett annat problem. Att lösa sådana tvister faller utanför ramen för denna diskussion. För att förstå hur säkerhet och användbarhet kommer i konflikt under programvarudesign, kan det vara bra att titta på denna spänning ur båda synvinklarna. Som säkerhetsutövare kan du ha blivit ombedd att ta en nästan komplett produkt och göra den säkrare. Du vet då direkt hur svårt och ineffektivt det är att försöka lägga till säkerhet i sista minuten. Även om vi
Till exempel, Yee Ref har föreslagit att anpassa säkerhet och användbarhet genom att överväga användarnas arbetsflöde och härleda behörigheter från användarnas uppgifter.
206,485,281
Aligning Security and Usability
{'venue': 'IEEE Security and Privacy', 'journal': None, 'mag_field_of_study': ['Computer Science']}
5,684
Inspirerad av den praktiska betydelsen av sociala nätverk, ekonomiska nätverk, biologiska nätverk och så vidare, har studier om stora och komplexa nätverk rönt stor uppmärksamhet under de senaste åren. Länkförutsägelse är en grundläggande fråga för att förstå de mekanismer genom vilka nya länkar läggs till nätverken. Vi introducerar metoden för robust huvudkomponentanalys (robust PCA) i länk förutsägelse, och uppskatta de saknade posterna i adjacency matrisen. Å ena sidan är vår algoritm baserad på matrisens gleshet och låga kvalitet, å andra sidan fungerar den också mycket bra när nätverket är tätt. Detta beror på att ett relativt tätt verkligt nätverk också är glest i jämförelse med den fullständiga grafen. Enligt omfattande experiment på verkliga nätverk från olikartade fält, när målnätverket är uppkopplat och tillräckligt tätt, oavsett vikt eller oviktad, är vår metod visat sig vara mycket effektiv och med förutsägelse noggrannhet avsevärt förbättras jämfört med många state-of-the-art algoritmer.
År 2017 var Pech et al. REF införde robust huvudkomponentanalys (robust PCA) metod i länk förutsägelse och uppskattade de saknade länkarna i adjacency matrisen.
8,527,332
Link Prediction via Matrix Completion
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Physics', 'Computer Science']}
5,685
Vi föreslår en algoritm för meta-lärande som är modellagnostisk, i den meningen att den är kompatibel med alla modeller som är utbildade med lutningsnedstigning och kan tillämpas på en mängd olika inlärningsproblem, inklusive klassificering, regression och förstärkningslärande. Målet med meta-lärande är att utbilda en modell på en mängd olika inlärningsuppgifter, så att den kan lösa nya inlärningsuppgifter med bara ett litet antal träningsprover. I vårt tillvägagångssätt tränas modellens parametrar explicit så att ett litet antal gradientsteg med en liten mängd träningsdata från en ny uppgift ger bra generaliseringsprestanda på den uppgiften. I själva verket tränar vår metod modellen för att vara lätt att finjustera. Vi visar att detta tillvägagångssätt leder till state-of-the-art prestanda på två få bilder klassificering riktmärken, ger goda resultat på få-shot regression, och påskyndar finjustering för policy gradient förstärkning lärande med neurala nätverk politik.
Ett populärt exempel på dessa, MAML, direkt lär sig en initiering av nätverksparametrarna, som det kan anpassa sig till en ny uppgift från uppgiften distribution i bara ett mycket litet antal gradient steg REF.
6,719,686
Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
5,686
häst zebra zebra häst Sommar Vinter vinter vinter vinter sommar Fotografering Van Gogh Cezanne Monet Ukiyo-e Monet Bilder Monet foto foto Monet Figur 1: Med tanke på två oordnade bildsamlingar X och Y, vår algoritm lär sig att automatiskt "översätta" en bild från en till den andra och vice versa. Exempel ansökan (botten): med hjälp av en samling målningar av en berömd konstnär, lära sig att göra en användares fotografi i deras stil. Image-to-image översättning är en klass av vision och grafik problem där målet är att lära sig kartläggningen mellan en ingångsbild och en utgångsbild med hjälp av en utbildning uppsättning av anpassade bildpar. För många uppgifter kommer dock inte parade träningsdata att finnas tillgängliga. Vi presenterar ett tillvägagångssätt för att lära sig översätta en bild från en källkodsdomän X till en måldomän Y i avsaknad av parade exempel. Vårt mål är att lära sig en kartläggning G : X → Y sådan att distributionen av bilder från G(X) är oskiljaktig från distributionen Y med hjälp av en kontradiktorisk förlust. Eftersom denna kartläggning är mycket underkonsekventa, vi par det med en invers kartläggning F : Y → X och införa en cykelkonsistens förlust att push F (G(X)) på X (och vice versa). Kvalitativa resultat presenteras på flera uppgifter där parade träningsdata inte finns, inklusive insamling stil överföring, objekttransfiguration, säsong överföring, fotoförbättring, etc. Kvantitativa jämförelser mot flera tidigare metoder visar hur överlägsen vår strategi är.
I detta sammanhang har Cycle GAN REF visat möjligheten till bild-till-bild-översättning utan parade träningsbilder.
206,770,979
Unpaired Image-to-Image Translation Using Cycle-Consistent Adversarial Networks
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
5,687
Vi föreslår ett nytt ramverk för att uppskatta generativa modeller via en kontradiktorisk process, där vi samtidigt utbildar två modeller: en generativ modell G som fångar datadistributionen, och en discriminativ modell D som uppskattar sannolikheten för att ett prov kommer från träningsdata snarare än G. Utbildningsförfarandet för G är att maximera sannolikheten för att D gör ett misstag. Detta ramverk motsvarar ett minimax 2-spelarspel. I utrymmet för godtyckliga funktioner G och D finns en unik lösning, där G återvinner träningsdatadistributionen och D är lika med 1 2 överallt. I det fall där G och D definieras av flerskiktsperceptroner kan hela systemet tränas med backpropagation. Det finns inget behov av någon Markov kedjor eller ovalsade approximativa inference nätverk under vare sig utbildning eller generering av prover. Experiment visar ramens potential genom kvalitativ och kvantitativ utvärdering av de producerade proven.
Generative Adversarial Network (GAN) metod REF är en generativ djup modell som sätter två nätverk mot varandra: en generativ modell G som fångar datadistributionen och en discriminativ modell D som skiljer mellan prover från G och bilder som dras från träningsdata genom att förutsäga en binär etikett.
1,033,682
Generative Adversarial Nets
{'venue': 'NIPS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
5,688
Motiverade av det senaste arbetet med Renegar [21] presenterar vi nya beräkningsmetoder och tillhörande beräkningsgarantier för att lösa problem med konvex optimering med hjälp av första ordningens metoder. Vårt problem av intresse är den allmänna konvex optimering problem f * = min x.Q f (x), där vi antar kunskap om en strikt nedre gräns f slb < f *. [Indeed, f slb är naturligt känt när optimera många förlustfunktioner i statistik och maskininlärning (minst-kvartor, logistisk förlust, exponentiell förlust, total variationsförlust, etc.) liksom i Renegars transformerade version av standardkonikoptimeringsproblemet [21], i alla dessa fall har man f slb = 0 < f *.] Vi inför en ny funktionell åtgärd som kallas tillväxtkonstanten G för f (·), som mäter hur snabbt nivåerna av f (·) växer i förhållande till funktionsvärdet, och som spelar en grundläggande roll i komplexitetsanalysen. När f (·) är icke-smooth, presenterar vi nya beräkningsgarantier för Subgradient Descent Method och för utjämningsmetoder, som kan förbättra befintliga beräkningsgarantier på flera sätt, särskilt när den initiala iterat x 0 är långt ifrån den optimala lösningen uppsättning. När f (·) är smidig, presenterar vi ett system för periodisk omstart av Accelerated Gradient Method som också kan förbättra befintliga beräkningsgarantier när x 0 är långt ifrån den optimala lösningen uppsättning, och i närvaro av ytterligare struktur presenterar vi ett system med parametriskt ökad utjämning som ytterligare förbättrar tillhörande beräkningsgarantier. 1 Problemförklaring och översikt över resultat Motiverad av det senaste arbetet med Renegar [21] presenterar vi nya beräkningsmetoder och tillhörande beräkningsgarantier för att lösa konvexa optimeringsproblem med hjälp av första ordningens metoder. Vårt problem av intresse är följande optimeringsproblem:
I REF införde författarna en ny smidig approximationsalgoritm genom att utnyttja den strikta nedre gränsen för den objektiva funktionen och ett funktionstillväxttillstånd.
17,469,145
New Computational Guarantees for Solving Convex Optimization Problems with First Order Methods, via a Function Growth Condition Measure
{'venue': None, 'journal': 'arXiv: Optimization and Control', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
5,689
Vi fokuserar på den utmanande uppgiften med semantisk segmentering i realtid i detta dokument. Den finner många praktiska tillämpningar och är ändå med grundläggande svårighet att minska en stor del av beräkning för pixel-wise etikett slutledning. Vi föreslår en komprimerad PSPNet-baserad bildkaskad nätverk (ICNet) som innehåller multi-upplösning grenar under korrekt etikett vägledning för att ta itu med denna utmaning. Vi ger en fördjupad analys av vårt ramverk och introducerar kaskadfunktionen fusion för att snabbt uppnå hög kvalitet segmentering. Vårt system ger realtidsslut på ett enda GPU-kort med anständiga kvalitetsresultat utvärderade på utmanande Cityscapes dataset.
ICNet REF föreslår ett bildkaskadnätverk som innehåller flera upplösningsgrenar.
8,589,505
ICNet for Real-Time Semantic Segmentation on High-Resolution Images
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
5,690
Abstract Biclustering är ett viktigt analysförfarande för att förstå de biologiska mekanismerna från microarray genuttrycksdata. Flera algoritmer har föreslagits för att identifiera biclusters, men mycket lite har gjorts för att jämföra prestandan hos olika algoritmer på verkliga datauppsättningar och kombinera de resulterande biclusters till en enhetlig rankning. I detta dokument föreslår vi differential co-expression ram och en differential co-expression scoring funktion för att objektivt kvantifiera kvalitet eller godhet hos en bicluster av gener baserat på observationen att gener i en bicluster samuttrycks i förhållandena tillhörde bicluster och inte samuttrycks i de andra betingelserna. Dessutom föreslår vi en poängfunktion för att stratifiera bikluster i tre typer av samuttryck. Vi använde de föreslagna poängsättningsfunktionerna för att förstå prestandan och beteendet hos de fyra väletablerade biklustrande algoritmerna på sex verkliga datauppsättningar från olika domäner genom att kombinera deras utdata till en enhetlig rankning. Differentiell co-expression ram är användbar för att ge kvantitativ och objektiv bedömning av godheten hos bikluster av samuttryckta gener och prestanda av bikluster algoritmer för att identifiera co-expression bikluster. Det hjälper också till att kombinera biclusters utdata från olika algoritmer till en enhetlig rankning d.v.s. metabicluster.
Chia och Karuturi använde en differential co-uttryck ram för att jämföra algoritmer på verkliga microarray dataset REF.
127,328
Differential co-expression framework to quantify goodness of biclusters and compare biclustering algorithms
{'venue': 'Algorithms for Molecular Biology', 'journal': 'Algorithms for Molecular Biology', 'mag_field_of_study': ['Medicine', 'Computer Science']}
5,691
Med den snabba utvecklingen av mobila enheter och crowdsourcing plattformar, den rumsliga crowdsourcing har fått mycket uppmärksamhet från databasgemenskapen, specifikt, rumsliga crowdsourcing avser att skicka en plats-baserad begäran till arbetstagare beroende på deras positioner. I detta dokument anser vi att det är ett viktigt rumsligt crowdsourcing problem, nämligen tillförlitlig mångfaldsbaserad rumslig crowdsourcing (RDB-SC), där rumsliga uppgifter (t.ex. att ta videor/foton av ett landmärke eller fyrverkerier, och kontrollera om parkeringsplatser finns tillgängliga) är tidsbegränsade, och arbetstagare rör sig mot vissa riktningar. Vårt RDB-SC problem är att tilldela arbetstagare till rumsliga uppgifter så att slutförande tillförlitlighet och rumsliga/temporala skillnader i rumsliga uppgifter maximeras. Vi bevisar att RDB-SC-problemet är NP-hårdt och svårhanterligt. Därför föreslår vi tre effektiva approximationsstrategier, inklusive giriga, provtagningar och splitter-och-konquer algoritmer. För att förbättra effektiviteten utformar vi också ett effektivt kostnadsmodellbaserat index, som dynamiskt kan underhålla rörliga arbetstagare och rumsliga uppgifter med låga kostnader, och på ett effektivt sätt underlätta insamlingen av RDB-SC-svar. Genom omfattande experiment demonstrerar vi effektiviteten och effektiviteten i våra föreslagna strategier över både verkliga och syntetiska dataset. där parametern β till [0, 1]. Här är β en viktbalansering mellan SD och TD, som beror på det tillämpningskrav som anges av uppgiftsbegäran om ti. När β = 0, vi anser endast TD; när β = 1, vi kräver SD endast i den rumsliga uppgiften ti. Därför, under möjliga världar semantik, i detta dokument, kommer vi att överväga den förväntade rumsliga/temporala mångfalden (definierad senare) i våra crowdsourcing problem. RDB-SC-problemet. Vi definierar vårt RDB-SC-problem nedan. I denna förordning gäller följande definitioner: (Tillförlitlig mångfald-baserade rumsliga Crowdsourcing, RDB-SC) Med tanke på m tidsbegränsade rumsliga uppgifter i T, och ndy-I j,k e i −s i) · log( I j,k e i −s i ), för j ≤ k; dessutom MT D [j][k] = 0, om j > k. Formellt, för j ≤ k, har vi:
Äntligen, Cheng et al. I REF studeras problemet med tillförlitlig mångfaldsbaserad geografisk crowdsourcing där det finns två kriterier som ska optimeras samtidigt: tillförlitlighet och mångfald.
4,251,767
Reliable Diversity-Based Spatial Crowdsourcing by Moving Workers
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
5,692
ABSTRACT Från dagens konventionella bilar till morgondagens självkörande bilar kommer framsteg inom tekniken att göra det möjligt för fordon att utrustas med mer och mer sofistikerade avkänningsanordningar, t.ex. kameror. När fordon får förmågan att fungera som mobila sensorer som bär användbar trafikinformation, människor och fordon delar sensordata för att förbättra körupplevelsen. Detta dokument beskriver en fordonsbaserad molntjänst för ruttplanering, där användare samarbetar för att dela trafikbilder med hjälp av sina fordons ombordkameror. Vi presenterar arkitekturen för ett system för delning av trafikbilder som kallas social fordonsnavigering, vilket gör det möjligt för förare i fordonsmolnet att rapportera och dela visuell trafikinformation som kallas NaviTweets. En uppsättning NaviTweets filtreras sedan, förfinas och kondenseras i en koncis, användarvänlig ögonblicksbild sammanfattning av rutten av intresse, kallas en trafik smälta. Dessa nedbrytningar kan ge mer relevant och tillförlitlig information om vägsituationen och kan komplettera förutsägelser, t.ex. beräknad ankomsttid, och därmed stödja användarnas vägbeslut. Som bevis på koncept, presenterar detta dokument systemdesign och en prototyp implementation som körs på Android smartphone-plattformen, tillsammans med dess utvärdering.
Detta föreslagna program kallas NaviTweets expanderas senare för att dra nytta av ett fordonsmoln, vilket gör det möjligt att rapportera och dela trafikinformation REF.
10,898,848
Seeing Is Believing: Sharing Real-Time Visual Traffic Information via Vehicular Clouds
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
5,693
Abstract-Eftersom vi rör oss mot sakernas Internet (IoT), ökar antalet sensorer som används runt om i världen i snabb takt. Marknadsforskningen har under det senaste årtiondet uppvisat en betydande ökning av antalet sensorer och har förutspått en betydande ökning av tillväxttakten i framtiden. Dessa sensorer genererar kontinuerligt enorma mängder data. Men för att kunna tillföra mervärde till råsensordata måste vi förstå det. Insamling, modellering, resonemang och distribution av sammanhang i förhållande till sensordata spelar en avgörande roll i denna utmaning. Sammanhangsmedvetna datorer har visat sig vara framgångsrika när det gäller att förstå sensordata. I detta dokument undersöker vi kontextmedvetenhet utifrån ett IoT-perspektiv. Vi presenterar den nödvändiga bakgrunden genom att införa IoT paradigm och kontext-medvetna grunder i början. Sedan ger vi en djupgående analys av kontextens livscykel. Vi utvärderar en undergrupp av projekt (50) som representerar de flesta av de forsknings- och kommersiella lösningar som föreslagits inom området kontextmedveten databehandling som genomförts under det senaste årtiondet (2001–2011) baserat på vår egen taxonomi. Slutligen, på grundval av vår utvärdering, lyfter vi fram de lärdomar som vi kan dra av det förflutna och några möjliga riktlinjer för framtida forskning. Enkäten behandlar ett brett spektrum av tekniker, metoder, modeller, funktioner, system, applikationer och mellanprogramslösningar relaterade till kontextmedvetenhet och sakernas internet. Vårt mål är inte bara att analysera, jämföra och konsolidera tidigare forskningsarbete utan också att uppskatta deras resultat och diskutera deras tillämplighet på sakernas internet.
En undersökning om kontextmedveten databehandling för sakernas Internet Ref har erkänt sensorsökning och -val som en kritisk uppgift i automatiserade sensorkonfigurationer och sammanhangsupptäcktsprocesser.
3,348,390
Context Aware Computing for The Internet of Things: A Survey
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
5,694
Abstract-Autonoma fordon ger nya möjligheter att hantera trafikstockningar genom flexibla trafikstyrningssystem. I detta dokument undersöks möjligheten att auktioner kan köras vid varje korsning för att avgöra i vilken ordning förare utför motstridiga rörelser. Även om ett sådant system skulle vara ogenomförbart för mänskliga förare, kan autonoma fordon snabbt och sömlöst bjuda för mänskliga passagerares räkning. I detta dokument undersöks tillämpningen av autonoma fordonsauktioner vid traditionella korsningar med stoppskyltar och trafiksignaler samt autonoma bokningsprotokoll. I detta dokument behandlas också frågan om rättvisa genom att en välvillig systemagent försöker behålla en rimlig restid för förare med låg budget. En implementering av mekanismen i en mikroskopisk simulator presenteras, och experiment på stadskartor utförs.
Carlino m.fl. REF beskrev ett trafikstyrningssystem där auktioner utförs i korsningar för att bestämma användningen.
1,522,281
Auction-based autonomous intersection management
{'venue': '16th International IEEE Conference on Intelligent Transportation Systems (ITSC 2013)', 'journal': '16th International IEEE Conference on Intelligent Transportation Systems (ITSC 2013)', 'mag_field_of_study': ['Engineering', 'Computer Science']}
5,695
Aspekttermextrahering är en av de viktiga deluppgifterna i aspektbaserad känsloanalys. Tidigare studier har visat att med hjälp av beroende träd struktur representation är lovande för denna uppgift. De flesta beroende trädstrukturer omfattar dock endast en riktningsutbredning på beroendeträdet. I detta dokument föreslår vi först ett nytt tvåvägs beroende träd nätverk för att extrahera beroende strukturer funktioner från de givna meningarna. Den viktigaste idén är att uttryckligen införliva båda de representationer som vunnits separat från nedifrån-och-upp-utbredningen på det givna beroendet syntaktikträdet. En end-to-end ram utvecklas sedan för att integrera inbäddade representationer och BiLSTM plus CRF för att lära sig både trädstrukturerade och sekventiella funktioner för att lösa aspekten termen extraktion problem. Experimentella resultat visar att den föreslagna modellen överträffar de senaste baslinjemodellerna på fyra referensdatauppsättningar för SemEval. Index Termer-Aspect term extraktion, beroende syntaktik träd, känsloanalys, rekursiva neurala nätverk.
I REF föreslogs en end-to-end-metod för att integrera BiLSTM, CRF och ordinslag för aspekttermextrahering.
29,157,709
Improving Aspect Term Extraction With Bidirectional Dependency Tree Representation
{'venue': 'TASLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
5,696
Abstract-Code kommentarer är viktiga artefakter i programvara. Javadocs kommentarer används ofta i Java för API-specifikationer. API-utvecklare skriver Javadoc-kommentarer, och API-användare läser dessa kommentarer för att förstå API:et, t.ex. läsa en Javadoc-kommentar för en metod istället för att läsa metodkroppen. En inkonsekvens mellan Javadoc-kommentaren och kroppen för en metod indikerar antingen ett fel i kroppen eller, effektivt, ett fel i kommentaren som kan vilseleda metodväljarna att införa fel i deras kod. Vi presenterar en ny metod, kallad @TCOMMENT, för att testa Javadoc kommentarer, särskilt metod egenskaper om null värden och relaterade undantag. Vår strategi består av två komponenter. Den första komponenten tar som indata källfiler för ett Java-projekt och analyserar automatiskt den engelska texten i Javadoc kommentarer för att härleda en uppsättning sannolika egenskaper för en metod i filerna. Den andra komponenten genererar slumpmässiga tester för dessa metoder, kontrollerar de erhållna egenskaperna och rapporterar inkonsekvenser. Vi utvärderade @TCOMMENT på sju open-source projekt och fann 29 inkonsekvenser mellan Javadoc kommentarer och metod organ. Vi rapporterade 16 av dessa inkonsekvenser, och 5 har redan bekräftats och fastställts av utvecklarna.
@TKommentar är en teknik som upptäcker inkonsekvenser mellan en metods parametrar tolerans av nollvärden och dess relaterade Javadoc kommentarer REF.
11,189,276
@tComment: Testing Javadoc Comments to Detect Comment-Code Inconsistencies
{'venue': '2012 IEEE Fifth International Conference on Software Testing, Verification and Validation', 'journal': '2012 IEEE Fifth International Conference on Software Testing, Verification and Validation', 'mag_field_of_study': ['Computer Science']}
5,697
Abstract-Software Defined Networking (SDN) är ett framväxande nätverksstyrningsparadigm fokuserat på logisk centralisering och programmerbarhet. Samtidigt är distribuerade routingprotokoll, framför allt OSPF och IS-IS, fortfarande vanliga i IP-nätverk, eftersom de ger kortast möjliga routing, snabb topologisk konvergens efter nätfel och, kanske viktigast av allt, det förtroende som bygger på årtionden av tillförlitlig drift. Därför är en hybrid SDN/OSPF-operation fortfarande ett önskvärt förslag. I detta dokument föreslår vi en ny metod för hybriddrift av SDN/OSPF. Vår metod skiljer sig från andra hybrida tillvägagångssätt, eftersom den använder SDN-noder för att partitionera en OSPF-domän till underdomäner och därmed uppnå trafiktekniska funktioner jämförbara med full SDN-drift. Vi placerar SDN-aktiverade routrar som subdomäna gränsnoder, medan driften av OSPF-protokollet fortsätter opåverkad. På så sätt kan SDN-styrenheten justera routingprotokolluppdateringar för trafiktekniska ändamål innan de översvämmas in i underdomäner. Medan lokal routing inuti deldomäner är stabil hela tiden, kan inter-sub-domänvägar optimeras genom att bestämma rutterna i varje korsad deldomän. Eftersom majoriteten av trafiken i icke-triviala topologier måste passera flera subdomäner, bekräftar våra simuleringsresultat att några SDN-noder tillåter trafikteknik upp till en grad som gör full SDN-utbyggnad onödig.
Dela upp och erövra REF använder SDN-noder för att partitionera OSPF-domänen i underdomäner för att uppnå trafiktekniska funktioner jämförbara med full SDN-drift.
6,480,529
Divide and Conquer: Partitioning OSPF networks with SDN
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
5,698
Den framgångsrika utbyggnaden av säkra och pålitliga uppkopplade och autonoma fordon kommer i hög grad att bero på förmågan att ta fram robusta och effektiva säkerhetslösningar för att motstå sofistikerade cyberattacker och lappa ihop kritiska sårbarheter. Pseudonym Public Key Infrastructure (PPKI) är en lovande strategi för att säkra fordonsnätverk samt säkerställa data- och platsintegritet och dölja fordonens verkliga identiteter. Men pseudonymdistribution och -hantering påverkar PPPKI:s skalbarhet på grund av det stora antal digitala certifikat som krävs för ett enda fordon. I detta dokument fokuserar vi på processen för återkallande av certifikat och föreslår en mångsidig ram med låg komplexitet för att underlätta distributionen av de certifikatåterkallningslistor (CRL) som utfärdats av certifieringsmyndigheten (CA). CRL komprimering uppnås genom optimerade Bloom filter, som garanterar en betydande overhead minskning med en konfigurerbar hastighet av falska positiva. Våra resultat visar att distributionen av komprimerade referenslaboratorium avsevärt kan förbättra systemets skalbarhet utan att göra det mer komplicerat att återkalla systemet.
Rigazzi m.fl. REF föreslog en tillförlitlig kommunikationsram baserad på Bloom-filter för att komprimera certifikatåterkallningslistorna.
32,426,544
Optimized Certificate Revocation List Distribution for Secure V2X Communications
{'venue': '2017 IEEE 86th Vehicular Technology Conference (VTC-Fall)', 'journal': '2017 IEEE 86th Vehicular Technology Conference (VTC-Fall)', 'mag_field_of_study': ['Computer Science']}
5,699
Luftföroreningar har stor inverkan på koncentrationen av beståndsdelar i atmosfären vilket leder till effekter som global uppvärmning och sura regn. För att undvika sådana negativa obalanser i naturen är ett system för övervakning av luftföroreningar ytterst viktigt. I detta dokument försöker man utveckla en effektiv lösning för övervakning av föroreningar med hjälp av trådlösa sensornätverk (WSN) i realtid, nämligen system för övervakning av luftföroreningar i realtid. Kommersiellt tillgängliga diskreta gassensorer för avkänning av koncentrationen av gaser som CO 2, NO 2, CO och O 2 kalibreras med hjälp av lämplig kalibreringsteknik. Dessa förkalibrerade gassensorer integreras sedan med de trådlösa sensorramarna för fältutbyggnad på campus och Hyderabad med hjälp av multihopdataaggregationsalgoritm. En lätt vikt middleware och ett webbgränssnitt för att visa levande föroreningsdata i form av siffror och diagram från testbäddarna utvecklades och gjordes tillgängliga från var som helst på internet. Andra parametrar som temperatur och fuktighet kändes också tillsammans med gaskoncentrationer för att möjliggöra dataanalys genom datafusionstekniker. Experiment som utförs med hjälp av det utvecklade systemet för övervakning av luftföroreningar under olika fysiska förhållanden visar att systemet samlar in tillförlitliga källor till uppgifter om förorening av finkorniga ämnen i realtid.
Ett system för övervakning av luftföroreningar i realtid är en effektiv lösning för övervakning av föroreningar med hjälp av trådlösa sensornätverk (WSN) REF.
16,099,019
REAL TIME WIRELESS AIR POLLUTION MONITORING SYSTEM
{'venue': None, 'journal': 'ICTACT Journal on Communication Technology', 'mag_field_of_study': ['Environmental Science']}
5,700
Abstract-Software återanvändning gör det möjligt för utvecklare att dra nytta av tidigare prestationer och underlättar betydande förbättringar av programvarans produktivitet och kvalitet. Programvaran återanvänder katalyserar produktivitetsförbättringar genom att undvika nyutveckling och kvalitetsförbättringar genom att integrera komponenter vars tillförlitlighet redan har fastställts. Denna studie tar upp en central forskningsfråga som ligger till grund för återanvändning av programvara – vilka faktorer kännetecknar framgångsrik återanvändning av programvara i storskaliga system? Forskningsstrategin är att undersöka, analysera och utvärdera programvara som återanvändas empiriskt av gruvprogramarkiv från en NASA-programvaruutvecklingsmiljö som aktivt återanvänder programvara. Denna programvara miljö framgångsrikt följer principer för återanvändning-baserad programvara utveckling för att uppnå en genomsnittlig återanvändning på 32 procent per projekt, vilket är den genomsnittliga mängden programvara antingen återanvändas eller ändras från tidigare system. Vi undersöker arkiven för 25 mjukvarusystem som sträcker sig från 3 000 till 112 000 källlinjer från denna programvarumiljö. Vi analyserar fyra klasser av programvarumoduler: moduler som återanvänds utan revidering, moduler som återanvänds med liten revidering (< 25 procent revidering), moduler som återanvänds med större revidering (25 procent revision), och nyutvecklade moduler. Vi tillämpar icke-parametriska statistiska modeller för att jämföra många utvecklingsvariabler över de 2,954 mjukvarumodulerna i systemen. Vi identifierar två kategorier av faktorer som kännetecknar framgångsrik återanvändningsbaserad mjukvaruutveckling av storskaliga system: moduldesignfaktorer och modulimplementeringsfaktorer. Vi utvärderar också felfrekvensen för de återanvända, modifierade och nyutvecklade modulerna. De moduldesignfaktorer som kännetecknar modulåteranvändning utan revidering var (efter normalisering efter storlek i källlinjer): få samtal till andra systemmoduler, många samtal till allmännyttiga funktioner, få input-output parametrar, få läsningar och skriver, och många kommentarer. Modulens implementationsfaktorer som karakteriserar modulåteranvändning utan revidering var små i källlinjer och (efter normalisering efter storlek i källlinjer): låg utvecklingssatsning och många uppdragsförklaringar. Modulerna som återanvänts utan revidering hade de minsta felen, de minsta felen per källlinje och de lägsta felkorrigeringsinsatserna. Modulerna återanvänds med större revidering hade den högsta felkorrigering ansträngning och högsta felisolering ansträngning samt de flesta förändringar, de flesta förändringar per källlinje, och högsta förändring korrigering ansträngning. Sammanfattningsvis beskriver vi framtida forskningsriktlinjer som bygger på dessa program återanvändning idéer och strategier.
Återanvändning av programvara gör det möjligt för utvecklare att utnyttja tidigare prestationer och underlättar betydande förbättringar av programvarans produktivitet och kvalitet REF.
9,025,096
Enabling reuse-based software development of large-scale systems
{'venue': 'IEEE Transactions on Software Engineering', 'journal': 'IEEE Transactions on Software Engineering', 'mag_field_of_study': ['Computer Science']}
5,701
Abstract-Heterogena ansiktsigenkänning (HFR) avser matchande ansiktsbilder som förvärvats från olika källor (dvs. olika sensorer eller olika våglängder) för identifiering. HFR spelar en viktig roll i både biometrisk forskning och industri. Trots lovande framsteg under de senaste åren är HFR fortfarande ett utmanande problem på grund av svårigheten att representera två heterogena bilder på ett enhetligt sätt. Befintliga HFR-metoder representerar antingen en bild som ignorerar den rumsliga informationen, eller förlitar sig på ett omvandlingsförfarande som komplicerar igenkänningsuppgiften. Med tanke på dessa problem föreslår vi en ny grafisk representationsbaserad HFR-metod (G-HFR) i detta dokument. Markov nätverk används för att representera heterogena bild patchar separat, vilket tar den rumsliga kompatibiliteten mellan angränsande bild patchar i beaktande. Ett kopplat representationsmått (CRSM) är utformat för att mäta likheten mellan erhållna grafiska representationer. Omfattande experiment som utförts på flera HFR-scenarier (tittad skiss, kriminalteknisk skiss, nära infraröd bild och termisk infraröd bild) visar att den föreslagna metoden överträffar toppmoderna metoder.
Med tanke på den otillräckliga användningen av rumslig ansiktsinformation föreslogs nyligen en grafisk representationsbaserad HFR-strategi.
14,923,176
Graphical Representation for Heterogeneous Face Recognition
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
5,702
En ordentlig säkerhetsarkitektur är en viktig del av genomförandet av robusta och tillförlitliga nätverksbaserade applikationer. Säkerhetsmönster har visat hur återkommande problem bäst kan lösas med beprövade lösningar. Även om de är avgörande för att säkerställa datasystemens konfidentialitet, integritet och tillgänglighet, behandlar inte säkerhetsmönstren uttryckligen (eller nödvändigtvis) enskilda personers integritet. Med utgångspunkt i befintliga integritetsmönster identifierar vi tre integritetsmönster för webbaserad aktivitet: INFORMAT KONSENT FÖR WEBBBASERADE TRANSAKTIONER, MASKED ONLINE TRAFIK och MINIMAL INFORMATION ASYMMETRY. Det första mönstret tar upp ett systemarkitektursproblem och bygger på Friedmans modell för informerat samtycke. Det andra och tredje mönstret ger stöd till slutanvändare och utvidgar Jiangs "Principle of Minimum Asymmetri". Dessa mönster beskriver hur användarna kan skydda sin integritet genom att både avslöja mindre om sig själva, och få mer information från den part som de kommunicerar med.
Till exempel integritetsmönster för webbaserad aktivitet, som beskrivs i REF-dokument hur man förmedlar sekretesspolicyer till slutanvändare under onlineinteraktioner.
2,646,863
Privacy patterns for online interactions
{'venue': "PLoP '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
5,703