src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Abstract-Cooperative inter-vehicular applikationer förlitar sig på utbyte av sända en-hop status meddelanden mellan fordon, kallade beacons. Den aggregerade belastningen på den trådlösa kanalen på grund av periodiska beacons kan förhindra överföring av andra typer av meddelanden, vad som kallas kanal trängsel på grund av beaconing aktivitet. I detta dokument, vi närmar oss problemet med att styra beaconing hastighet på varje fordon genom att modellera det som en Network Utility Maximization (NUM) problem. Detta gör det möjligt för oss att formellt tillämpa begreppet rättvisa när det gäller fördelning av satser i fordonsnätverk och att kontrollera avvägningen mellan effektivitet och rättvisa. NUM-metoden ger en rigorös ram för att utforma en bred familj av enkla och decentraliserade algoritmer, med bevisade konvergensgarantier för en rättvis fördelningslösning. I detta sammanhang fokuserar vi uteslutande på beaconing hastighetskontroll och föreslår Fair Adaptive Beaconing Rate för Intervehicular Communications (FABRIC) algoritm, som använder en viss skalad gradient projektion algoritm för att lösa den dubbla av NUM-problemet. Det önskade rättvisebegreppet i tilldelningen kan fastställas med en algoritmparameter. Simuleringsresultat validerar vår strategi och visar att FABRIC konvergerar till rättvis fördelning i multi-hop och dynamiska scenarier.
FABRIC REF baseras på ett problem med maximering av nätverksverktyget.
1,756,161
Distributed and Fair Beaconing Rate Adaptation for Congestion Control in Vehicular Networks
{'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']}
3,977
Innehållsbaserad bildsökning (CBIR) är en mekanism som används för att hämta liknande bilder från en bildsamling. I detta dokument introduceras en effektiv ny teknik för att förbättra prestandan för CBIR på grundval av visuella ord fusion av skalainvarianta funktion transform (SIFT) och lokala intensitet ordermönster (LIOP) deskriptorer. SIFT presterar bättre på skalförändringar och på invarianta rotationer. SIFT presterar dock inte bättre vid låga kontrast- och belysningsförändringar i en bild, medan LIOP presterar bättre under sådana omständigheter. SIFT presterar bättre även vid stor rotation och skalförändringar, medan LIOP inte presterar bra under sådana omständigheter. Dessutom är SIFT-funktionerna invarianta till viss förvrängning jämfört med LIOP. Den föreslagna tekniken bygger på de visuella orden fusion av SIFT- och LIOP-deskriptorer som övervinner de ovannämnda frågorna och avsevärt förbättrar CBIR:s prestanda. De experimentella resultaten av den föreslagna tekniken jämförs med en annan föreslagen ny fusionsteknik baserad på SIFT-LIOP-deskriptorer samt med de senaste CBIR-teknikerna. Den kvalitativa och kvantitativa analysen av tre bildsamlingar, nämligen Corel-A, Corel-B och Caltech-256, visar att den föreslagna tekniken är robust och bygger på visuell ordfusion jämfört med fusion och de senaste CBIR-teknikerna.
Dessutom, Yousuf et al. Förbättrad prestanda för CBIR på grundval av visuella ord fusion av SIFT och lokal intensitet ordning mönster (LIOP) deskriptorer REF.
55,656,472
A Novel Technique Based on Visual Words Fusion Analysis of Sparse Features for Effective Content-Based Image Retrieval
{'venue': None, 'journal': 'Mathematical Problems in Engineering', 'mag_field_of_study': ['Mathematics']}
3,978
Abstrakt. Virtuella undertecknare som kommunicerar på undertecknade språk är ett mycket intressant verktyg för att fungera som kommunikationsmedel med döva människor och förbättra deras tillgång till tjänster och information. Vi diskuterar i detta dokument viktiga faktorer i utformningen av virtuella signers när det gäller animeringsproblem. Vi visar särskilt att vissa aspekter av dessa signerade språk är utmanande för aktuella animeringsmetoder, och presenterar eventuella framtida forskningsriktningar som också skulle kunna gynna animeringen av virtuella tecken i större utsträckning.
En detaljerad diskussion om de viktiga faktorerna för utformningen av virtuella signers med avseende på animeringsproblemen föreslås i REF.
3,818,537
Why is the creation of a virtual signer challenging computer animation
{'venue': 'MIG', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,979
Abstrakt. I detta dokument beskrivs en stegvis metod för kontroll av avdrag med hjälp av testgenerering och dess fördelar illustreras med en uppsättning ofta förekommande verifieringsscenarier. Vi presenterar STADY, en ny integration av den konkoliska testgeneratorn PATHCRAWLER inom mjukvaruanalysplattformen FRAMA-C. Denna nya plugin behandlar en komplett formell specifikation av ett C-program under testgenerering och ger valideringsingenjören en användbar feedback i alla skeden av specifikations- och verifieringsuppgifter.
På detta område har dokument som Ref experimenterat med en stegvis metod för kontroll av avdrag med hjälp av testgenerering.
36,616,515
How Test Generation Helps Software Specification and Deductive Verification in Frama-C
{'venue': 'TAP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,980
Abstract-tillämpningar som omfattar spridning av information som är direkt relevant för människor (t.ex. tjänstereklam, nyhetsspridning, miljövarningar) är ofta beroende av att publicera-abonnemang, där nätverket levererar ett publicerat meddelande endast till de noder vars tecknade intressen matchar det. Publicera prenumeration är i princip särskilt användbart i mobila miljöer, eftersom det minimerar kopplingen mellan kommunikationsparter. Men så vitt vi vet har inget av de (små) verk som hanterade publicerings-prenumeration i mobila miljöer ännu behandlat intermittent anslutna mänskliga nätverk. Socialt besläktade personer tenderar att samlokaliseras ganska regelbundet. Denna egenskap kan utnyttjas för att driva vidare beslut i det räntebaserade routing skiktet som stöder publish-subscribe nätverket, vilket ger inte bara förbättrad prestanda utan också förmågan att övervinna höga hastigheter av rörlighet och långvariga frånkopplingar. I detta dokument föreslår vi SocialCast, en routing ram för publicering-abonnemang som utnyttjar förutsägelser baserade på mått på social interaktion (t.ex. mönster av rörelser mellan samhällen) för att identifiera de bästa informationsbärare. Vi lyfter fram de principer som ligger till grund för vårt protokoll, illustrerar dess funktion och utvärderar dess prestanda med hjälp av en rörlighetsmodell baserad på ett socialt nätverk som validerats med spår av verklig mänsklig rörlighet. Utvärderingen visar att förutsägelser om colocation och nodrörlighet gör det möjligt att upprätthålla en mycket hög och stadig händelseleverans med låg overhead och latens, trots variationen i densitet, antal repliker per meddelande eller hastighet.
Idén att använda social information i DTNs föreslogs först i REF som beskriver ett ramverk för publiceringsprenumeration baserat på information om sociala interaktioner mellan användare.
2,192,305
Socially-aware routing for publish-subscribe in delay-tolerant mobile ad hoc networks
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']}
3,981
Medicinska bilder kan avsiktligt eller oavsiktligt manipuleras både i den säkra medicinska systemmiljön och utanför, eftersom bilder ses, extraheras och överförs. Många organisationer har investerat mycket i bildarkivering och kommunikationssystem (PACS), som är avsedda att underlätta datasäkerheten. Det är dock vanligt att bilder, och register, extraheras från dessa för ett brett spektrum av accepterade metoder, såsom externa andra yttranden, överföring till en annan vårdgivare, begäran om patientdata, etc. Därför har det blivit nödvändigt att bekräfta förtroendet för arbetsflöden inom medicinsk avbildning. Digital vattenmärkning har erkänts som ett lovande tillvägagångssätt för att säkerställa de medicinska bildernas äkthet och integritet. Autenticitet avser förmågan att identifiera informationens ursprung och bevisa att uppgifterna avser rätt patient. Med integritet avses förmågan att säkerställa att informationen inte har ändrats utan tillstånd. I denna rapport presenteras en undersökning av medicinska bilder vattenmärkning och en tydlig scen för berörda forskare genom att analysera robustheten och begränsningarna i olika befintliga metoder. Detta omfattar studier av säkerhetsnivåerna för medicinska bilder inom PACS-systemet, klargörande av kraven för medicinska bilder vattenmärkning och fastställande av syftet med vattenmärkningsmetoder när de tillämpas på medicinska bilder.
En rad olika metoder kan användas för att verifiera äktheten av digitala medicinska bilder: REF.
3,475,060
Digital watermarking: Applicability for developing trust in medical imaging workflows state of the art review
{'venue': 'Comput. Sci. Rev.', 'journal': 'Comput. Sci. Rev.', 'mag_field_of_study': ['Computer Science']}
3,982
För att minska den betydande redundansen i djupa Convolutional Neural Networks (CNNs), de flesta befintliga metoder beskär neuroner genom att endast beakta statistiken över ett enskilt skikt eller två på varandra följande lager (t.ex., beskära ett lager för att minimera återuppbyggnadsfelet i nästa lager), ignorera effekten av felutbredning i djupa nätverk. Däremot hävdar vi att för att ett bevattnat nätverk ska behålla sin prediktiva kraft, är det viktigt att beskära neuroner i hela neuronnätverket gemensamt baserat på ett enhetligt mål: minimera återuppbyggnadsfelet av viktiga svar i det "slutliga responsskiktet" (FRL), som är det andra tolastskiktet före klassificeringen. Specifikt, vi tillämpar funktion ranking tekniker för att mäta betydelsen av varje neuron i FRL, formulera nätverk beskärning som ett binärt heltal optimering problem, och härleda en sluten-form lösning till det för beskärning neuroner i tidigare lager. Baserat på vår teoretiska analys föreslår vi algoritmen Neuronviktighet Score Propagation (NISP) för att sprida betydelsen av poäng av slutliga svar till varje neuron i nätverket. CNN beskärs genom att ta bort neuroner med minst betydelse, och det finjusteras sedan för att återfå sin prediktiva kraft. NISP utvärderas på flera datauppsättningar med flera CNN-modeller och demonstreras för att uppnå signifikant acceleration och kompression med försumbar noggrannhetsförlust.
Andra kriterier: REF föreslog algoritmen Neuron viktighetspoäng förökning (NISP) för att sprida betydelsen poäng av slutliga svar innan softmax, klassificeringsskiktet i nätverket.
4,142,619
NISP: Pruning Networks Using Neuron Importance Score Propagation
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
3,983
Abstract-Model-baserad design är en kraftfull designteknik för cyberfysiska system, men alltför ofta tar litteraturen kunskap om en metod utan hänvisning till en explicit designprocess, istället fokuserar på isolerade steg som simulering, programvarusyntes eller verifiering. Vi kombinerar dessa steg till en explicit och holistisk metodik för modellbaserad design av cyberfysiska system från abstraktion till arkitektur, och från koncept till förverkligande. Vi bryter ner modellbaserad design i tio grundläggande steg, beskriver och utvärderar en iterativ designmetodik och utvärderar denna metod i utvecklingen av ett cyberfysiskt system.
De sönderdela modellbaserad design i tio grundläggande steg, beskriva och utvärdera en iterativ designmetodik, och utvärdera denna metod i utvecklingen av ett cyberfysiskt system REF.
14,934,837
A model-based design methodology for cyber-physical systems
{'venue': '2011 7th International Wireless Communications and Mobile Computing Conference', 'journal': '2011 7th International Wireless Communications and Mobile Computing Conference', 'mag_field_of_study': ['Computer Science']}
3,984
Abstrakt. Generaliserad sparse matris-matris multiplikation (eller SpGEMM) är en viktig primitiv för många högpresterande graf algoritmer samt för vissa linjära lösare, såsom algebraic multigrid. Här visar vi att SpGEMM också ger effektiva algoritmer för allmän sparse-matris indexering i distribuerat minne, förutsatt att den underliggande SpGEMM implementationen är tillräckligt flexibel och skalbar. Vi visar att våra parallella SpGEMM-metoder, som använder tvådimensionella blockdatadistributioner med seriehypersparsekärnor, verkligen är mycket flexibla, skalbara och minneseffektiva i det allmänna fallet. Denna algoritm är den första att ge ökad hastighet på ett obegränsat antal processorer; våra experiment visar skalning upp till tusentals processorer i en mängd olika testscenarier. Nyckelord. Parallell beräkning, numerisk linjär algebra, sparse matris-matris multiplikation, SpGEMM, sparse matris indexering, sparse matris uppdrag, 2D data nedbrytning, hypersparsitet, graf algoritmer, sparse SUMMA, subgraph extraktion, graf sammandragning, graf batch uppdatering. AMS-ämnesklassificeringar. 05C50, 05C85, 65F50, 68W10 1. Inledning. Vi beskriver skalbara parallella implementationer av två glesa matriskärnor. Den första, SpGEMM, beräknar produkten av två glesa matriser över en allmän semiring. Den andra, SpRef, utför generaliserad indexering i en gles matris: Givna vektorer I och J i rad- och kolumnindex, SpRef extraherar submatris A(I, J). Vår nya strategi för SpRef använder SpGEMM som sin viktigaste subrutin, som legaliserar beräknings- och dataåtkomstmönstren; tvärtom, att tillämpa SpGEMM till SpRef betonar vikten av en SpGEMM implementation som hanterar godtyckliga matrisformer och sparbarhetsmönster, och en komplexitetsanalys som gäller för det allmänna fallet. Våra viktigaste bidrag i detta dokument är: för det första visar vi att SpGEMM leder till en enkel och effektiv implementering av SpRef; för det andra beskriver vi en distribuerad memory implementation av SpGEMM som är mer allmän i tillämpning och mer flexibel i processorlayout än tidigare; och för det tredje rapporterar vi om omfattande experiment med prestanda av SpGEMM och SpRef. Vi beskriver också en algoritm för sparse matris uppdrag (SpAsgn), och rapportera dess parallella prestanda. SpAsgn-operationen, formellt A(I, J) = B, tilldelar en sparsam matris till en submatris av en annan gles matris. Det kan användas för att utföra streaming batch uppdateringar till en graf. Parallella algoritmer för SpGEMM och SpRef samt deras teoretiska prestanda beskrivs i avsnitten 3 och 4. Vi presenterar den allmänna SpGEMM algoritmen och dess parallella komplexitet innan SpRef eftersom den senare använder SpGEMM som subrutin och dess analys använder resultat från SpGEMM-analysen. Avsnitt 3.1 sammanfattar våra tidigare resultat om komplexiteten hos olika SpGEMM-algoritmer på distribuerat minne. Avsnitt 3.3 presenterar vår algoritm av val, Sparse SUMMA, på ett mer formellt sätt än tidigare, inklusive en pseudokod general nog att hantera
Den distribuerade SpGEMM genomförande av HipMCL använder Sparse SUMMA algoritm REF.
12,191,214
Parallel Sparse Matrix-Matrix Multiplication and Indexing: Implementation and Experiments
{'venue': 'SIAM J. Sci. Comput., 34(4), 170 - 191, 2012', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,985
På grund av fördelarna med finger-vein-igenkänningssystem som levande detektion och användning som bio-cryptografi system, kan de användas för att autentisera enskilda människor. Men, bilder av finger-vein mönster är typiskt oklart på grund av ljusspridning av huden, optisk suddighet, och rörelse suddig, som kan försämra prestandan hos finger-vein igenkänningssystem. Som svar på dessa frågor föreslås en ny förbättringsmetod för fingeravbildningar. Vår metod är ny jämfört med tidigare metoder i fyra avseenden. För det första förstärks de lokala och globala egenskaperna hos en indatabilds venlinjer med Gaborfilter i fyra riktningar respektive Retinexfiltrering. För det andra används de medel och standardavvikelser i de lokala fönstren för de bilder som produceras efter Gabor- och Retinexfiltrering som indata för den luddiga regeln respektive den luddiga medlemsfunktionen. För det tredje bestäms de optimala vikterna för att kombinera de två Gabor- och Retinexfiltrerade bilderna med hjälp av en defuzzificationsmetod. För det fjärde innebär användningen av en fuzzy-baserad metod att bildförbättring inte kräver ytterligare träningsdata för att bestämma optimala vikter. Experimentella resultat med hjälp av två finger-vein-databaser visade att den föreslagna metoden förbättrade noggrannheten hos finger-vein-igenkänning jämfört med tidigare metoder.
I REF förbättrade de dessutom kvaliteten på fingeravbildningen genom att kombinera Gaborfiltrering med Retinexfiltrering baserad på ett suddigt inferenssystem.
8,795,015
Finger-Vein Image Enhancement Using a Fuzzy-Based Fusion Method with Gabor and Retinex Filtering
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']}
3,986
Sammanfattning I en litteraturöversikt över de senaste 20 åren av automatiserad analys av funktionsmodeller identifierades formaliseringen av analysverksamheten som den mest relevanta utmaningen inom området. Denna formalisering kan ge mycket värdefulla tillgångar för verktygsutvecklare såsom en exakt definition av analysverksamheten och, vad mer är, ett referensgenomförande, d.v.s. ett tillförlitligt, inte nödvändigtvis effektivt genomförande för att jämföra olika verktyg outputs. I den här artikeln presenterar vi FLAME-ramen som ett resultat av denna utmaning. FLAME är en formell ram som kan användas för att formellt specificera inte bara funktionsmodeller, men även andra variabilitet modellering språk (VMLs). Denna återanvändning uppnås genom sin tvåskiktade arkitektur. Det abstrakta grundskiktet är det nedre skiktet där alla VML-oberoende analysoperationer och koncept specificeras. Ovanpå grundskiktet kan en familj av karakteristiska modelllager-ett för varje VML formellt specificeras-utvecklas genom att omdefiniera vissa abstrakta typer och relationer. Verifieringen och valideringen av FLAME har följt en process där formell verifiering traditionellt har utförts genom manuellt test, men valideringen har utförts genom att integrera vår erfarenhet av metamorf testning av variabilitetsanalysverktyg, något som har visat sig vara mycket mer effektivt än manuellt utformade testfall. För att följa denna automatiserade, testbaserade valideringsmetod, har specifikationen av FLAME, skriven i Z, översatts till Prolog och 20 000 slumpmässiga tester genererades och utfördes automatiskt. Testresultat bidrog till att upptäcka vissa inkonsekvenser inte bara i den formella specifikationen, utan också i de tidigare informella definitionerna av analysverksamheten och i nuvarande analysverktyg. Efter denna process, Prolog genomförandet av FLAME används som en referensimplementation för vissa verktyg utvecklare, vissa analysoperationer har formellt specificerats för första gången med mer generisk semantik, och fler VMLs specificeras formellt med hjälp av FLAME.
FaMa formaL frAMEwork (FLAME) som föreslås av REF specificerar analysverksamhetens semantik, t.ex. en produkts giltighet, uppsättningen av alla giltiga produkter och giltigheten av en konfiguration, som kan användas inte bara för funktionsmodeller, utan också för andra variabla modellering språk.
33,235,908
FLAME: a formal framework for the automated analysis of software product lines validated by automated specification testing
{'venue': 'Software & Systems Modeling', 'journal': 'Software & Systems Modeling', 'mag_field_of_study': ['Computer Science']}
3,987
Abstrakt. I detta dokument introducerar vi en ny enkel strategi i egg-searching av en graf, vilket är användbart för de olika subgraph listing problem. Genom att tillämpa strategin får vi följande fyra algoritmer. Den första listar alla trianglar i en graf G i O(a(G) Alla algoritmer kräver linjärt utrymme. Vi etablerar också en övre gräns på a(G) för en graf G: förekommer. I efterföljande avsnitt kommer vi att visa att proceduren ovan kräver O(a(G)m) tid. Genom hela detta papper m är antalet kanter av en graf G, n är antalet hörn av G, och a(G) är arboricity av G, det vill säga det minsta antalet kant-söndrade spännande skogar som G kan brytas ner [5]. Vi använder den ganska obekanta grafen invariant a(G) som parameter för att begränsa algoritmernas körtid. Strategin ger enkla algoritmer för problem att lista vissa typer av subgrafer i en graf. Typerna av dessa subgrafer inkluderar "triangel, fyrhörning", "fullständig subgraf av en fast ordning" och "clique". Våra algoritmer är lika snabba som de kända om någon, och en faktor n reduceras ofta till a(G) i tid komplexitet. I 2 ger vi en övre gräns på a(G) för en allmän graf G: a(G) <-
Chiba och Nishizeki REF visade att det är möjligt att räkna upp alla trianglar i en graf tillsammans med att räkna det totala antalet trianglar i O (mσ) tid.
207,051,803
Arboricity and subgraph listing algorithms
{'venue': 'SIAM J. Comput.', 'journal': 'SIAM J. Comput.', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
3,988
Vi presenterar en Augmented Template-Based approach to text realisation som tillgodoser kraven i realtid, interaktiva system som ett dialogsystem eller ett intelligent handledningssystem. Mallbaserade tillvägagångssätt är lättare att implementera och använda än traditionella tillvägagångssätt för att förverkliga text. De kan också generera texter snabbare. Traditionella mallbaserade metoder med stela mallar är dock oflexibla och svåra att återanvända. Vårt tillvägagångssätt förstärker traditionella mallbaserade tillvägagångssätt genom att lägga till flera typer av deklarativa kontrolluttryck och en attribut grammatikbaserad mekanism för att behandla saknade eller inkonsekventa slot fyller. Därför kan utökade mallar göras mer allmänna än traditionella, vilket ger mallar som är mer flexibla och återanvändbara över olika applikationer.
En Augmented Mall-Based approach föreslås i REF som ett sätt att ge mallar som bör visa sig mer flexibla och återanvändbara.
16,074,781
An augmented template-based approach to text realization
{'venue': 'Nat. Lang. Eng.', 'journal': 'Nat. Lang. Eng.', 'mag_field_of_study': ['Computer Science']}
3,989
Den dynamiska trien är en grundläggande datastruktur som finner tillämpningar inom många områden. I detta dokument föreslås en komprimerad version av den dynamiska datastrukturen för trie. Vår data-struktur är inte bara utrymme effektiv, det tillåter också mönstersökning i o( på P) tid och blad insättning / deletion i o(log n) tid, där på P på längden av mönstret och n är storleken på trie. För att visa nyttan av den nya datastrukturen tillämpar vi den på LZ-kompressionsproblemet. För en sträng S av längd s över ett alfabet A av storlek σ, de tidigare mest kända algoritmer för att beräkna Ziv- Lempel kodning (lz78) av S antingen köra i: (1) O(s) tid och O(s logg s) bitar arbetsutrymme; eller (2) O(sσ) tid och O(sH k + s log σ/ log σ s) biter arbetsutrymme, där H k är korder entropy av texten. Ingen tidigare algoritm körs i sublinjär tid. Vår nya datastruktur innebär en LZ-kompressionsalgoritm som löper i sublinjär tid och använder optimalt arbetsutrymme. Mer exakt, LZ-kompressionsalgoritmen använder O(s(s(log σ + log log log σ s) / log σ s) biter arbetsutrymme och körs i O(s(log log s) 2 /(log σ s log log log log s)) värsta-tid, som är sublinear när σ = 2 o(logs log log log s (log log s) 2 ).
En effektiv algoritm för beräkning av LZ78 factorization presenterades i REF.
4,574,086
Compressed Dynamic Tries with Applications to LZ-Compression in Sublinear Time and Space
{'venue': 'FSTTCS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,990
Abstract-The Mirai Distribuated Denial-of-Service (DDoS) attack exploaterade säkerhetssårbarheter av Internet-of-Things (IoT) enheter och därmed tydligt signalerade att angripare har IoT på sin radar. Att säkra sakernas internet är därför absolut nödvändigt, men för att göra det är det viktigt att förstå strategierna för sådana angripare. För detta ändamål föreslås och används en ny IoT-honeypot som heter ThingPot. Honeypot teknik härmar enheter som kan utnyttjas av angripare och loggar deras beteende för att upptäcka och analysera de använda attackvektorer. ThingPot är den första i sitt slag, eftersom det fokuserar inte bara på IoT-program protokoll själva, men på hela IoT-plattformen. Ett Proof-of-Concept implementeras med XMPP och ett REST API, för att härma ett Philips Hue smart belysningssystem. ThingPot har varit utplacerad i 1,5 månader och genom de insamlade data vi har hittat fem typer av attacker och attacker vektorer mot smarta enheter. ThingPots källkod görs tillgänglig som öppen källkod.
ThingPot REF är den första låga interaktion honung potten att emulera Philips Hue smarta belysningssystem, men det är inte lätt att förlänga till andra enheter.
28,727,827
ThingPot: an interactive Internet-of-Things honeypot
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,991
Abstrakt. De flesta algoritmer för trängselkontroll försöker emulera processordelning (PS) genom att ge varje konkurrerande flöde en lika stor andel av en flaskhalslänk. Detta tillvägagångssätt leder till rättvisa, och förhindrar långa flöden från att stoppa resurser. Till exempel, om en uppsättning flöden med samma tur-och-returtid delar en flaskhalslänk försöker TCP:s mekanism för kontroll av överbelastning uppnå PS, så gör de flesta av de föreslagna alternativen, såsom eXplicit Control Protocol (XCP). Men även om de efterliknar PS väl i ett statiskt scenario när alla flöden är långlivade, kommer de inte nära PS när nya flöden anländer slumpmässigt och har en ändlig mängd data att skicka, vilket är fallet i dagens Internet. Vanligtvis tar flöden en storleksordning längre tid att slutföra med TCP eller XCP än med PS, vilket tyder på stort utrymme för förbättring. Och så i detta dokument, vi utforskar hur en ny överbelastning kontroll algoritm -Rate Control Protocol (RCP) - kommer mycket närmare att efterlikna PS över ett brett spektrum av driftsförhållanden. I RCP tilldelar en router en enda hastighet till alla flöden som passerar genom den. Routern håller inte flödestillstånd, och gör inga beräkningar per förpackning. Ändå kan vi visa att under ett brett spektrum av trafikegenskaper och nätverksförhållanden är RCP:s prestanda mycket nära perfekt delning av processorer.
I REF, överbelastning kontroll algoritm kallas Rate Control Protocol (RCP) - som emulerar Processor delning över ett brett spektrum av driftsförhållanden.
7,162,680
Processor Sharing Flows in the Internet
{'venue': 'IWQoS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,992
Abstract-Sybil attacker där en motståndare skapar ett potentiellt obegränsat antal identiteter är en fara för distribuerade system och sociala nätverk online. Målet med sybilförsvaret är att exakt identifiera sybilsidentiteter. Detta papper undersöker utvecklingen av sybil försvar protokoll som utnyttjar de strukturella egenskaperna hos den sociala grafen bakom ett distribuerat system för att identifiera sybil identiteter. Vi gör två huvudsakliga bidrag. Först klargör vi det djupa sambandet mellan sybilförsvaret och teorin om slumpmässiga promenader. Detta leder oss att identifiera en community detektion algoritm som, för första gången, ger bevisbara garantier i samband med sybil försvar. För det andra förespråkar vi ett nytt mål för sybilförsvaret som tar upp det mer begränsade, men praktiskt användbara, målet att säkert vitlista en lokal region av grafen.
Alvisi m.fl. kartlagt utvecklingen av sybil försvar protokoll som utnyttjar de strukturella egenskaperna hos den sociala grafen REF.
314,423
SoK: The Evolution of Sybil Defense via Social Networks
{'venue': '2013 IEEE Symposium on Security and Privacy', 'journal': '2013 IEEE Symposium on Security and Privacy', 'mag_field_of_study': ['Computer Science']}
3,993
Abstrakt. De flesta av de toppmoderna lokaliseringsalgoritmerna i trådlösa sensornätverk (WSN) är sårbara för attacker från skadliga eller komprometterade nätverksnoder, medan de säkra lokaliseringssystem som föreslås hittills är alltför komplexa för att tillämpas på kraftbegränsade WSNs. Detta dokument ger en ny säker plan "Bilateration" som härrör från multilateration men kan beräknas mer exakt och snabbt för att lösa positioner okända noder utan att uttryckligen skilja vilken typ av plats attacker WSN står inför. I detta dokument jämförs också Bilateration med tre befintliga multilaterationslösningar som optimerar platsens uppskattningsnoggrannhet via LS, LMS respektive LLMS i en simulerad hotmiljö. Experimentresultaten visar att Bilateration får den bästa kompromissen mellan skattningsfel, filtreringsförmåga och beräkningskomplexitet.
Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. I REF införs ett säkert system "Bilateration" som härleds från multilateration.
2,520,736
Bilateration: an attack-resistant localization algorithm of wireless sensor network
{'venue': 'EUC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,994
Vi föreslår en ny familj av policy gradient metoder för att förstärka lärande, som växlar mellan provtagningsdata genom interaktion med miljön, och optimerar en "surrogat" objektiv funktion med hjälp av stokastisk gradient uppstigning. Medan standard policy gradient metoder utför en gradient uppdatering per dataprov, föreslår vi en ny objektiv funktion som möjliggör flera epoker av minibatch uppdateringar. De nya metoderna, som vi kallar proximal policyoptimering (PPO), har några av fördelarna med förtroende regional policyoptimering (TRPO), men de är mycket enklare att genomföra, mer allmänt, och har bättre urval komplexitet (empiriskt). Våra experiment testar PPO på en samling av benchmarking uppgifter, inklusive simulerad robotisk locomotion och Atari spelspel, och vi visar att PPO överträffar andra online policy gradient metoder, och totalt ger en gynnsam balans mellan prov komplexitet, enkelhet, och vägg-tid.
Proximal Policy Optimization (PPO) REF är en av dem, som optimerar en surrogat objektiv funktion vi stokastisk lutning stigning.
28,695,052
Proximal Policy Optimization Algorithms
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
3,995
Abstrakt. Stora svaga nyckelklasser av IDEA hittas för vilka medlemskap testas med en differential-linjär test samtidigt kryptera med en enda nyckel. I synnerhet, en i varje 2-tums nycklar för 8.5-runda IDEA är svag. En relaterad-nyckel differential-linjär attack på 4-runda IDEA presenteras som är framgångsrik för alla nycklar. Stora svaga nyckelklasser finns för 4,5-6,5-runda och 8-runda IDEA för vilka medlemskap i dessa klasser testas med hjälp av liknande relaterade differential-linjära tester.
Dessutom identifierade han stora svaga nyckelklasser för 4,5-6,5 rundor och 8 rundor av algoritmen REF.
18,048,055
Differential-Linear Weak Key Classes of IDEA
{'venue': "Advances in Cryptology --- EUROCRYPT '98 Proceedings", 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,996
Abstract-Medan bildanpassning har studerats inom olika områden av datorseende i årtionden, är det fortfarande ett utmanande problem att anpassa bilder som skildrar olika scener. Analogt med optiskt flöde, där en bild är i linje med dess temporalt angränsande ram, föreslår vi SIFT flöde, en metod för att anpassa en bild till sina närmaste grannar i en stor bild corpus som innehåller en mängd olika scener. SIFT-flödesalgoritmen består av matchning av tätt samplade, pixelvis SIFT-funktioner mellan två bilder samtidigt som rumsliga diskontinuiteter bevaras. SIFT-funktionerna möjliggör robust matchning mellan olika scen-/objektutseenden, medan den rumsliga modellen för bevarande av diskontinuitet gör det möjligt att matcha objekt som finns på olika delar av scenen. Experiment visar att det föreslagna tillvägagångssättet på ett robust sätt anpassar komplexa scenpar som innehåller betydande rumsliga skillnader. Baserat på SIFT-flödet föreslår vi en anpassningsbaserad stor databasram för bildanalys och syntes, där bildinformation överförs från närmaste grannar till en frågebild enligt den täta scenkorrespondensen. Detta ramverk demonstreras genom konkreta tillämpningar såsom rörelsefältsförutsägelse från en enda bild, rörelsesyntes via objektöverföring, satellitbildsregistrering och ansiktsigenkänning. Index Terms-Scene-uppriktning, tät scenkorrespondens, SIFT-flöde, grovt till fint, trosutbredning, anpassningsbaserad stor databasram, satellitbildregistrering, ansiktsigenkänning, rörelseförutsägelse för en enda bild, rörelsesyntes via objektöverföring.
I motsats till den optiska flödesalgoritm som tar hänsyn till råa pixelintensiteter används i SIFT Flow den SIFT-deskriptor REF som definieras utifrån information om lokal lutning för att beräkna förskjutningen.
10,458,500
SIFT Flow: Dense Correspondence across Scenes and Its Applications
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
3,997
Många typer av data och information kan beskrivas med koncisa modeller som tyder på att varje datavektor (eller signal) faktiskt har "få grader av frihet" i förhållande till sin storlek N. Detta är motivationen för en mängd olika dimensionalitet reduktion tekniker för databehandling som försöker minska eller eliminera inverkan av den omgivande dimensionen N på beräknings- eller lagringskrav. Som exempel kan många signaler uttryckas som en gles linjär kombination av element från någon ordbok. Representationens gleshet återspeglar direkt modellens koncishet och möjliggör effektiva tekniker som Compressed Sensing (CS), en framväxande teori för gles signalåterhämtning som endast kräver ett litet antal icke adaptiva, slumpmässiga linjära mätningar. I andra fall, koncisheten av signalmodellen kan diktera att signalklassen bildar ett lågdimensionellt grenrör som en delmängd av den högdimensionella omgivande rymden R N. Denna typ av geometrisk struktur får inte prydligt återspeglas i en gles representation. I stället innebär dimensionsreduktionstekniker för multiplikatormodellerade data vanligtvis "lärande" den mångfaldiga strukturen från en insamling av datapunkter, ofta genom att konstruera icke-linjära kartläggningar från R N till R M för vissa M < N som är anpassade till utbildningsdata och som är avsedda att bevara vissa karakteristiska egenskaper hos grenröret. I detta dokument föreslår vi ett nytt tillvägagångssätt för icke-adaptiv dimensionalitetsminskning av multiplikatormodellerade data, vilket visar att ett litet antal slumpmässiga linjära projektioner kan bevara viktig information om en multiplikatormodellad signal. Vi centrerar vår analys på effekten av en slumpmässig linjär projektion operatör 0 : R N → R M på en jämn K-dimensionell submanifold M på R N. Som vårt huvudsakliga teoretiska bidrag, fastställer vi ett tillräckligt antal M slumpmässiga projektioner för att garantera att, med hög sannolikhet, alla parvis Euclidean och geodesiska avstånd mellan punkter på M är välbevarade under kartläggningen 0. Våra resultat har en stark likhet med CS. Som i CS, de slumpmässiga mätningar vi föreslår kan användas för att återställa de ursprungliga data i R N. Dessutom, liksom den grundläggande bundna i CS, är vår erforderliga M linjär i "informationsnivån" K och logaritmisk i den omgivande dimensionen N; vi identifierar också ett logaritmiskt beroende av volymen och krökning av grenröret. Förutom att återvinna trogna approximationer till flerdimensionella signaler, kan dock de slumpmässiga projektioner vi föreslår också användas för att urskilja nyckelegenskaper om grenröret. Vi diskuterar kopplingar till befintliga tekniker i mångfacetterat lärande.
I detta dokument antar vi de många olika karakteriseringar som presenteras i REF.
11,001,398
Random projections of smooth manifolds
{'venue': 'Foundations of Computational Mathematics', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
3,998
Att stärka lärandet betraktas som en lovande riktning för att driva på det politiska lärandet. Att utbilda självkörande fordon med förstärkt inlärning i verklig miljö innebär dock att försök och terror inte är överkomliga. Det är mer önskvärt att först träna i en virtuell miljö och sedan förflytta sig till den verkliga miljön. I detta dokument föreslår vi ett nytt realistiskt översättningsnätverk för att få modellen utbildad i virtuell miljö att fungera i verkligheten. Det föreslagna nätverket kan omvandla icke-realistisk virtuell bildinmatning till en realistisk med liknande scenstruktur. Med tanke på realistiska ramar som input, körpolitik tränas genom förstärkning lärande kan fint anpassa sig till verkliga världen körning. Experiment visar att vårt föreslagna virtuella till verkliga (VR) förstärkning lärande (RL) fungerar ganska bra. Såvitt vi vet är detta det första framgångsrika fallet med körpolitik som utbildats genom att stärka lärandet och som kan anpassas till verkliga kördata. Autonom körning syftar till att få ett fordon att känna sin miljö och navigera utan mänsklig input. För att uppnå detta mål är den viktigaste uppgiften att lära sig körpolicyn som automatiskt ger styrsignaler för ratt, gas, broms, etc., baserat på observerad omgivning. Den raka framåt idén är end-to-end övervakad lärande [3, 4], som tränar en neural nätverksmodell kartläggning visuell ingång direkt till handling output, och utbildningsdata är märkt bild-action par. En övervakad metod kräver dock vanligtvis stora mängder data för att utbilda en modell [31] som kan generaliseras till olika miljöer. Att få fram sådan mängd data är tidskrävande och kräver ett betydande mänskligt engagemang. Däremot behöver man inte uttrycklig övervakning av människor för att stärka inlärningen genom att pröva och terrorisera. På senare tid har förstärkt lärande ansetts vara en lovande teknik för att lära sig driva politik på grund av sin expertis i att planera åtgärder [15, 23, 25]. För att förstärka inlärningen krävs det dock att agenter interagerar med miljöer, och oönskade köråtgärder skulle inträffa. Utbildning autonoma drivande bilar i verkliga världen kommer att orsaka skador på fordon och omgivningen. Därför är de flesta av dagens forskning inom autonom körning med förstärkt inlärning inriktad på simuleringar [15, 18, 25] snarare än utbildning i verkligheten. Medan en agent utbildad med förstärkning lärande uppnår
Författarna till REF föreslog ett nätverk som kan omvandla icke-realistiska virtuella bilder till realistiska bilder med liknande scenstruktur.
13,117,738
Virtual to Real Reinforcement Learning for Autonomous Driving
{'venue': 'Proceedings of the British Machine Vision Conference (BMVC) 2017 (Spotlight)', 'journal': None, 'mag_field_of_study': ['Computer Science']}
3,999
Denna artikel föreslår en Bayesian tillvägagångssätt för regression med en skalar svar mot vektor och tensor covariates. Tensor kovariater är ofta vektoriserade före analys, misslyckas med att utnyttja strukturen av tensor, och resulterar i dålig uppskattning och prediktiv prestanda. Vi utvecklar en ny klass av multiway krymp tidigare för koefficienterna i tensor regressionsmodeller. Egenskaper beskrivs, inklusive bakre konsistens under milda förhållanden, och en effektiv Markovkedja Monte Carlo algoritm utvecklas för bakre beräkning. Simuleringsstudier illustrerar betydande vinster jämfört med vektorisering eller med hjälp av befintliga tensor regressionsmetoder i form av uppskattning och parameterslutledning. Metoden illustreras ytterligare i en neuroimaging applikation.
Den senaste tidningen Bayesian Tensor Regression REF utvecklar en modell för regression med skalära svar och tensor covariates.
33,402,910
Bayesian Tensor Regression
{'venue': None, 'journal': 'arXiv: Methodology', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
4,000
Detta arbete presenterar EddyNet, en djupinlärningsbaserad arkitektur för automatiserad virveldetektering och klassificering från kartor över havsytans höjd (SSH) som tillhandahålls av Copernicus marin- och miljöövervakningstjänst (CMEMS). EddyNet består av en konvolutionell encoder-dekoder följt av en pixel-wise klassificeringsskikt. Utmatningen är en karta med samma storlek på indatan där pixlarna har följande etiketter {'0': Non vide, '1': anticyklon-eddy, '2': cyklon-eddy}. Keras Python kod, träningsdataset och EddyNet vikter filer är opensource och fritt tillgängliga på https://github.com/redouanelg/EddyNet.
Lguensat m.fl. I REF föreslogs en djupinlärningsbaserad arkitektur för pixelvis detektion och klassificering av havsdynor från havsytans höjd (SSH) kartor dataset.
6,656,423
EddyNet: A Deep Neural Network For Pixel-Wise Classification of Oceanic Eddies
{'venue': 'IGARSS 2018 - 2018 IEEE International Geoscience and Remote Sensing Symposium', 'journal': 'IGARSS 2018 - 2018 IEEE International Geoscience and Remote Sensing Symposium', 'mag_field_of_study': ['Computer Science', 'Physics']}
4,001
Tillförlitlighet är en avgörande aspekt av tidssynkronisering för industriella trådlösa applikationer i trådlösa sensornätverk. Befintliga tidssynkroniseringsalgoritmer ger ofta god synkronisering i laboratoriemiljöer, men utomhusmiljöer med tillhörande radiostörningar påverkar prestandan för tidssynkronisering. I detta dokument föreslår vi en slumpmässig tidskälla protokoll för industriella trådlösa applikationer i trådlösa sensornätverk synkronisering. Varje synkroniserad nod väljer slumpmässigt sin tidskälla för varje period för att förhindra beroende av en fast tidskälla, eftersom detta kan leda till återsynkronisering när källan misslyckas. Vi har implementerat algoritmen på SIA2420-plattformen med hjälp av TINYOS, och resultaten visar tillförlitligheten i vårt protokoll.
I dokument REF studeras slumpmässig tidskälla för WIA-PA.
19,683,040
Random time source protocol in wireless sensor networks and synchronization in industrial environments
{'venue': 'Wireless Communications and Mobile Computing', 'journal': 'Wireless Communications and Mobile Computing', 'mag_field_of_study': ['Computer Science']}
4,002
Modellfri förstärkningsutbildning har framgångsrikt tillämpats på en rad utmanande problem, och har nyligen utökats för att hantera stora neurala nätverkspolicyer och värdefunktioner. Emellertid tenderar prov komplexiteten hos modellfria algoritmer, särskilt när man använder högdimensionella funktion approximatorer, att begränsa deras tillämplighet på fysiska system. I det här dokumentet utforskar vi algoritmer och representationer för att minska prov komplexiteten i djupt förstärkande lärande för kontinuerliga kontrolluppgifter. Vi föreslår två kompletterande tekniker för att förbättra effektiviteten hos sådana algoritmer. För det första härleder vi en kontinuerlig variant av Q-learning-algoritmen, som vi kallar normaliserade adantagefunktioner (NAF), som ett alternativ till den mer allmänt använda policygradienten och skådespelare-kritiska metoder. NAF representation gör det möjligt för oss att tillämpa Q-learning med erfarenhet replay till kontinuerliga uppgifter, och avsevärt förbättrar prestanda på en uppsättning simulerade robotiska styruppgifter. För att ytterligare förbättra effektiviteten i vårt tillvägagångssätt utforskar vi användningen av inlärda modeller för att påskynda modellfritt förstärkande lärande. Vi visar att iterativt refiterade lokala linjära modeller är särskilt effektiva för detta, och visar betydligt snabbare lärande på områden där sådana modeller är tillämpliga.
Normaliserade fördelfunktioner (NAF) använder iterativt refiterade lokala linjära modeller för utbildningsagenter i "imaginations" med Q-learning REF.
890,737
Continuous Deep Q-Learning with Model-based Acceleration
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
4,003
Aspect-extrahering är en viktig och utmanande uppgift i aspektbaserad känsloanalys. Befintliga verk tenderar att tillämpa varianter av ämnesmodeller på denna uppgift. Även om dessa metoder är ganska framgångsrika, ger de vanligtvis inte upphov till särskilt sammanhängande aspekter. I detta dokument presenterar vi en ny neural strategi i syfte att upptäcka sammanhängande aspekter. Modellen förbättrar samstämmigheten genom att utnyttja fördelningen av ordsammankomster genom användning av neurala ords inbäddningar. Till skillnad från ämnesmodeller som vanligtvis antar självständigt genererade ord, uppmuntrar ord inbäddade modeller ord som visas i liknande sammanhang att placeras nära varandra i inbäddningsutrymmet. Dessutom använder vi en uppmärksamhetsmekanism för att betona irrelevanta ord under utbildningen och ytterligare förbättra samstämmigheten i aspekter. Experimentella resultat på verkliga dataset visar att vårt tillvägagångssätt upptäcker mer meningsfulla och sammanhängande aspekter, och i stort sett överträffar referensmetoderna för flera utvärderingsuppgifter.
I REF, den föreslagna neurala modellen förbättrar samstämmighet genom att utnyttja fördelningen av ord co-occurences genom användning av neurala ord inbäddningar.
29,907,166
An Unsupervised Neural Attention Model for Aspect Extraction
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,004
I synnerhet formulerar vi problemet med tilldelning av radioresurser i ett tvåhopsnät för att garantera datahastigheten för UE samtidigt som vi skyddar andra mottagande noder från störningar. Med hjälp av strategin för tidsdelning erbjuder vi en centraliserad lösning under begränsad kanalosäkerhet. För att minska beräkningsbördan vid relänoder föreslår vi en distribuerad lösningsmetod med hjälp av stabil matchning för att fördela radioresurser på ett effektivt och beräknings billigt sätt. Numeriska resultat visar att prestandan hos den föreslagna metoden ligger nära den centraliserade optimala lösningen och det finns en marginal över vilken återutläggning av D2D-trafik förbättrar nätverksprestandan. Index Terms-Device-to-device (D2D) kommunikation, LTE-A L3-relä, osäker kanaltillståndsinformation, distribuerad resursfördelning, stabil matchning.
Matchningsteorin användes i REF för att lösa resurstilldelningsproblemet i D2D-kommunikation med hjälp av relä.
18,312,637
Distributed Resource Allocation for Relay-Aided Device-to-Device Communication Under Channel Uncertainties: A Stable Matching Approach
{'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Computer Science']}
4,005
Abstract-Wireless body area networks (WBAN) betraktas som en av de mest lämpliga teknikerna för fjärrövervakning av hälsa. Denna teknik har potential att öka kvaliteten på sjukvården och hålla de tillhörande kostnaderna under kontroll. På grund av de mänskliga organismernas komplexitet och arten av dess olika vävnader förväntas radiokanalens förökningsegenskaper, när de mäts i närheten av en mänsklig kropp, vara annorlunda än de som finns i andra scenarier. Det arbete som beskrivs i dessa dokument syftar till att utöka kunskapen om den ultrabredbandskanalen (UWB) inom frekvensområdet 3,1–10 GHz, för WBAN:er, under statiska och dynamiska scenarier. Två olika typer av antenner används, SkyCross SMT-3TO10M-A och P200 BroadSpec TM. För att minimera effekterna av miljön utfördes mätningarna i en anekoisk kammare.
Taparugssanagorn i REF, presenterar en serie UWB WBAN-mätningar i frekvensområdet 3,1-10 GHz för att jämföra två olika typer av antenner.
12,512,137
Effect of body motion and the type of antenna on the measured UWB channel characteristics in medical applications of wireless body area networks
{'venue': '2009 IEEE International Conference on Ultra-Wideband', 'journal': '2009 IEEE International Conference on Ultra-Wideband', 'mag_field_of_study': ['Engineering']}
4,006
Abstract-Aktivity erkännande i smarta hem spelar en viktig roll i hälso-och sjukvården genom att upprätthålla välbefinnandet för äldre och patienter genom fjärrövervakning och assisterad teknik. I detta dokument föreslår vi en klassificeringsmetod på två nivåer för aktivitetsigenkänning genom att använda den information som erhålls från sensorerna i ett smart hem. För att separera liknande aktiviteter från icke-liknande aktiviteter grupperar vi de homogena aktiviteterna med hjälp av Lloyd's klusteralgoritm. För klassificeringen av icke-separata aktiviteter inom varje kluster tillämpar vi en beräkningsmässigt billigare inlärningsalgoritm Evidence Theoretic K-Nearest Neighbor, som presterar bättre under osäkra förhållanden och bullriga data. Metoden gör det möjligt för oss att uppnå bättre igenkänningsnoggrannhet, särskilt när det gäller överlappande aktiviteter. En jämförelse mellan det föreslagna tillvägagångssättet och de befintliga metoderna för erkännande av verksamhet presenteras på två allmänt tillgängliga smarta hemdataset. Det föreslagna tillvägagångssättet visar att erkännandegraden är bättre jämfört med de befintliga metoderna.
En klusterbaserad klassificeringsmetod REF grupperar liknande aktiviteter i kluster, medan lärande utförs inom varje kluster.
3,736,498
Activity Recognition in Smart Homes Using Clustering Based Classification
{'venue': '2014 22nd International Conference on Pattern Recognition', 'journal': '2014 22nd International Conference on Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
4,007
Abstrakt. Att beskriva webbresurser med hjälp av formell kunskap (dvs. att skapa metadata enligt en formell representation av en diskursdomän) är kärnan i nästa utvecklingssteg på webben, som kallas Semantic Web. W3C:s RDF/S (Resource Description Framework/Schema Language) möjliggör skapande och utbyte av resursmetadata som normal webbdata. I detta dokument undersöker vi användningen av RDFS scheman som ett medel för kunskapsrepresentation och utbyte inom olika tillämpningsområden. För att kunna resonera om kvaliteten på befintliga RDF-scheman fungerar ett riktmärke som grundval för en statistisk analys som utförs med hjälp av VRP, validerande RDF Parser. De statistiska data som extraheras leder till korollarier om storleken och morfologin av RDF/S scheman. Dessutom drar studien av de insamlade scheman användbara slutsatser om den faktiska användningen av RDF modellering konstruktioner och frekventa missbruk av RDF/S syntax och / eller semantik.
Magkanaraki m.fl. REF har genomfört en statistisk analys om storleken och morfologin för RDF schemata.
6,764,539
Benchmarking RDF Schemas for the Semantic Web
{'venue': 'In Proc. of the International Semantic Web Conference (ISWC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,008
Abstract-Ultra-bredband (UWB) är en framväxande trådlös fysisk lagerteknik som använder en mycket stor bandbredd. Vi är intresserade av att hitta designmålen för medium access [medium-access control (MAC), nämligen energistyrning och schemaläggning] och routing protokoll av ett multihop, bäst-ansträngning, UWB-nätverk. Vårt mål är att maximera flöden (mer exakt, logutility av flöden) med tanke på node effekt begränsningar. UWB:s specificitet uttrycks genom det linjära beroendet mellan förhållandet hastighet och signal-brus vid mottagaren. Det är känt att olika routingstrategier i trådlösa nätverk kan innebära skillnader i MAC-protokolldesign. Därför söker vi efter den gemensamt optimala routing, schemaläggning och maktstyrning. Vi finner att den optimala lösningen kännetecknas av följande. 1) När data skickas över en länk är det optimalt att ha en uteslutningsregion runt destinationen, där alla noder förblir tysta under överföringen, medan noder utanför denna region kan överföra parallellt, oavsett vilken störning de producerar på destinationen. Dessutom anpassar källan sin överföringshastighet efter graden av störningar vid destinationen på grund av källor utanför uteslutningsregionen. 2) Den optimala storleken på denna uteslutningsregion beror endast på överföringskraften hos länkens källa och inte på länkens längd eller på nodernas läge i dess närhet. 3) Varje nod i en viss tid slot antingen skickar data vid maximal effekt, eller inte skickar alls. När det gäller rutten, vi begränsar oss till en del av rutter där på varje på varandra följande humle vi minskar avståndet mot destinationen, och vi visar att 4) relä längs en minsta energi och förlust rutt är alltid bättre än att använda längre humle eller skicka direkt, vilket inte är uppenbart eftersom vi optimerar hastigheten och inte strömförbrukningen. Slutligen 5), utformningen av den optimala MAC-protokollet är oberoende av valet av routing protokoll. För smalbandsnät, 2), 4) och 5) gäller inte, vilket visar att utformningen av ett UWB-nät bör hanteras på ett annat sätt än för smalband. Vårt tekniska tillvägagångssätt bygger på att uttrycka designkraven som ett matematiskt optimeringsproblem. Vi löser det exakt för enkla nätverk på en linje och ungefär på slumpmässiga topologier i ett plan med upp till 50 noder med olika kraftbegränsningar, trafikmatriser och rörelseparametrar.
Det hävdades i REF att i bredbandssystem är det optimalt att ha en ER runt mottagaren.
5,676,014
Optimal power control, scheduling, and routing in UWB networks
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']}
4,009
Abstract-Scenarios är ett etablerat sätt att specificera krav för programvarusystem. Scenariobaserade tester gör det möjligt att validera programvarumodeller mot sådana krav. I detta dokument överväger vi tre alternativa anmärkningar för att definiera sådana scenariotester på strukturella modeller: en semistrukturerad naturspråksnotering, en diagrammatisk notation och en fullt strukturerad textanmärkning. I synnerhet har vi genomfört en studie för att förstå hur dessa tre anmärkningar jämförs med varandra när det gäller noggrannhet och ansträngning att förstå scenariotestdefinitioner, samt när det gäller att upptäcka fel i de modeller som provas. 20 softwareproffs (programvaruingenjörer, testare, forskare) deltog i ett kontrollerat experiment baserat på sex olika förståelse- och underhållsuppgifter. För var och en av dessa uppgifter måste frågor om en definition av scenariotest och en modell under test besvaras. I ett frågeformulär i efterhand bedömde deltagarna varje not på ett antal dimensioner (t.ex. praktiskhet eller skalbarhet). Våra resultat visar att valet av en specifik scenario-test notation kan påverka produktiviteten (i termer av korrekthet och tid-ansträngning) vid testning av programvarumodeller för kravöverensstämmelse. I synnerhet, deltagarna i vår studie tillbringade jämförelsevis mindre tid och fullföljde uppgifterna mer exakt när du använder naturligt språk notation jämfört med de andra två notationerna. Dessutom uttryckte deltagarna i vår studie uttryckligen sin preferens för det naturliga språket notation.
Hoisl m.fl. REF genomförde ett kontrollerat experiment med tre noteringar för scenariobaserade modelltester med 20 deltagare.
13,380,253
Comparing Three Notations for Defining Scenario-based Model Tests: A Controlled Experiment
{'venue': '2014 9th International Conference on the Quality of Information and Communications Technology', 'journal': '2014 9th International Conference on the Quality of Information and Communications Technology', 'mag_field_of_study': ['Computer Science']}
4,010
Abstract-Ett adaptivt system för dynamisk nätverkskodning (ADNC) som utformats för kooperativ kognitiv radio (CCR) föreslås för att ta fram ett nytt ADNC-CCR-system. Systemet är utformat för att stödja kommunikation mellan flera primära användare (PU:er) och en gemensam basstation (BS), där den oberoende källinformationen överförs från PU:erna till BS med hjälp av flera kognitiva användare (CU:er) som fungerar som relänoder (RN:er). För att underlätta återvinningen av källinformationen vid BS åberopar CU ADNC-tekniken, som stöds av vårt samarbetsprotokoll som fungerar genom utbyte av CCR-baserad kontrollinformation mellan nära-instantant adaptiv turbo trellis kodad modulering (ATTCM) och nätkodning (NC) codec, samt mellan CU och BS. Närmare bestämt används ett nästan instantant ATTCM för att på lämpligt sätt justera både modulationsläget och kodhastigheten för själva kanalkodningen och NC, beroende på de nära-instantana kanalförhållandena. Som ett resultat av detta kan vårt nya ADNC-CCR-system, som är konstruerat på grundval av vår helhetssyn, ge ett ökat genomflöde, trots att överföringsperioden för PU minskar. Denna förkortade överföringsperiod kan också direkt omsättas i en ökad varaktighet för CU:s sekundära kommunikationer. I vårt föreslagna ADNC-CR-system använder både PU och CU vårt ATTCM-system. Som ytterligare en nyhet kan nätverkets kodare också aktiveras i adaptivt läge för att stödja CU, beroende på det booleska värdet av de återkopplingsflaggor som genereras på grundval av framgången eller misslyckandet med ATTCM-dekodern och nätverksdekodern, som utvärderas och matas tillbaka av BS. Kvantitativt visade det sig att den gemensamma helhetsdesignen av vårt ATTCM-ADNC-CCR-system antingen kan frigöra cirka 40 % av PU:s bandbredd i jämförelse med dess icke-kooperativa motsvarighet eller öka det uppnåeliga genomströmningen med 2 bitar/symbol. Index Terms-Adaptive turbo trellis kodad modulering (ATTCM), kognitivt radionät, samarbetskommunikation, dynamisk nätverkskodning.
En adaptiv dynamisk nätkodningsmetod har föreslagits inom ramen för samarbetskommunikation mellan PU och CU, där bandbreddseffektiv trellis kodad modulering har använts för att frigöra PU: s bandbredd och för att förbättra den uppnåeliga genomströmning REF.
95,928
Adaptive-TTCM-Aided Near-Instantaneously Adaptive Dynamic Network Coding for Cooperative Cognitive Radio Networks
{'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science']}
4,011
Vi presenterar regionbaserade, helt konvolutionella nätverk för korrekt och effektiv objektdetektering. I motsats till tidigare regionbaserade detektorer som Fast/Faster R-CNN [6, 18] som tillämpar ett kostsamt delnätverk per region hundratals gånger, är vår regionbaserade detektor helt konvolutionell med nästan all beräkning delad på hela bilden. För att uppnå detta mål föreslår vi positionskänsliga poängkartor för att ta itu med ett dilemma mellan translation-invarians i bildklassificering och translation-varians i objektdetektering. Vår metod kan därför naturligt anta helt konvolutionella bild klassificera ryggrader, såsom de senaste Residual Networks (ResNets) [9], för objektdetektering. Vi visar konkurrenskraftiga resultat på PASCAL VOC dataset (t.ex., 83,6% mAP på 2007 uppsättningen) med 101-lager ResNet. Samtidigt, vårt resultat uppnås med en testtid hastighet på 170 ms per bild, 2,5-20× snabbare än Snabbare R-CNN motsvarighet. Koden görs tillgänglig för allmänheten på https://github.com/daijifeng001/r-fcn.
Dai m.fl. REF utformade en regionbaserad objektdetektor som är helt konvolutionell med nästan all beräkning delad.
7,428,689
R-FCN: Object Detection via Region-based Fully Convolutional Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
4,012
Abstract-I detta dokument, visar vi att stora kommenterade datamängder har stor potential att ge starka priors for saliency estimation snarare än att bara tjäna för benchmarking utvärderingar. I detta syfte presenterar vi en ny metod för att upptäcka bilder som kallas saliency transfer. Med tanke på en indatabild hämtar vi först en uppsättning med bästa matchningar från den stora databasen med kommenterade bilder. Sedan tilldelar vi övergångslönepoängen genom att förvränga stödet och ställa in noteringar på indatabilden enligt beräknade täta korrespondenser. För att integrera sammanhanget använder vi två kompletterande korrespondensstrategier: ett globalt matchningssystem baserat på analys på scennivå och ett lokalt matchningssystem baserat på patch-nivå-slutsatser. Därefter inför vi två förfiningsåtgärder för att ytterligare förfina saliencykartorna och tillämpa slumpmässig-walk-with-restart genom att utforska den globala saliencystrukturen för att uppskatta affiniteten mellan förgrunds- och bakgrundsuppdrag. Omfattande experimentella resultat på fyra allmänt tillgängliga referensdata visar att den föreslagna Saliency-algoritmen konsekvent överträffar de nuvarande toppmoderna metoderna.
För att använda informationen bortom den aktuella bilden för uppskattning av salthalt, Wang et al. REF beräknade betydelsen av varje bild genom att förvränga kommentarerna från liknande scener.
4,368,665
Correspondence Driven Saliency Transfer
{'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Computer Science', 'Medicine']}
4,013
Abstract-Multicast spelar en viktig roll i genomförandet av gruppkommunikation i bandbredd knappa multihop mobila ad hoc-nät. På grund av MANETS dynamiska topologi är det dock mycket svårt att bygga optimala multicast-träd och upprätthålla gruppmedlemskap, vilket gör det ännu svårare att implementera skalbara och robusta multicaster i mobila ad hoc-nätverk (MANET). En skalbar och energieffektiv platsmedveten multicast-algoritm, kallad SEELAMP, för mobila ad hoc-nätverk presenteras i dokumentet som bygger på skapandet av delat träd med hjälp av den fysiska placeringen av noderna för multicast sessioner. Den konstruerar en delad dubbelriktad multicast träd för sin routing verksamhet snarare än en mesh, vilket hjälper till att uppnå effektivare multicast leverans. Algoritmen använder begreppet små överlappande zoner runt varje nod för proaktiv topologi underhåll med i zonen. Protokollet beror på lokaliseringsinformationen som erhålls med hjälp av en distribuerad lokaliseringstjänst, vilket effektivt minskar overheadsen för ruttsökning och delat multicast trädunderhåll. I detta dokument föreslås en ny teknik för lokal konnektivitetshantering som försöker förbättra prestanda och tillförlitlighet. Det använder en förebyggande rutt omkonfigurering för att undvika latens vid länkbrott och för att förhindra att nätverket delar sig.
Pariza et al föreslår skalbar energieffektiv placering Aware Multicast Protocol (SEELAMP) Protocol REF utför en effektiv multicast routing.
11,647,810
Scalable Energy Efficient Location Aware Multicast Protocol for MANET (SEELAMP)
{'venue': 'Journal of Computing, Volume 2, Issue 5, May 2010', 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,014
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med
En representant för tvåstegsramen är den snabbare R-CNN som föreslås av Ren et al. Ref, som består av två delnätverk: ett regionförslagsnätverk som genererar regionala förslag och en R-CNN som klassificerar förslagens kategorier.
10,328,909
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
4,015
Abstract-Den blomstrande industrin av platsbaserade tjänster har samlat en enorm samling av användares lokaliseringsvägar av körning, cykling, vandring, etc. I detta arbete undersöker vi problemet med att upptäcka den mest populära rutten (MPR) mellan två platser genom att observera resebeteenden många tidigare användare. Denna nya fråga är till nytta för resenärer som frågar vägbeskrivning eller planerar en resa i en okänd stad / område, eftersom historiska reseupplevelser kan avslöja hur människor brukar välja vägar mellan platser. För att uppnå detta mål, utvecklar vi först en koherens Expanderande algoritm för att hämta ett överföringsnätverk från råa banor, för att indikera alla möjliga rörelser mellan platser. Därefter tillämpas den Absorberande Markov Chain modellen för att härleda en rimlig överföring sannolikhet för varje överföring nod i nätverket, som sedan används som popularitetsindikator i sökfasen. Slutligen föreslår vi en maximal sannolikhet Produktalgoritm för att upptäcka MPR från ett överföringsnätverk baserat på popularitetsindikatorerna på ett brett sätt, och vi illustrerar resultaten och prestandan av algoritmen genom omfattande experiment.
Referens REF studerade upptäcktsschemat för den mest populära rutten (MPR) mellan två platser genom att observera resebeteenden hos många tidigare användare.
2,415,100
Discovering popular routes from trajectories
{'venue': '2011 IEEE 27th International Conference on Data Engineering', 'journal': '2011 IEEE 27th International Conference on Data Engineering', 'mag_field_of_study': ['Computer Science']}
4,016
Vi genomförde det första randomiserade kontrollerade fältexperimentet av en Internet rykte mekanism. En hög-reputation, etablerad eBay återförsäljare sålde matchade par av massor -- batches av vintage vykort -- under hans vanliga identitet och under nya säljare identiteter (även drivs av honom). Som väntat klarade sig den etablerade identiteten bättre. Skillnaden i köparnas villighet att betala var 8,1 % av försäljningspriset. Ett dotterbolag experiment följde samma format, men jämförde försäljning av relativt nya säljare med och utan negativ feedback. Förvånansvärt nog påverkade en eller två negativa återkopplingar för våra nya säljare inte köparnas villighet att betala. Sida 2 av 2 När Internet växer som ett sätt att utföra transaktioner, varje köpares utbud av möjliga leverantörer är svampbildning. På auktionssajter, som eBay, köper och säljer användare redan saker från andra över hela landet och runt om i världen. Trots att denna elektroniska basar öppnar många nya arenor lägger den tonvikten på några av grunderna för den traditionella marknadsplatsen. På traditionella marknader kan en köpare vanligtvis "pressa apelsinen", t.ex. inspektera vintageplattan, innan han köper. Utöver detta håller gisslan av en säljares rykte, eventuellt byggt under många år, inklusive kostnaden för hennes fysiska anläggning och hennes ställning i samhället, tillsammans med upprepade transaktioner, henne ärlig och flitig. Försäljningen över Internet saknar dessa verktyg för rykte. Ingen säljare har länge varit på den elektroniska marknaden. En säljares fysiska anläggning kan vara hennes kök, och praktiskt taget ingen köpare känner en säljares ställning i samhället. Vissa säljare, som Dell och L.L. Bean, låna rykte från någon annanstans. Men för tiotusentals säljare finns det inget yttre instrument för rykte. Under sådana omständigheter är frestelsen för säljare att förvränga produkter, t.ex. överdriva deras kvalitet eller förvränga deras ursprung, stor. Så är också frestelsen att sengångare, att skeppa långsamt eller slarvigt efter att ha fått betalning. 2 Detta bör sänka det pris som köparna är villiga att betala, eftersom de tvingas ta en viss risk för kvaliteten och nyttan av den vara som handlas. Om inte säljare kan ge tillräcklig information om produktkvaliteten och sin egen kvalitet i transaktionsuppfyllelse, kommer produkter och säljare av låg kvalitet att driva bort produkter av hög kvalitet och marknaden kommer att krympa (Akerlof 1970). Även om Internetmarknaderna är missgynnade i de avseenden som beskrivs ovan, har de också betydande fördelar när det gäller att skapa anseende. För det första kan all information som plockas upp vara nära kostnadsmässigt sammanräknad på kontinuerlig basis, och skriftliga bedömningar kan lätt sammanställas. För det andra kan denna information nästan utan kostnad överföras till miljontals potentiella kunder. (Tvärtom förlorar ordet munfördelning stora mängder information, med olika köpare som hör betydligt olika bedömningar av samma säljare. Det innebär också en per-berättande kostnad.) För det tredje, Internet har potential, även om för närvarande inte verkligheten, för sofistikerad bearbetning av information, t.ex., med hjälp av Bayesian beräkningar, och för att använda mikrobetalningar för att framkalla noggranna och ärliga bedömningar från Vi genomförde den första randomiserade kontrollerade studien av värdet av eBay rykte i den naturliga inställningen av faktiska eBay auktioner. Vi hade turen att säkra samarbetet med en mycket erfaren eBay vykort säljare (Swanson). Han förberedde Sida 6 av 6 matchade par av auktionspartier, och en slumpmässig enhet sedan bestämde vilket parti som såldes under hans etablerade, extremt högt rykte identitet, och vilket parti såldes genom nyskapade, okända säljare. Ungefär liknande webbplatser förbereddes för alla säljare. Andra faktorer, såsom frakt, fakturering och betalningsförfaranden, var konstanta i våra säljare. Avsnitt II beskriver eBays ryktessystem och undersöker tidigare forskning mer i detalj. Avsnitt III beskriver vårt randomiserade kontrollerade experiment och dess resultat. I avsnitt IV diskuteras resultaten och deras konsekvenser. Avsnitt V avslutas. Det finns många webbplatser med ryktessystem av något slag. EBay-systemet är utan tvekan det största och mest kända. eBay har miljontals objekt tillgängliga för bud när som helst. eBay rykte systemet gör det möjligt för användare att lämna feedback om interaktioner med varandra. Systemet är transaktionsbaserat: för att lämna feedback till varandra måste två användare faktiskt ha genomfört en auktion. Efter auktionens slut har köparen och säljaren båda möjlighet att värdera varandras resultat med antingen en 1 (positiv), en 0 (neutral), eller en -1 (negativ). Användarna har också möjlighet att lämna en textkommentar, och betygsatta individer kan svara på kommentarer som de anser vara orättvisa. Användares netto rykte poäng beräknas som antalet distinkta användare som gav positiv feedback minus antalet av dem som gav negativ feedback. Säljarens nettoryktespoäng -- positiva mindre negativa -- visas automatiskt på auktionssidan för varje objekt hon listar. Potentiella köpare ser därför detta kreditbetyg innan de lämnar anbud. II.A Förväntningar Om och erfarenhet med Feedback och Vi fokuserar på säljare rykte, eftersom de för köpare spelar lite roll. (Försäljaren kan helt enkelt vänta på att få betalt och därmed ådrar sig liten risk.) Om köparna är osäkra på säljarens pålitlighet, kommer de att belöna bättre säljares rykte genom att höja sina erbjudanden, även om varje köpare bara bryr sig om sin egen välfärd. Om det är kostsamt att bevara ett rykte av hög kvalitet, då måste ett gott rykte belönas med åtminstone kostnaden för att bygga ett. Ett dåligt rykte eller ett försämrat rykte bör medföra en förlust som överstiger nyttan av opportunistiskt beteende (Shapiro 1983). I jämvikt måste således ett gott rykte ha en prispremie. 5 Eftersom säljare som får negativ feedback kan börja om relativt lätt, köpare måste införa vissa nackdelar för säljare utan återkoppling alls (Friedman och Resnick 2001). 6 Slutligen bör vi förvänta oss att köpare inte kommer att ge information för att hjälpa till att fastställa säljare rykte, eftersom att göra det ådrar sig en kostnad, och free ridning är svårt att straffa. Det mest slående draget om eBay feedback är att det är så positivt. Säljare fick negativ feedback endast 1% av tiden, och köpare 2% (RZ). Med tanke på deras sällsynthet, negativa bör vara mycket mer följdriktiga än positiva i att påverka en säljares totala rykte. Specificeringen av negativa bör vara mycket mer informativ. Men eBay erbjuder ingen sökmekanism för att hitta negativa. Under de senaste åren har ett stort antal empiriska studier gjorts av eBays ryktessystems effekter på försäljningen. Vi är medvetna om minst 15, som sammanfattas i tabell 1. 8 En studie, BP, följer logiken i ett labb experiment, sclicing olika säljare rykte poäng i verkliga auktionslistor och ber ämnen att indikera
REF utförde ett slumpmässigt kontrollerat fältexperiment av eBays renommémekanism.
2,933,217
The Value of Reputation on eBay: A Controlled Experiment
{'venue': 'Experimental Economics', 'journal': None, 'mag_field_of_study': ['Economics', 'Computer Science', 'Business']}
4,017
Sanningsfinnande är den grundläggande tekniken för att bekräfta rapporter från flera källor i både dataintegration och kollektiva intelligenta tillämpningar. Traditionella sanningssökningsmetoder antar ett enda sant värde för varje dataobjekt och kan därför inte hantera flera sanna värden (dvs. problemet med att hitta flera sanningar). Hittills har de befintliga strategierna hanterat problemet med att finna flera sanningar på samma sätt som problemen med att finna en enda sanning. Tyvärr har problemet med att hitta flera sanningar sina unika egenskaper, såsom att involvera uppsättningar av värden i påståenden, olika konsekvenser av ömsesidigt utanförskap mellan värden och större källprofiler. Med tanke på dessa egenskaper skulle det kunna ge nya möjligheter att få mer exakta resultat när det gäller att finna sanningen. På grundval av denna insikt föreslår vi en integrerad Bayesiansk strategi för problemet med att finna flera sanningar, genom att ta hänsyn till dessa särdrag. För att förbättra effektiviteten när det gäller att hitta sanningen omformulerar vi problemmodellen som bygger på kartläggningar mellan källor och (uppsättningar av) värden. Nya ömsesidiga exklusiva förbindelser definieras för att återspegla den eventuella samexistensen av flera sanna värden. En finare metod för att upptäcka kopior föreslås också för att hantera källor med stora profiler. De experimentella resultaten från tre verkliga datauppsättningar visar hur effektivt vårt tillvägagångssätt är.
I REF, Wang et al. Definiera ett nytt ömsesidigt exklusivt förhållande mellan värden för upptäckt av flera sanningar och införliva källors förtroende för sina påståenden och en finare teknik för upptäckt av kopior i ett Bayesiskt ramverk för att ta itu med problemet.
16,207,808
An Integrated Bayesian Approach for Effective Multi-Truth Discovery
{'venue': "CIKM '15", 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,018
ABSTRACT Exakt förutsägelse av framtida tjänstetrafik skulle vara till stor hjälp för lastbalansering och resursfördelning, vilket spelar en viktig roll för att garantera kvaliteten på tjänsten (QoS) i molntjänster. Med den snabba utvecklingen av datacenter, den storskaliga nätverkstrafik förutsägelse kräver mer lämpliga metoder för att hantera komplexa egenskaper (t.ex. hög dimension, långdistansberoende, icke-linjäritet, och så vidare). På grund av de traditionella metodernas begränsningar (t.ex. starka teoretiska antaganden och enkelt genomförande) är det dock få forskningsprojekt som kan förutsäga den storskaliga nätverkstrafiken på ett effektivt och korrekt sätt. Ännu viktigare, de flesta av studierna tog bara temporal funktioner men utan tjänsternas kommunikationer i beaktande, vilket kan försvaga QoS av applikationer i datacenter. I detta syfte har vi tillämpat den gated recidiverande enheten (GRU) modellen och det interaktiva tidsrecidiva konvolutionsnätet (ITRCN) på en-tjänst trafik förutsägelse respektive interaktiv nätverkstrafik förutsägelse, respektive. I synnerhet tar ITRCN kommunikationen mellan tjänster som helhet och förutser direkt den interaktiva trafiken i storskaliga nät. Inom ITRCN-modellen lär sig konvolutionens neurala nätverk (CNN) nätverkstrafik som bilder för att fånga de nätverksomfattande tjänsternas korrelationer, och GRU-delen lär sig temporalfunktionerna för att hjälpa den interaktiva nätverkstrafikens förutsägelse. Vi utförde omfattande experiment baserade på Yahoo! Datauppsättningar, och resultaten visar att den föreslagna nya metoden överträffar den konventionella GRU- och CNN-metoden med en förbättring på 14,3 % respektive 13,0 % av rotmedelvärdet för kvadratfel. INDEX TERMS Nätverk trafik förutsägelse, interaktiv trafik representation, interaktiv tidsrecidiverande konvolution nätverk, grind återkommande enhet, konvolution neurala nätverk.
Upphovsmän i REF tillämpade GRU-modellen och det interaktiva tidsrecidiverande konvolutionsnätet (ITRCN) för trafikprognoser för en enda tjänst respektive prognoser för interaktiv nätverkstrafik.
3,481,055
Interactive Temporal Recurrent Convolution Network for Traffic Prediction in Data Centers
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
4,019
Abstrakt. Djupt lärande har blivit mycket populärt för uppgifter som prediktiv modellering och mönsterigenkänning vid hantering av big data. Djup inlärning är en kraftfull maskininlärning metod som extraherar lägre nivå funktioner och matar dem framåt för nästa lager för att identifiera högre nivå funktioner som förbättrar prestanda. Djupa neurala nätverk har dock nackdelar, som inkluderar många hyper-parametrar och oändliga arkitekturer, ogenomskinlighet till resultat, och relativt långsammare konvergens på mindre datauppsättningar. Medan traditionella maskininlärning algoritmer kan ta itu med dessa nackdelar, de är inte normalt kapabel till de prestandanivåer som uppnås genom djupa neurala nätverk. För att förbättra prestandan används ensemblemetoder för att kombinera flera baselever. Superinlärning är en ensemble som finner den optimala kombinationen av olika inlärningsalgoritmer. Detta dokument föreslår djup super lärande som ett tillvägagångssätt som uppnår log förlust och noggrannhet resulterar i konkurrenskraftiga till djupa neurala nätverk samtidigt som traditionella maskininlärning algoritmer i en hierarkisk struktur. Den djupa super eleven är flexibel, anpassningsbar och lätt att träna med bra prestanda över olika uppgifter med identiska hyperparametervärden. Med hjälp av traditionella maskininlärning kräver färre hyper-parametrar, möjliggör transparens i resultat, och har relativt snabb konvergens på mindre datauppsättningar. Experimentella resultat visar att de djupa superinlärarna har överlägsen prestanda jämfört med de individuella basinlärarna, enskiktsensembler och i vissa fall djupa neurala nätverk. Prestandan hos den djupe super eleven kan förbättras ytterligare med uppgiftsspecifik inställning.
Djup superinlärare REF använde den traditionella maskininlärning i en djupinlärning arkitektur, det cirkulärt bifogade resultaten från basmodeller till träningsdata och använde superinläraren för att kombinera sina resultat.
3,716,585
Deep Super Learner: A Deep Ensemble for Classification Problems
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
4,020
Nya tekniker i självövervakade monokulära djup uppskattning närmar sig prestanda övervakade metoder, men fungerar endast i låg upplösning. Vi visar att hög upplösning är nyckeln till hög trohet självövervakade monokulära djup förutsägelser. Inspirerad av de senaste djupt lärande metoderna för Single-Image Super-Resolution föreslår vi en subpixel-konvolutionell lagerförlängning för djup super-upplösning som exakt syntetiserar höga upplösningsskillnader från deras motsvarande lågupplösningskonvolutionella funktioner. Dessutom introducerar vi en differentiable flip-augmentation lager som exakt sammansmälter förutsägelser från bilden och dess horisontellt vända version, minska effekten av vänster och höger skugga regioner som genereras i olikhetskartan på grund av ocklusioner. Båda bidragen ger betydande resultatvinster jämfört med den senaste tekniken på ett självövervakat djup och ger en uppskattning av det offentliga KITI-riktmärket. En video av vårt tillvägagångssätt finns på https://youtu.be/jKNgBeBMx0I.
Nya verk REF 42] i självövervakade monokulära djupuppskattningar använder detta koncept för att super-lösen deras uppskattningar och ytterligare förbättra deras djupuppskattning prestanda.
52,915,685
SuperDepth: Self-Supervised, Super-Resolved Monocular Depth Estimation
{'venue': '2019 International Conference on Robotics and Automation (ICRA)', 'journal': '2019 International Conference on Robotics and Automation (ICRA)', 'mag_field_of_study': ['Computer Science', 'Engineering']}
4,021
Neurala nätverk är kraftfulla och flexibla modeller som fungerar bra för många svåra inlärningsuppgifter i bild, tal och naturligt språkförståelse. Trots deras framgång är neurala nätverk fortfarande svåra att designa. I detta papper använder vi ett återkommande nätverk för att generera modellbeskrivningar av neurala nätverk och träna denna RNN med förstärkning lärande för att maximera den förväntade noggrannheten hos de genererade arkitekturer på en valideringsuppsättning. På CIFAR-10-datasetet kan vår metod, med början från grunden, designa en ny nätverksarkitektur som konkurrerar med den bästa människouppfinnade arkitekturen när det gäller testuppsättningens noggrannhet. Vår CIFAR-10-modell uppnår en testfelfrekvens på 3,65, vilket är 0,09 procent bättre och 1,05x snabbare än den tidigare toppmoderna modellen som använde ett liknande arkitektoniskt system. På Penn Treebanks datauppsättning kan vår modell komponera en ny återkommande cell som överträffar den allmänt använda LSTM-cellen och andra toppmoderna baslinjer. Vår cell uppnår en testuppsättning på 62.4 perplexitet på Penn Treebank, vilket är 3,6 perplexitet bättre än den tidigare toppmoderna modellen. Cellen kan också överföras till teckenspråkets modelleringsuppgift på PTB och uppnå en toppmodern perplexitet på 1.214.
Enligt Zoth och Lee REF kan deras AutoML-baserade tillvägagångssätt "designa en ny nätverksarkitektur som konkurrerar med den bästa mänskliga uppfunna arkitekturen när det gäller testuppsättningens noggrannhet". Zoth och Lee visade också att en maskininlärning teknik är kapabel att slå en mjukvaruingenjör med ML färdigheter i en specifik programvaruteknik uppgift, men författarna diskuterar inte detta ämne i tidningen.
12,713,052
Neural Architecture Search with Reinforcement Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
4,022
Topiska modeller, såsom latent Dirichlet allocation (LDA), kan vara användbara verktyg för statistisk analys av dokumentsamlingar och andra diskreta data. LDA-modellen förutsätter att orden i varje dokument härrör från en blandning av ämnen, som var och en är en fördelning över ordförrådet. En begränsning av LDA är oförmågan att modellera ämnessamband även om exempelvis ett dokument om genetik mer sannolikt också handlar om sjukdom än röntgenastronomi. Denna begränsning beror på användningen av Dirichlet-distributionen för att modellera variabiliteten mellan ämnesandelarna. I denna uppsats utvecklar vi den korrelerade ämnesmodellen (CTM), där ämnes proportionerna uppvisar korrelation via den logistiska normalfördelningen [J. Roy. Statistikant. SOC. - Sergeant, vad gör du här? B 44 (1982) 139-177]. Vi härleder en snabb variationell inferensalgoritm för ungefärlig bakre inferens i denna modell, vilket kompliceras av det faktum att det logistiska normala inte konjugerar till det multinomiska. Vi tillämpar CTM på de artiklar från Science som publicerades 1990-1999, en datauppsättning som omfattar 57M-ord. Den CTM ger en bättre passform av data än LDA, och vi visar dess användning som ett undersökande verktyg för stora dokumentsamlingar.
REF införde korrelation mellan ämnen via det logistiska normala tidigare i Correlated Topic Model (CTM).
8,872,108
A correlated topic model of Science
{'venue': 'Annals of Applied Statistics 2007, Vol. 1, No. 1, 17-35', 'journal': None, 'mag_field_of_study': ['Mathematics']}
4,023
....................................... Exakt geo-registrering av markbaserade Multi-view Stereo (MVS) modeller. Vänster: en MVS-modell från geolokaliserade flygbilder. Mitten: markmodellen är framgångsrikt geo-registrerad med den föreslagna metoden. Landmärke: Castel Sant'Angelo. Höger: en översikt över de romerska landmärken som har varit geo-registrerade, som en del av vår storskaliga utvärdering. Abstract-Vi tar itu med problemet med geo-registrering markbaserade multi-view stereo modeller genom mark-till-aerial bild matchning. Det viktigaste bidraget är en helt automatiserad geo-registrering pipeline med en ny synvinkel-beroende matchningsmetod som hanterar mark till flygsynvinkel variation. Vi utför storskaliga experiment som består av många populära utomhuslandmärken i Rom. Den föreslagna metoden visar en hög framgångsgrad för uppgiften, och dramatiskt överträffar state-of-the-art tekniker, vilket ger geo-registrering vid pixel-nivå noggrannhet.
För mark-till-luft-bild matchande REF utnyttja en multi-vy stereo rekonstruktion för att warp mark bilder till nya vyer från flygkamera perspektiv.
529,237
Accurate Geo-Registration by Ground-to-Aerial Image Matching
{'venue': '2014 2nd International Conference on 3D Vision', 'journal': '2014 2nd International Conference on 3D Vision', 'mag_field_of_study': ['Computer Science']}
4,024
Djupinlärning är ett lovande tillvägagångssätt för att extrahera korrekt information från rå sensordata från IoT-enheter som används i komplexa miljöer. På grund av dess flerskiktsstruktur är djupt lärande också lämpligt för den egg computing miljön. Därför, i den här artikeln, introducerar vi först djupt lärande för sakernas internet i kanten datormiljö. Eftersom befintliga edge noder har begränsad bearbetningskapacitet, utformar vi också en ny offloading strategi för att optimera prestandan för IoT djupt lärande applikationer med egg computing. I prestandautvärderingen testar vi prestandan av att utföra flera djupinlärningsuppgifter i en egg computing-miljö med vår strategi. Utvärderingsresultaten visar att vår metod överträffar andra optimeringslösningar på djupt lärande för sakernas internet. Under de senaste åren har djupinlärning blivit en viktig metod inom många informatikområden såsom synigenkänning, bearbetning av naturligt språk och bioinformatik [1, 2]. Djupt lärande är också ett starkt analytiskt verktyg för enorma mängder data. I Internet of Things (IoT), ett öppet problem är hur man tillförlitligt minera verkliga IoT-data från en bullrig och komplex miljö som förvirrar konventionella maskininlärning tekniker. Djupt lärande anses vara det mest lovande sättet att lösa detta problem [3]. Djupt lärande har införts i många uppgifter relaterade till sakernas internet och mobila applikationer med uppmuntrande tidiga resultat. Till exempel kan djupt lärande exakt förutsäga elförbrukningen i hemmet med de data som samlas in av smarta mätare, vilket kan förbättra elförsörjningen av smarta elnät [4]. På grund av dess höga effektivitet i att studera komplexa data, djupt lärande kommer att spela en mycket viktig roll i framtida IoT-tjänster. Edge computing är en annan viktig teknik för IoT-tjänster [5] [6] [7]. På grund av dataöverföring med begränsad nätverksprestanda blir den centraliserade molndatastrukturen ineffektiv för behandling och analys av enorma mängder data som samlas in från IoT-enheter [8, 9]. Som kant computing offloads datoruppgifter från det centraliserade molnet till kanten nära IoT-enheter, överförs data är enormt minskas av förbehandlingsprocedurer. Således, i den här artikeln, introducerar vi djupt lärande för sakernas internet i kanten datormiljö för att förbättra lärande prestanda samt för att minska nätverkstrafiken. Vi formulerar en elastisk modell som är kompatibel med olika djupinlärningsmodeller. Således, på grund av de olika mellanliggande datastorlek och förbehandling overhead av olika djupinlärningsmodeller, anger vi ett schemaläggningsproblem för att maximera antalet djupinlärningsuppgifter med den begränsade nätverksbandbredd och servicekapacitet kant noder. Vi försöker också att garantera kvaliteten på tjänsten (QoS) för varje djupinlärningstjänst för sakernas internet i schemaläggningen. Vi designar offline och online schemaläggning algoritmer för att lösa problemet. Vi utför omfattande simuleringar med flera djupinlärningsuppgifter och givna edge computing-inställningar. De experimentella resultaten visar att vår lösning överträffar andra optimeringsmetoder för djupt lärande för sakernas internet. De viktigaste bidragen i denna artikel sammanfattas på följande sätt. Vi introducerar först djupinlärning för IoT i egg computing-miljön. Såvitt vi vet är detta ett innovativt arbete med fokus på djupinlärning för sakernas internet med kantdator. Vi formulerar en elastisk modell för varierande djupinlärningsmodeller för IoT in edge computing. Vi utformar också en effektiv online-algoritm för att optimera servicekapaciteten hos eggdatormodellen. Slutligen testar vi djupt lärande modellen för IoT med omfattande experiment i en given kant computing miljö. Vi jämför också vår edge computing-metod med traditionella lösningar. Resten av denna artikel kan beskrivas relAted arbete I detta avsnitt introducerar vi först relaterade tekniker om djupt lärande för sakernas internet och sedan diskutera kant computing och djupt lärande. Djupt lärande håller på att bli en ny teknik för IoT-tillämpningar och IoT-system. Den viktigaste fördelen med djupt lärande över maskininlärning är bättre prestanda med stor dataskala eftersom många IoT-tillämpningar genererar en stor mängd data för bearbetning. En annan fördel är att djupinlärning automatiskt kan ta fram nya funktioner för olika problem. Vid bearbetningen av multimediainformation, prestandan av traditionell maskininlärning beror på exaktheten av de funktioner som identifieras och extraheras. Eftersom den just kan lära sig funktioner på hög nivå som mänskliga ansikten i bilder och språkord i röster, kan djupt lärande förbättra effektiviteten i behandlingen av multimediainformation. Under tiden tar djupt lärande mycket mindre tid att sluta sig till information än traditionella maskininlärningsmetoder. Därför ger utvecklingen av IoT-enheter och teknik förutsättningar för komplexa djupinlärningsuppgifter. På grund av begränsad energi- och datorkapacitet är en viktig fråga att utföra djupt lärande applikationer i IoT-enheter. Allmän kommersiell hårdvara och programvara misslyckas med att stödja högparallell databehandling i djupinlärningsuppgifter. Lane och Al. [10] föreslog nya accelerationsmotorer, såsom DeepEar och DeepX, för att stödja olika djupinlärningsprogram i de senaste mobila systemen på chips (SoCs). Från de experimentella resultaten, mobila IoT-enheter med high-spec SoCs kan stödja en del av inlärningsprocessen. Att införa djupinlärning i fler IoT-tillämpningar är en annan viktig forskningsfråga [11]. Effektiviteten av djupt lärande för IoT har utvärderats i många viktiga IoT-tillämpningar. Till exempel, vissa verk fokuserar på applikationer i bärbara IoT-enheter som används i dynamiska och komplexa miljöer som ofta förvirrar traditionella maskininlärningsmetoder. Bhattacharya m.fl. [12] föreslog en ny modell för djupinlärning för bärbara IoT-enheter som förbättrar noggrannheten i ljudigenkänningsuppgifter. De flesta befintliga djupinlärningsprogram (t.ex. taligenkänning) behöver fortfarande vara moln-assisterade. Alsheikh m.fl. [13] föreslog ett ramverk för att kombinera djuplärande algoritmer och Apache Spark för IoT-dataanalys. Inferensfasen utförs på mobila enheter, medan Apache Spark används i molnservrar för att stödja datautbildning. Denna två-lager design är mycket lik kant computing, vilket visar att det är möjligt att avlasta bearbetningsuppgifter från molnet. Edge computing föreslås för att flytta datorkapacitet från centraliserade molnservrar till edge noder nära användarens slut. Edge computing ger två stora förbättringar av den befintliga molndatorn. Den första är att kant noder kan förbehandla stora mängder data innan de överförs till de centrala servrarna i molnet. Den andra är att molnresurserna optimeras genom att möjliggöra kant noder med datorkapacitet [14]. På grund av den potential som egg computing medför kan de ovannämnda problemen med molninfrastrukturen hanteras väl. Liu m.fl. [15] föreslog det första arbetet med att införa djupinlärning i den avancerade datormiljön. De föreslog en djupt lärandebaserad ansökan om erkännande av livsmedel genom att använda nätbaserad tjänsteinfrastruktur. Deras arbete visar att spetsdatorer kan förbättra prestandan hos djupinlärningsprogram genom att minska svarstiden och minska energiförbrukningen. Men detta arbete anses mobiltelefoner som kant noder, vilket inte är lämpligt för IoT-tjänster eftersom de flesta IoT-enheter är utrustade endast med låg-spec marker. Eftersom vi fokuserar på allmänna IoT-enheter utan tillräckligt med energi tillägg och högspec-chips, är kantservrar utplaceras i IoT gateways, som har tillräcklig servicekapacitet för att utföra djupt lärande algoritmer. I detta avsnitt introducerar vi först scenariot med djupt lärande för sakernas internet och sedan presentera den kant computing ram för djupt lärande för sakernas internet. Vanligtvis, IoT-enheter genererar stora mängder data och överföra data till molnet för vidare behandling. Dessa data omfattar multimediainformation, såsom video, bilder och ljud, eller strukturerade data, såsom temperatur, vibrationer och ljusflödesinformation. Det finns många mogna tekniker för att bearbeta strukturerade data och sedan automatiskt kontrollera IoT-enheter. Traditionell multimediabehandlingsteknik, som kräver komplexa beräkningar, är inte lämplig för IoT-tjänster. Eftersom tekniken för djupinlärning förbättrar effektiviteten i behandlingen av multimediainformation, har allt fler arbeten börjat införa djupinlärning i multimedia IoT-tjänster. Videoanalys är ett viktigt IoT-program, som integrerar bildbehandling och datorseende i IoT-nätverk. Det är fortfarande en utmaning att känna igen objekt från videodata av låg kvalitet som registrerats av IoT-enheter. Eftersom djupt lärande visar mycket lovande noggrannhet i videoigenkänning, anser vi att det är ett typiskt IoT-program med djupt lärande. Således, som visas i Fig. 1, Vi använder en videoigenkänning IoT-applikation som exempel för att införa djupt lärande för IoT. Det finns flera trådlösa videokameror som övervakar miljön och känner igen föremål. De trådlösa kamerorna samlar 720p videodata Den viktigaste fördelen med djupinlärning över maskininlärning är den bättre prestandan med stor dataskala eftersom många IoT-applikationer genererar en stor mängd data för bearbetning. En annan fördel är att djupinlärning automatiskt kan ta fram nya funktioner för olika problem. 98 med en bithastighet på 3000 kb/s. Sedan överför kamerorna insamlade data till IoT-gatewayen genom allmänna WiFi-anslutningar. IoT gateways vidarebefordrar alla insamlade data till molntjänsten genom Internetkommunikation efter kodning och komprimera rå videodata. Molntjänsten känner igen objekten i insamlade videodata genom ett nätverk för djupinlärning. Ett djupt lärande nätverk har vanligtvis flera lager. Indata kommer att behandlas i dessa lager. Varje lager bearbetar de mellanliggande funktionerna som genereras av det föregående lagret och genererar sedan nya funktioner. Slutligen, de extraherade funktioner som genereras av den sista djupinlärning nätverk lager kommer att behandlas av en klassificerare och erkänns som utdata. I djupinlärningsnätverk anser vi att lagren nära ingångsdata är lägre lager; andra är högre lager. I exemplet använder vi AlexNet för att identifiera objektet i insamlade videodata. AlexNet har åtta lager där de första fem lagren är konvolutionella lager, och följande tre lager är helt anslutna lager. Vi tränar först det djupa lärnätverket med ett öppet dataset från Kaggle, som består av 25.000 hund- och kattbilder. Den djupinlärning ansökan vill upptäcka rätt djur i den korrigerade videodata. Vi använder en överföring lärteknik för att bygga klassificeringen, som ger texten "katt" eller "hund" efter att ha bearbetat alla extraherade funktioner. Djupt lärande förbättrar effektiviteten i multimediabehandling för IoT-tjänster eftersom funktioner extraheras av flera lager i stället för traditionell komplex förbehandling. Kommunikationsprestandan kommer dock att bli flaskhalsen med förbättrad processeffektivitet. Den insamlade multimedia datastorleken är mycket större än traditionell strukturerad datastorlek, men det är svårt att förbättra prestandan för nätverket för överföring av insamlade data från IoT-enheter till molntjänsten. I exemplet behöver varje kamera en bandbredd på 3 Mb/s för att uppgradera videodata, medan IoT-gateway behöver 9 Mb/s. Edge computing är en möjlig lösning på problemet med att överföra insamlade data från IoT-enheter till molnet. I IoT-nätverket finns det två lager, kantlagret och molnlagret, för att ansluta IoT-enheter och molntjänsten. Kantlagret består vanligtvis av IoT-enheter, en IoT-gateway och nätverksåtkomstpunkter i lokala nätverk. I molnskiktet ingår Internetanslutningar och molnservrar. Edge computing innebär att behandlingen utförs i kantlagret istället för molnlagret. I egg computing-miljön, eftersom endast de mellanliggande data eller resultat behöver överföras från enheterna till molntjänsten, är trycket på nätverket lättas med mindre överföring av data. Edge computing är mycket lämplig för de uppgifter där storleken på mellanliggande data är mindre än inmatningsdata. Därför är edge computing effektivt för djupinlärning uppgifter, eftersom storleken på extraherade funktioner skalas ner av filtren i djupinlärning nätverk lager. I exemplet är den mellanliggande datastorleken som genereras av det första skiktet 134 på 89 B/ram och 2300 kb/s om vi vill känna igen varje ram. Om vi bara vill bearbeta nyckelramar i videodata, storleken på de genererade mellandata är bara 95 kb/s. Som visas i bild. 2, Vi presenterar en kant computing struktur för IoT djupt lärande uppgifter. Strukturen består av två lager samt en typisk edge computing struktur. I kantlagret är kantservrar utplacerade i IoT-gateways för behandling av insamlade data. Vi tränar först de djupa nätverken i molnservern. Efter utbildningsfasen delar vi upp lärnätverken i två delar. En del innehåller de lägre lagren nära ingångsdata, medan en annan del innehåller de högre lagren nära utgångsdata. Vi distribuerar den del med lägre lager i kantservrar och den del med högre lager i molnet för avlastning bearbetning. De insamlade uppgifterna matas alltså in i det första lagret i kantservrarna. Kantservrarna laddar de mellanliggande data från de lägre lagren och överför sedan data till molnservern som indata för de högre lagren. I exemplet, om vi distribuerar det första lagret i IoT-gateway, kommer de mellanliggande data med storleken 134 × 89 × 1 B/frame att skickas till det andra lagret i molnservern för vidare behandling. Ett problem är hur man delar varje nätverk för djupinlärning. Vanligtvis är storleken på de mellanliggande data som genereras av de högre skikten mindre än den som genereras av de lägre skikten. Att placera fler lager i kantservrar kan minska mer nätverkstrafik. Serverkapaciteten för kantservrar är dock begränsad jämfört med molnservrar. Det är omöjligt att bearbeta oändliga uppgifter i kantservrar. Varje lager i ett djupt lärande nätverk kommer att ge ytterligare beräknings omkostnader till servern. Vi kan bara distribuera en del av det djupa lärnätverket till kantservrar. Samtidigt, eftersom olika djupinlärning nätverk och uppgifter har olika storlekar av mellanliggande data och beräkning overhead, effektiv schemaläggning behövs för att 99 optimera djupt lärande för IoT i kanten datorstruktur. Vi utformar en effektiv schemaläggningsstrategi för detta problem och diskuterar det i nästa avsnitt. I detta avsnitt anger vi först schemaläggning problem i kanten datorstruktur för IoT djupt lärande och sedan presentera lösningen. I en given edge computing-miljö använder vi en uppsättning E för att beteckna alla edge-servrar och e i för att beteckna en edge-server i uppsättning E. Från edge-server e i till moln-servern använder vi ett värde c i för att beteckna servicekapaciteten och b i för att beteckna nätverksbandbredden. Vi lägger också till ett tröskelvärde som betecknas av V för att undvika överbelastning av nätet eftersom det finns viss interaktionstrafik mellan kantservrarna och molnservrarna. Således är den maximala tillgängliga bandbredden mellan e i och molnservern betecknad med b i · V. Låta uppsättningen T betecknar alla djupinlärningsuppgifter och t j betecknar en djupinlärning uppgift i uppsättning T. Antalet uppgift t j's djupinlärning nätverk lager är N j. Vi antar att den reducerade datastorleken är nära ett medelvärde för varje uppgift med olika indata. Den genomsnittliga kvoten mellan den mellanliggande datastorleken som genereras av kth-skiktet (k... [1, N j ]) och den totala indatastorleken betecknas med r kj. För uppgift t j och kant server e i, tilldelad bandbredd betecknas av b ij. Låt d ij betecknar indatastorleken per tidsenhet för aktivitet t j i kanten server e i. Således överföring latency av uppgift t j i kant server e i kan betecknas d ij · r kj /b ij, om k lager av uppgift t j placeras i kant server e i. För att garantera QoS, bör överföringen latens vara mindre än ett högsta värde som anges av Q j. För uppgift t j, den beräkningsmässiga overhead för en enhet av indata efter kth skiktet betecknas med l kj. Därför, för uppgift t j, den beräknade overhead in edge server e i är l kj · d ij. Problemet med schemaläggning IoT Deep Learning Network Layers in Edge Computing: Med tanke på en kant computing struktur, försöker schemaläggning problem att tilldela maximala uppgifter i kanten datorstruktur genom att distribuera djupinlärning lager i IoT edge servrar sådan att den nödvändiga överföring latency för varje uppgift kan garanteras, betecknar med var X ij = 1 om uppgift t j är utplacerad i edge server e i; annars X ij = 0. Vi föreslår en offlinealgoritm och en onlinealgoritm för att lösa schemaläggningsproblemet. Den offline schemaläggning algoritm först får reda på k j m, som maximerar värdet av r kj · l kj, och edge server i j m, som har den största indata uppgift t j. Därefter sorterar algoritmen alla uppgifter i stigande ordning efter den största indatastorleken. Schemaläggningen distribuerar först aktivitet t j med minsta indatastorlek till kantservrar. Algoritmen passerar alla kantservrar för att kontrollera om en kantserver har tillräcklig servicekapacitet och nätverksbandbredd för att distribuera aktivitet t j. Om alla edge-servrar har tillräcklig servicekapacitet och bandbredd, distribuerar algoritmen aktivitet t j till alla edge-servrar. Om en eggserver inte har tillräckligt med uppladdningsbandbredd eller servicekapacitet, ändrar algoritmen värdet på k och tar reda på en lämplig k för att distribuera aktivitet t j i alla eggservrar. Om eggservern inte har tillräcklig servicekapacitet eller nätverksbandbredd även efter varierande k, kommer schemaläggningsalgoritmen inte att distribuera aktivitet t j i eggservrar. I värsta fall är komplexiteten hos offline-algoritmen O( på engelska) 2 · K) där K är det maximala antalet djupinlärningsnätverksskikt av varje uppgift. Eftersom antalet uppgifter är mycket större än antalet edge servrar och djupinlärning nätverk lager, komplexiteten i den föreslagna algoritmen är O( på engelska), vilket är tillräckligt bra för praktisk schemaläggning. Vi analyserar också algoritmens effektivitet och finner att det ungefärliga förhållandet är 2/V. Samtidigt utformar vi en online schemaläggningsalgoritm som bestämmer utplaceringen när uppgift t j kommer. Eftersom uppgiften schemaläggning har lite information om funktionsuppgifter, är utplaceringsbeslutet baserat på de historiska uppgifterna. Vi använder B max och B min för att beteckna den maximala och minsta bandbredd som krävs för en uppgift, respektive. Således, för uppgift t j, vi först beräkna k j m och i j m. Då definierar vi ett värde F(c ij m) ← (B min · e/B max ) I detta avsnitt beskriver vi först experimentinställningarna och sedan diskutera resultatet prestandautvärdering. I experimenten har vi två miljöer, en för insamling av data från djupinlärningsuppgifter och en för simuleringar. För att utföra djupinlärningsprogram använder vi en arbetsstation utrustad med en Intel Core i7 7770 CPU och NVIDIA Geforce GTX 1080 grafiskt kort. Vi använder Caffe som CNN-ramverk och definierar 10 olika CNN-nätverk. Vi utför 10 CNN uppgifter FIGURE 2. Edge computing struktur för IoT djupt lärande.
I REF, Li et al. Utforma en avlastningsstrategi för att optimera prestandan hos IoT-tillämpningar för djupt lärande i EG-miljöer.
42,367,028
Learning IoT in Edge: Deep Learning for the Internet of Things with Edge Computing
{'venue': 'IEEE Network', 'journal': 'IEEE Network', 'mag_field_of_study': ['Computer Science']}
4,025
Neurala nätverk är både beräkningsintensiva och minnesintensiva, vilket gör dem svåra att distribuera på inbyggda system med begränsade hårdvaruresurser. För att ta itu med denna begränsning, introducerar vi "djup kompression", en trestegs pipeline: beskärning, utbildad kvantisering och Huffman kodning, som arbetar tillsammans för att minska lagringskravet för neurala nätverk med 35× till 49× utan att påverka deras noggrannhet. Vår metod först beskär nätverket genom att lära sig bara viktiga anslutningar. Därefter kvantifierar vi vikterna för att tvinga fram viktdelning, slutligen använder vi Huffman-kodning. Efter de två första stegen tränar vi om nätverket för att finjustera de återstående anslutningarna och de kvantiserade centroiderna. Beskärning, minskar antalet anslutningar med 9× till 13×; Kvantisering minskar sedan antalet bitar som representerar varje anslutning från 32 till 5. På ImageNet dataset, vår metod minskade lagring som krävs av AlexNet med 35×, från 240MB till 6,9MB, utan förlust av noggrannhet. Vår metod minskade storleken på VGG-16 med 49× från 552MB till 11,3MB, igen utan förlust av noggrannhet. Detta gör det möjligt att montera modellen i on-chip SRAM cache snarare än off-chip DRAM minne. Vår komprimeringsmetod underlättar också användningen av komplexa neurala nätverk i mobila applikationer där applikationens storlek och nedladdningsbandbredd begränsas. Benchmarked på CPU, GPU och mobil GPU, komprimerat nätverk har 3× till 4× lagervis speedup och 3× till 7× bättre energieffektivitet.
De införde ytterligare kvantisering och huffman kodning i deras Deep Compression REF beskärningsmetod.
2,134,321
Deep Compression: Compressing Deep Neural Networks with Pruning, Trained Quantization and Huffman Coding
{'venue': 'ICLR 2016', 'journal': 'arXiv: Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
4,026
Programvaruproduktlinjer (SPL) är programvaruarkitekturer som enkelt kan konfigureras om för olika projektkrav. En viktig del av ett SPL är en modell som fångar reglerna för att konfigurera programvaran. SPL använder ofta funktionsmodeller för att fånga SPL-konfigurationsregler. Varje SPL-konfiguration representeras som ett urval av funktioner från funktionsmodellen. Ogiltiga SPL-konfigurationer kan skapas på grund av funktionskonflikter som införs via iscensatt eller parallell konfiguration eller ändringar av begränsningarna i en funktionsmodell. När ogiltiga konfigurationer skapas behövs en metod för att automatisera diagnosen av felen och reparera funktionsval. Detta dokument ger två bidrag till forskning om automatiserad konfiguration av SPL. För det första visar det hur konfigurationer och funktionsmodeller kan omvandlas till problem med begränsad tillfredsställelse för att automatiskt diagnostisera fel och reparera ogiltiga funktionsval. För det andra presenteras empiriska resultat från diagnostisering av konfigurationsfel i funktionsmodeller som varierar i storlek från 100 till 5000 funktioner. Resultaten av våra experiment visar att vår CSP-baserade diagnostiska teknik kan skala upp till modeller med tusentals funktioner.
Vit et al. REF presenterade ett tillvägagångssätt för att automatisera konfigurationen i SPL genom att omvandla funktionsmodell och konfigurationer i Constraint Satisfaction Problem (CSP).
14,619,295
Automated Diagnosis of Feature Model Configurations
{'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,027
Vi föreslår en djupt lärande metod för enkelbild super-upplösning (SR). Vår metod lär sig direkt en end-to-end-kartläggning mellan låg-/högupplösta bilder. Kartläggningen representeras som ett djupt konvolutionellt neuralt nätverk (CNN) som tar den lågupplösta bilden som ingång och utgångar den högupplösta. Vi visar vidare att traditionella SR-metoder baserade på sparse-kodning också kan ses som ett djupt konvolutionsnätverk. Men till skillnad från traditionella metoder som hanterar varje komponent separat optimerar vår metod gemensamt alla lager. Vår djupa CNN har en lätt struktur, men ändå visar toppmodern återställningskvalitet, och uppnår snabb hastighet för praktisk on-line-användning. Vi utforskar olika nätverksstrukturer och parameterinställningar för att uppnå kompromisser mellan prestanda och hastighet. Dessutom utökar vi vårt nätverk för att klara av tre färgkanaler samtidigt, och visa bättre övergripande återuppbyggnad kvalitet.
Som pionjärarbete införde SRCNN REF för första gången djup inlärning i superupplösning och visade att den glesa representationen kan ses som ett konvolutionellt neuralt nätverk (CNN).
6,593,498
Image Super-Resolution Using Deep Convolutional Networks
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
4,028
Differentiell integritet är ett begrepp om sekretess som skyddar individers integritet samtidigt som användbara beräkningar på deras privata data. Att härleda olika sekretessgarantier för verkliga program är en svår och felbenägen uppgift som kräver principiella tillvägagångssätt och verktygsstöd. Tillvägagångssätt baserade på linjära typer och statisk analys har nyligen uppstått; dock, ett ökande antal program uppnå integritet med hjälp av tekniker som inte kan analyseras av dessa metoder. Exempel inkluderar program som syftar till svagare, ungefärlig differential integritet garantier, program som använder Exponential mekanism, och randomiserade program som uppnår differential integritet utan att använda någon standard mekanism. Att ge stöd till resonemang om sådana programs integritet har varit ett öppet problem. Vi rapporterar om CertiPriv, en maskinkontrollerad ram för resonemang om differential integritet byggd på toppen av Coq bevis assistent. Den centrala komponenten i CertiPriv är en kvantitativ utvidgning av en probabilistisk relationslogik som gör det möjligt att härleda olika integritetsgarantier för program från de första principerna. Vi visar hur uttrycksfull CertiPriv är med hjälp av ett antal exempel vars formella analys är utom räckhåll för tidigare tekniker. I synnerhet tillhandahåller vi de första maskinkontrollerade bevisen på riktigheten i Laplacian och Exponential mekanismer och integriteten av randomiserade och strömmande algoritmer från den senaste litteraturen.
Barthe m.fl. REF presenterade CertiPriv, en maskinkontrollerad ram för resonemang om differential integritet byggd på toppen av Coq bevis assistent.
52,828,251
Probabilistic relational reasoning for differential privacy
{'venue': "POPL '12", 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,029
Aspect-baserad känsloanalys (ABSA) försöker förutsäga polariteten i ett visst dokument med avseende på en viss aspektenhet. Medan neurala nätverk arkitekturer har varit framgångsrika i att förutsäga den totala polaritet meningar, aspektspecifika känslor analys fortfarande är ett öppet problem. I detta dokument föreslår vi en ny metod för att integrera aspektinformation i den neurala modellen. Mer specifikt införlivar vi aspekten information i den neurala modellen genom att modellera word-aspect relationer. Vår nya modell, Aspect Fusion LSTM (AF-LSTM) lär sig att delta baserat på associativa relationer mellan meningsord och aspekt som gör det möjligt för vår modell att anpassa sig till de korrekta orden som ges en aspektterm. Detta förstärker bristerna hos andra state-of-the-art modeller som använder naiva konkatender för att modellera ord-aspekt likhet. Istället antar vår modell cirkulär konvolution och cirkulär korrelation för att modellera likheten mellan aspekt och ord och elegant införlivar detta inom en differentierad neural uppmärksamhetsram. Slutligen är vår modell end-to-end differential och starkt relaterad till konvolution-korrelation (holografiska liknande) minnen. Vår föreslagna neuralmodell uppnår state-of-the-art prestanda på benchmarking datauppsättningar, outperforming ATAE-LSTM med 4% - 5% i genomsnitt över flera datauppsättningar.
REF föreslår Aspect Fusion LSTM (AF-LSTM) modell med ett nytt associationsskikt efter LSTM för att modellera word-aspect relation med cirkulär konvolution och cirkulär korrelation.
5,824,248
Learning to Attend via Word-Aspect Associative Fusion for Aspect-based Sentiment Analysis
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
4,030
ABSTRACT Convolutional Neural Networks (CNN) har under de senaste åren blivit den faktiska tekniken för bildextraktion. Deras utformning och konstruktion är dock fortfarande en komplicerad uppgift. Allteftersom utvecklingen går framåt när det gäller CNN:s interna komponenter blir uppgiften att samla dem effektivt från kärnkomponenter ännu mer mödosam. För att övervinna dessa barriärer föreslår vi Swarm Optimized Block Architecture, kombinerat med en förbättrad adaptiv partikelsvärmoptimering (PSO) algoritm för djup CNN-modellutveckling. Den förbättrade PSO-modellen använder adaptiva accelerationskoefficienter som genereras med hjälp av flera cosinus glödgningsmekanismer för att övervinna stagnation. Speciellt föreslår vi en kombinerad utbildnings- och strukturoptimeringsprocess för djupgående CNN-modellgenerering, där den föreslagna PSO-modellen används för att utforska ett skräddarsytt sökområde som definieras av en förenklad blockbaserad struktur. Den föreslagna PSO-modellen skapar inte bara djupa nätverk specifikt för bildklassificering, utan bygger också och pre-trainerar modeller för överföring av inlärningsuppgifter. För att avsevärt minska hårdvaru- och beräkningskostnaderna för sökningen optimeras och tränas CNN-modellen samtidigt med hjälp av en viktdelningsmekanism och en slutlig finjusteringsprocess. Vårt system jämförs gynnsamt med relaterad forskning för optimerad djupnätverksgenerering. Den uppnår en felfrekvens på 4,78 % för CIFAR-10-bildklassificeringen, med 34 timmars kombinerad optimering och träning, och en felfrekvens på 25,42 % för CIFAR-100-bilddata på 36 timmar. Alla experiment utfördes på en enda NVIDIA GTX 1080Ti konsument GPU. Datorseende, konvolutionella neurala nätverk, djupinlärning, evolutionsberäkning, bildklassificering, partikelsvärmoptimering.
Fielding och Zhang REF använde en förbättrad PSO-variant för att effektivt navigera i ett blockbaserat CNN-sökutrymme med hjälp av viktdelningstekniker för att lindra den enorma tids- och resurskostnaden för fitnessfunktionsutvärderingen.
54,449,644
Evolving Image Classification Architectures With Enhanced Particle Swarm Optimisation
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
4,031
Aspect-baserad känsloanalys (ABSA) försöker förutsäga polariteten i ett visst dokument med avseende på en viss aspektenhet. Medan neurala nätverk arkitekturer har varit framgångsrika i att förutsäga den totala polaritet meningar, aspektspecifika känslor analys fortfarande är ett öppet problem. I detta dokument föreslår vi en ny metod för att integrera aspektinformation i den neurala modellen. Mer specifikt införlivar vi aspekten information i den neurala modellen genom att modellera word-aspect relationer. Vår nya modell, Aspect Fusion LSTM (AF-LSTM) lär sig att delta baserat på associativa relationer mellan meningsord och aspekt som gör det möjligt för vår modell att anpassa sig till de korrekta orden som ges en aspektterm. Detta förstärker bristerna hos andra state-of-the-art modeller som använder naiva konkatender för att modellera ord-aspekt likhet. Istället antar vår modell cirkulär konvolution och cirkulär korrelation för att modellera likheten mellan aspekt och ord och elegant införlivar detta inom en differentierad neural uppmärksamhetsram. Slutligen är vår modell end-to-end differential och starkt relaterad till konvolution-korrelation (holografiska liknande) minnen. Vår föreslagna neuralmodell uppnår state-of-the-art prestanda på benchmarking datauppsättningar, outperforming ATAE-LSTM med 4% - 5% i genomsnitt över flera datauppsättningar.
REF introducerar en wordaspect fusion operation för att lära sig associativa relationer mellan aspekter och meningar.
5,824,248
Learning to Attend via Word-Aspect Associative Fusion for Aspect-based Sentiment Analysis
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
4,032
Abstract-The IPv6 over low power wireless personal area network (6LoWPAN) har fått mycket uppmärksamhet nyligen eftersom det kan användas för kommunikation av Internet av saker. I detta dokument beaktas begreppet gruppbaserad nätverksroaming i domänen proxymobil IPv6 (PMIPv6) i de 6LoWPAN-baserade trådlösa nätverken. PMIPv6 är en standard för att hantera nätverksbaserad rörlighet i alla IP trådlösa nätverk. Det fungerar dock inte bra i gruppbaserade nätverk av organområden. För att ytterligare minska kostnaden för förseningar och signalering föreslås i detta dokument ett förbättrat system för gruppmobilitet för att minska antalet kontrollmeddelanden, inklusive routerförfrågningar och routerannonsmeddelanden i motsats till det gruppbaserade PMIPv6-protokollet. Simuleringsresultat visar att det föreslagna avlämningssystemet kan minska avlämningsfördröjningen och signalkostnaden. Paketförlustkvoten och omkostnaderna kan också minskas. Index Terms-Wireless body area networks, proxy MIMv6, leveransfördröjning, signalkostnad, 6LoWPAN.
Chen och Al. REF övervägde en gruppbaserad nätverksroaming i proxymobil IPv6 (PMIPv6) domän i 6LoWPAN-baserade trådlösa kretsnät.
62,762,480
An Enhanced Group Mobility Protocol for 6LoWPAN-Based Wireless Body Area Networks
{'venue': 'IEEE Sensors Journal', 'journal': 'IEEE Sensors Journal', 'mag_field_of_study': ['Computer Science']}
4,033
Abstract-I detta brev undersöker vi avvägningen mellan energieffektivitet (EE) och spektral effektivitet (SE) i enhet-till-enhet (D2D) kommunikation underlaying cellulära nätverk med upplänk kanal återanvändning. Resurstilldelningsproblemet är modellerat som ett icke-kooperativt spel, där varje användarutrustning (UE) är egenintresserad och vill maximera sin egen EE. Med tanke på SE-kravet och de maximala överföringsbegränsningarna föreslås en distribuerad energieffektiv resursfördelningsalgoritm genom att man utnyttjar egenskaperna hos den ickelinjära delprogrammeringen. Förhållandena mellan EE och SE-handel av den föreslagna algoritmen och systemparametrar analyseras och verifieras genom datorsimuleringar. Index Terms-EE och SE-handel, D2D-kommunikation, icke-kooperativt spel, icke-linjär delprogrammering.
I REF föreslogs en distribuerad energieffektiv resursfördelningsalgoritm genom att utnyttja egenskaperna hos den ickelinjära delprogrammeringen.
18,468,453
Energy Efficiency and Spectral Efficiency Tradeoff in Device-to-Device (D2D) Communications
{'venue': 'IEEE Wireless Communications Letters', 'journal': 'IEEE Wireless Communications Letters', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
4,034
Sammanfattning Det uppskattas att-till 2020-miljarder enheter kommer att anslutas till Internet. Detta nummer omfattar inte bara TV-apparater, datorer, surfplattor och smartphones, utan också miljarder inbäddade sensorer som kommer att utgöra "Internet of Things" och möjliggöra ett helt nytt utbud av intelligenta tjänster inom områden som tillverkning, hälsa, smarta hem, logistik, etc. I viss mån kan underrättelser som databehandling eller åtkomstkontroll placeras på själva utrustningen. Alternativt kan funktioner läggas ut på entreprenad till molnet. I verkligheten finns det ingen enda lösning som passar alla behov. Samarbete mellan enheter, mellanliggande infrastruktur (lokala nätverk, accessnät, globala nätverk) och/eller molnsystem behövs för att på bästa sätt stödja IoT-kommunikation och IoT-tillämpningar. Genom distribuerad intelligens kommer rätt kommunikations- och bearbetningsfunktion att finnas tillgänglig på rätt plats. Den första delen av detta dokument motiverar behovet av sådan distribuerad information baserad på brister i typiska IoT-system. Den andra delen fokuserar på konceptet sensorfunktionsvirtualisering, en potentiell möjliggörare för distribuerad intelligens, och presenterar lösningar på hur man kan förverkliga det.
För att optimalt stödja det stora utbudet av IoT-tillämpningar och användarbehov behövs intelligens både i de smarta objekt som befolkar scenen och den infrastruktur som de förlitar sig på för kommunikation och samordning REF.
5,672,789
Sensor Function Virtualization to Support Distributed Intelligence in the Internet of Things
{'venue': None, 'journal': 'Wireless Personal Communications', 'mag_field_of_study': ['Computer Science']}
4,035
I detta arbete lyfter vi fram ett samband mellan den stegvisa proximala metoden och stokastiska filter. Vi börjar med att visa att de proximala operatörerna sammanfaller, och därmed kan realiseras med, Bayes uppdateringar. Vi ger den explicita formen av uppdateringarna för den linjära regressionsproblem och visar att det finns en en-till-en korrespondens mellan den proximala operatören av den minsta-kvarts regression och Bayes uppdatering när föregående och sannolikheten är Gaussian. Vi utför sedan denna observation till en allmän sekventiell inställning: Vi betraktar den inkrementella proximala metoden, som är en algoritm för storskalig optimering, och visar att för en linjär-kvadratisk kostnadsfunktion, kan det naturligtvis realiseras av Kalman-filtret. Därefter diskuterar vi konsekvenserna av denna idé för icke-linjära optimeringsproblem där proximala operatörer i allmänhet inte kan realiseras. I sådana miljöer hävdar vi att det utökade Kalman-filtret kan ge ett systematiskt sätt att härleda praktiska förfaranden.
I REF är den stegvisa proximala metoden (IPM) kopplad till Kalmanfiltret.
52,290,411
The Incremental Proximal Method: A Probabilistic Perspective
{'venue': '2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)', 'journal': '2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
4,036
För flera semiringar S är två viktade finita automata med multipliciteter i S likvärdiga om och endast om de kan anslutas genom en kedja av simuleringar. Ett sådant semiringande S kallas "riktigt". Det är känt att Booleska semiring, semiring av naturliga tal, ringen av heltal, alla ändliga pendlande positivt beställda semirings och alla fält är korrekta. Den semiringande S är Noetherian om varje subsemimodul av en finit genererad S-semimodul är finit genererad. För det första visas det att alla noeteriska halvringar och därmed alla pendlande ringar och alla finita halvringar är korrekta. För det andra visar det sig att den tropiska halvringen inte är tillbörlig. Hittills har det inte funnits något exempel på en halvring som inte är korrekt.
I REF kallas en semiring S korrekt när: två S-viktade automata är språkekvivalent om och endast om de är anslutna av en ändlig kedja av simuleringar.
7,403,712
Simulation vs. Equivalence
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
4,037
Abstrakt. Vi presenterar en formell modell för statliga säkerhetsprotokoll. Denna modell används för att definiera ägande och ägaröverlåtelse som begrepp såväl som säkerhetsfastigheter. Dessa definitioner grundar sig på en intuitiv uppfattning om ägandet i samband med det fysiska ägandet. De syftar till RFID-system, men bör vara tillämpliga på alla scenarier som delar samma intuition om ägande. Vi diskuterar sambandet mellan ägande och begreppet desynkroniseringsmotstånd och ger den första formella definitionen av det senare. Vi tillämpar våra definitioner på befintliga RFID-protokoll, utvisar attacker mot desynkroniseringsmotstånd, säker ägarskap och säker ägaröverföring.
Deursen, Mauw, Radomirović och Vulllers REF införde en formell definition av säker ägaröverföring i RFID-system.
2,005,390
Secure ownership and ownership transfer in RFID systems
{'venue': 'In Proceedings of the 14th European Symposium on Research in Computer Security, ESORICS 2009, Lecture Notes in Computer Science', 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,038
Val av funktioner är ett viktigt förbearbetningssteg i maskininlärning och datautvinning, t.ex. klassificeringsuppgifter. Forskning om urval av funktioner har bedrivits i stor utsträckning i mer än femtio år och olika typer av tillvägagångssätt har föreslagits, bland annat omslagsstrategier eller filtermetoder, och enskilda objektiva tillvägagångssätt eller multiobjektiva tillvägagångssätt. För- och nackdelarna med sådana metoder har dock inte undersökts ingående. Detta dokument ger en omfattande studie om jämförelse av olika typer av urvalsmetoder för funktioner, särskilt med jämförelser av klassificeringsprestanda och beräkningstid för omslag och filter, allmänna omslagsstrategier och jämförelser av enskilda objektiva och multiobjektiva tillvägagångssätt. Partikelsvärmens optimeringsbaserade metoder, som inkluderar olika typer av metoder, används som typiska exempel för att bedriva denna forskning. Totalt 10 olika urvalsmetoder och över 7000 experiment är inblandade. Resultaten visar att filter oftast är snabbare än omslag, men omslag med hjälp av en enkel klassificeringsalgoritm kan vara snabbare än filter. Wrapper uppnår ofta bättre klassificeringsprestanda än filter. Feature undergrupper som erhållits från omslag kan vara allmänna till andra klassificeringsalgoritmer. Samtidigt är multi-objektiva tillvägagångssätt i allmänhet bättre val än enskilda objektiva algoritmer. Resultaten är inte bara användbara för forskare att utveckla nya metoder för att ta itu med nya utmaningar i urval av funktioner, utan också användbara för verkliga beslutsfattare att välja en specifik funktion urvalsmetod enligt sina egna krav.
Baserat på utvärderingskriterierna kan urvalsmetoder delas in i två kategorier, filtermetoden och Wrapper-metoden Ref.
16,482,808
A Comprehensive Comparison on Evolutionary Feature Selection Approaches to Classification
{'venue': 'International Journal of Computational Intelligence and Applications', 'journal': 'International Journal of Computational Intelligence and Applications', 'mag_field_of_study': ['Computer Science']}
4,039
ABSTRACT Intrusionsdetektering är en grundläggande del av säkerhetsverktyg som adaptiv säkerhetsutrustning, intrångsdetekteringssystem, intrångsförebyggande system och brandväggar. Olika metoder för att upptäcka intrång används, men deras prestanda är ett problem. Inkrementell detektionsprestanda beror på noggrannhet, vilket måste förbättras för att minska falska larm och för att öka detektionshastigheten. För att lösa problem på prestanda, flera lager perceptron, stöd vektor maskin (SVM) och andra tekniker har använts i det senaste arbetet. Sådana tekniker anger begränsningar och är inte effektiva för användning i stora datamängder, t.ex. system- och nätverksdata. Inbrottsdetekteringssystemet används för att analysera enorma trafikdata; därför krävs en effektiv klassificeringsteknik för att lösa problemet. Detta problem behandlas i detta dokument. Välkända maskininlärning tekniker, nämligen SVM, slumpmässig skog, och extrem inlärning maskin (ELM) tillämpas. Dessa tekniker är välkända på grund av deras förmåga att klassificera. Datauppsättningen för upptäckt av NSL-kunskap och datautvinning används, vilket betraktas som ett riktmärke vid utvärderingen av mekanismer för att upptäcka intrång. Resultaten visar att ELM överträffar andra metoder. INDEX TERMS Detektionshastighet, extrem inlärningsmaskin, falsklarm, NSL-KDD, slumpmässig skog, stöd vektor maskin.
I REF undersöktes en prestandajämförelse mellan SVM, Extreme Learning Machine (ELM) och Random Forest (RF) för intrångsdetektering med hjälp av NSL-KDD som referensdatauppsättning.
49,577,134
Performance Comparison of Support Vector Machine, Random Forest, and Extreme Learning Machine for Intrusion Detection
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
4,040
C e n t r u m v o o r W i s k u n e n I n f o r m a t i c a Abstract beteendetyper: en grundmodell för komponenter och deras sammansättning Begreppet abstrakt datatyp (ADT) har fungerat som en grundmodell för strukturerad och objektorienterad programmering i ett trettiotal år. Den nuvarande trenden inom programvaruteknik mot komponentbaserade system kräver också en grundmodell. Den mest grundläggande inneboende egenskapen hos en ADT, dvs. att det ger en uppsättning operationer, subverterar några mycket önskvärda egenskaper i framväxande formella modeller för komponenter som är baserade på objektorienterade paradigm. Vi introducerar begreppet Abstract Behavior Type (ABT) som ett högre nivå alternativ till ADT och föreslår det som en lämplig grundmodell för både komponenter och deras sammansättning. En ABT definierar ett abstrakt beteende som en relation mellan en uppsättning tidsinställda data-strömmar, utan att ange några detaljer om de operationer som kan användas för att genomföra ett sådant beteende eller de datatyper som det kan manipulera för dess förverkligande. ABT-modellen stöder en mycket lösare koppling än vad som är möjligt med ADT:s operativa gränssnitt, och är i sig kompatibel med exogen samordning. Vi föreslår att båda dessa är mycket önskvärda, om inte väsentliga, egenskaper för modeller av komponenter och deras sammansättning. För att visa nyttan av ABT-modellen beskriver vi Reo: ett exogent koordinationsspråk för kompositionskonstruktion av komponentkopplingar baserat på en kanalkalkyl. Vi visar Reos uttryckskraft och ABT:s tillämplighet genom ett antal exempel. En abstrakt datatyp (ADT) definierar en algebra av operationer med matematiskt väldefinierad semantik, utan att specificera någon detalj om genomförandet av dessa operationer eller de datastrukturer de arbetar på för att förverkliga dem. Som sådan, ADT är en kraftfull abstraktion och inkapsling mekanism som grupperar data tillsammans med deras relaterade verksamhet i logiskt sammanhängande och löst beroende enheter, såsom objekt, vilket ger bättre strukturerade program. ADT har fungerat som en grundmodell för strukturerad och objektorienterad programmering i omkring trettio år. Den enorma framgången med objektorienterade tekniker har distraherat rätt uppmärksamhet bort från kritisk utvärdering av några av dess underliggande begrepp från perspektivet av deras nytta för komponenter. Vi föreslår att den mest grundläggande inneboende egenskapen hos en ADT, dvs. att det tillhandahåller en uppsättning operationer i sitt gränssnitt, subverterar några mycket önskvärda egenskaper i nya modeller för komponentbaserade system. Detta framgår redan av de nuvarande försöken att utvidga objektorienterade modeller till att omfatta komponenter (se t.ex. avsnitten 3 och 5). Vi introducerar begreppet Abstract Behavior Type (ABT) som ett högre nivå alternativ till ADT och föreslår det som en lämplig grundmodell för både komponenter och deras sammansättning. En ABT definierar ett abstrakt beteende som en relation mellan en uppsättning tidsinställda data-strömmar, utan att ange några detaljer om de operationer som kan användas för att genomföra ett sådant beteende eller de datatyper som det kan manipulera för dess förverkligande. I motsats till de algebraiska underbyggnaderna av ADT-modellen, 1 den (allmänt) oändliga strömmar som är elementen i beteendet i ABT-modellen naturligt låna sig till kolgebraiska tekniker och myntducering resonemang princip som nyligen har utvecklats som en allmän teori för att beskriva beteendet hos dynamiska system. ABT-modellen stöder en mycket lösare koppling än vad som är möjligt med ADT och är i sig kompatibel med exogen samordning. Vi föreslår att båda dessa är mycket önskvärda, om inte väsentliga, egenskaper för komponenter och deras sammansättning. Enligt vår mening består ett komponentbaserat system av komponentinstanser och deras anslutningar (dvs. "limkoden"), som båda är enhetligt modellerade som ABT. Den enda skillnaden mellan en komponent och en kontakt är att en komponent är en atomisk ABT vars inre struktur är okänd, medan en kontakt är känd för att vara en ABT som själv består av andra ABT. Som ett konkret exempel på tillämpningen av ABT-modellen beskriver vi Reo: en exogen samordningsmodell där komplexa koordinatorer, så kallade "kopplingar" är sammansatta av enklare [3, 4]. Reo kan användas som ett limspråk för kompositionskonstruktion av kontakter som iscensätter komponenter i ett komponentbaserat system. Vi visar den förvånansvärt uttrycksfulla kraften i ABT-komposition i Reo genom ett antal exempel. Resten av detta dokument är organiserat enligt följande. I Avsnitt 2 motiverar vi vår syn på komponenter och deras sammansättning som en konceptuell modell på en högre abstraktionsnivå än objekt och deras sammansättning. Avsnitt 3 innehåller en kort översikt över vissa relaterade arbeten. Vi går igenom det formella begreppet abstrakta datatyper i avsnitt 4 och redogör för dess kopplingar till och konsekvenser för objektorienterad programmering i avsnitt 5. Vi hävdar att vissa av dessa implikationer hindrar förmågan hos komponentmodeller baserade på objektorienterade paradigm att stödja flexibel sammansättning och exogen samordning, som vi föreslår är mycket önskvärda egenskaper i komponentbaserade system. Avsnitt 6 är en informell beskrivning av vår komponentmodell, och i Avsnitt 7 beskriver vi dess åtföljande beteendemodell. Avsnitt 8 är en introduktion till Abstract Behavior Types och deras sammansättning. I Avsnitt 9 visar vi hur kanaler, anslutningar och deras sammansättning i Reo enkelt uttrycks som ABT och deras sammansättning. Slutligen avslutar vi med våra avslutande kommentarer i avsnitt 10. Huvuddelen av arbetet med komponentbaserade system är främst inriktat på vilka komponenter som är och hur de ska konstrueras. Relativt lite uppmärksamhet har ägnats åt alternativa modeller och språk för att komponera komponenter i (under)system, som vanligtvis anses vara syftet med den så kallade limkoden, antas vara skriven på något skriptspråk. Det är uppenbart att komponenter och deras sammansättning inte är oberoende av varandra: att uttryckligen betona den ena definierar eller åtminstone begränsar den andra också, om än bara implicit. En iögonfallande drivkraft bakom det ökade intresset och aktiviteten i komponentbaserad programvara är erkännandet av att det objektorienterade paradigmet inte är den silverkula som några av dess övernitiska förespråkare påstod att det var. För närvarande återspeglar dock den dominerande synen på vilka komponenter som är eller bör vara ett framträdande objektorienterat arv: komponenter är befästa samlingar av klasser och/eller objekt, med mycket liknande gränssnitt. Härav följer att interaktioner mellan och sammansättningen av komponenter måste använda mekanismer som är mycket lika dem för interaktioner mellan och sammansättning av klasser och objekt. Metoden anropa semantik av meddelande passerar i objektorienterad programmering blir crux av komponentsammansättning mekanismer i skriptspråk. Detta synsätt på komponenter "löser" några av de problem som är rotade i bristerna i objektorienterade paradigm helt enkelt genom att flytta dem någon annanstans. Den relativt täta koppling som måste upprättas mellan en uppringare och ett par uppringda föremål försvinner till exempel som ett bekymmer på intrakomponentnivå när de två föremålen befinner sig i olika delfall, men blir en fråga som ska behandlas i limkoden och dess underliggande mellanutrustning som används för att komponera dessa komponenter. Så länge som komponenter och deras gränssnitt i huvudsak är desamma som objekt och deras gränssnitt, kommer de (skript) program som utgör limkoden i slutändan inte att vara annorlunda än annan objektorienterad programvara. I komplexa system kan kroppen av en sådan specialiserad limkod själv växa i storlek, komplexitet, inveckladhet, bräcklighet och styvhet, 2 vilket gör systemet svårt att utveckla och underhålla, trots det faktum att denna oflexibla kod wraps och ansluter annars återanvändbara, uppgraderingsbara och utbytbara komponenter. En alternativ syn på komponenter uppstår om vi tillfälligt ignorerar hur de är gjorda eller till och med vad de är gjorda av, betonar istället vad vi vill göra med dem. Förutom fashionabla jargonger, hype, och endast tekniska egenheter, måste det vara så att komponenter är mindre beroende av varandra och lättare och mer flexibla att komponera än objekt och klasser, om det ska finnas något begreppsmässigt ämne bakom termen "komponent" som förtjänar att präglas. Definitionen av en klass eller ett objekt anger de metoder som den erbjuder andra enheter, och metoden samtal inom koden för sina metoder avgör vilka tjänster och enheter som krävs för att arbeta. Detta resulterar i ett ganska stramt semantiskt ömsesidigt beroende mellan objekt/klasser och ger varje individ en betydande grad av kontroll över exakt hur det är sammansatt med andra klasser eller objekt. I motsats till objekt och klasser är det mycket önskvärt att komponenter är semantiskt oberoende av varandra och internt inte inför några restriktioner för de andra komponenter som de komponerar med. Detta ger en nivå av sammansättning flexibilitet som inte är möjlig med objekt och klass 1 och som är en förutsättning för en annan mycket önskvärd egenskap i komponentbaserade system: vi vill att hela (systemet) ska vara mer än bara summan av dess (komponent) delar. Detta innebär att det inte bara bör vara allmänt möjligt att producera olika system genom att skapa samma uppsättning komponenter på olika sätt, utan också att skillnaden mellan två system som består av samma uppsättning komponenter (dvs. skillnaden mellan "mer" än "summan av delarna" i varje system) måste uppstå ur de faktiska regler som omfattar deras två olika sammansättningar, dvs. deras limkod. Betydelsen av den senare punkten är att det kräver limkoden för att bidra till semantiken i hela systemet långt bortom den bara så kallade "wiring-standard-nivå" stöd som tillhandahålls av den nuvarande populära middleware och komponentbaserad teknik. Å andra sidan förväntar vi oss intuitivt att limkoden ska vara ogiltig från alla program-domänspecifika funktioner: dess uppgift är bara att ansluta komponenter, underlätta deras kommunikation och samordna deras interaktioner, inte att utföra någon applikation-domän specifik beräkning. Detta leder till en subtilitet när det gäller samspelet mellan limkod och komponenter som i grunden påverkar båda. Om bidraget från limkoden till beteendet hos ett sammansatt system inte är mer än att ansluta dess komponenter, underlätta deras kommunikation och samordna deras interaktioner, då skillnaden mellan beteendet hos två system som består av samma uppsättning komponenter kan uppstå inte ur någon applikation-domän specifik beräkning (och definitivt inte av komponenterna), men bara ur hur limkoden ansluter och samordnar dessa komponenter för att interagera med varandra. Eftersom limkoden är extern för de komponenter den ansluter, innebär detta att 1) komponenterna måste vara kompatibla med extern samordningskontroll och 2) limkoden måste innehålla konstruktioner för att ge sådan extern samordning. Den första implikationen begränsar de mekanismer genom vilka komponenter kan interagera med sin omgivning. Den andra konsekvensen innebär att limkodsspråket måste innehålla en exogen samordningsmodell [2]. Slutligen, om limkoden ska ha sin egen icke-triviala semantik i ett sammansatt system, är det mycket önskvärt både för limkoden själv att vara bitvis explicit identifierbar, och för semantiken i var och en av dess bitar att vara oberoende av semantiken i de specifika komponenter som den komponerar. Detta främjar erkännandet av limkoden som en identifierbar, värdefull programvaruvara, betonar vikten av dess återanvändbarhet, och förespråkar limkod konstruktion genom sammansättning av återanvändbara limkod bitar. Begreppet kompositionskonstruktion av limkod av mindre, återanvändbara bitar av limkod alla utom eliminerar konceptuella skillnader mellan komponenter och limkod. Detta föranleder oss att hitta konceptuella modeller och formella metoder för komponentbaserade system där samma regler för kompositionskonstruktion urskillningslöst gäller för både komponenter och deras limkodskopplingar. I en sådan modell, den (kanske något subjektiva) distinktionen mellan komponenter och deras (bitar av limkod) anslutningar är fortfarande praktiskt vettigt: även om de är oskiljaktiga när de används som primitiva för att komponera mer komplexa konstruktioner, komponenter och anslutningar är fortfarande olika i att komponenter är svart-box primitiver vars inre strukturer
Baserat på samma observationer om vikten av att studera lim som ett första klassens begrepp, Abstract Behavior Types (ABM) föreslogs i REF vägledande utformningen av Reo språket.
7,808,766
Abstract behavior types: A foundation model for components and their composition
{'venue': 'SCIENCE OF COMPUTER PROGRAMMING', 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,041
Abstract-One sätt tu bekämpa f z P fildelning av upphovsrättsskyddat innehåll är att deponera i fildelningssystem stora volymer förorenade filer. Utan att ta sida i fildelningsdebatten genomför vi i detta dokument en mätningsstudie om typ och omfattning av föroreningar i FastTrack P2P-nätverket, som för närvarande är det mest populära PZP-fildelningssystemet. Vi utvecklar en krypplattform som kryper majoriteten av FastTrack Networks 20 000+ supernoder på mindre än 60 minuter, Från de råa data som samlas in av kryparen för populärt ljudinnehåll, får vi statistik över antalet unika versioner och kopior som finns tillgängliga under en 24-timmarsperiod. Vi utvecklar en automatiserad procedur tu upptäcka om en viss version är förorenad eller inte, och vi visar att sannolikheten för falska positiva och negativa av detektionsförfarandet är mycket liten. Vi använder data från krypmakaren och vår föroreningsdetektionsalgoritm för att bestämma fraktionen av versioner och fraktionen av kopior som är förorenade för flera nya och gamla låtar. Vi lägger märke till att föroreningar är genomgripande för den senaste tidens populära sånger. Vi identifierar och beskriver också ett antal mekanismer för att bekämpa föroreningar.
En krypare för FastTrack P2P-fildelning beskrivs i REF.
10,455,339
Pollution in P2P file sharing systems
{'venue': 'Proceedings IEEE 24th Annual Joint Conference of the IEEE Computer and Communications Societies.', 'journal': 'Proceedings IEEE 24th Annual Joint Conference of the IEEE Computer and Communications Societies.', 'mag_field_of_study': ['Computer Science']}
4,042
Nätverksinbäddning är att lära sig lågdimensionella vektor representationer för noder i ett nätverk. Det har visat sig vara effektivt i en mängd olika uppgifter som nodklassificering och länkförutsägelse. Medan inbäddning algoritmer på rena nätverk har studerats intensivt, i många verkliga tillämpningar, noder ofta åtföljs av en rik uppsättning attribut eller funktioner, alias tilldelade nätverk. Det har observerats att nätverkstopologisk struktur och nodattribut ofta är starkt korrelerade med varandra. Att modellera och införliva nodattributet närhet till nätverket inbäddning kan vara potentiellt användbart, även om icke-trivial, för att lära sig bättre vektor representationer. Samtidigt innehåller verkliga nätverk ofta ett stort antal noder och funktioner, som ställer krav på skalbarheten av inbäddade algoritmer. För att överbrygga klyftan, i detta dokument, föreslår vi en accelererad tilldelad nätverk inbäddning algoritm AANE, som gör det möjligt att göra den gemensamma inlärningsprocessen på ett distribuerat sätt genom att sönderdela den komplexa modellering och optimering i många sub-problem. Experimentella resultat på flera verkliga datauppsättningar visar hur effektiv och ändamålsenlig den föreslagna algoritmen är.
Dessutom är AANE REF en påskyndad metod för inbäddning av nätverk, som gör det möjligt att genomföra den gemensamma ramen för lärande genom att dela upp det komplicerade lärandet och utbildningen i många delproblem.
19,908,368
Accelerated Attributed Network Embedding.
{'venue': 'SDM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,043
Neurala nätverk är sårbara för kontradiktoriska exempel och forskare har föreslagit många heuristiska attack- och försvarsmekanismer. Vi tar den principiella synen på distributions robust optimering, vilket garanterar prestanda under kontradiktoriska ingångar perturbationer. Genom att överväga en Lagrangian vite formulering av perturbation av den underliggande datadistributionen i en Wasserstein boll, tillhandahåller vi ett utbildningsförfarande som förstärker modellparameter uppdateringar med värsta fall perturbationer av träningsdata. För smidiga förluster uppnår vårt förfarande sannolikt måttliga nivåer av robusthet med liten beräknings- eller statistisk kostnad i förhållande till empirisk riskminimering. Dessutom gör våra statistiska garantier det möjligt för oss att effektivt certifiera robustheten för befolkningsförlusten. För omärkliga perturbationer, vår metod matchar eller överträffar heuristiska metoder.
REF tar upp problemet med kontradiktoriska exempel genom linsen för distributions robust optimering.
195,346,923
Certifiable Distributional Robustness with Principled Adversarial Training
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
4,044
I den här artikeln presenterar vi de gated selfmatching nätverken för att läsa förståelse stil frågor svar, som syftar till att svara på frågor från en viss passage. Vi matchar först frågan och passagen med gated uppmärksamhet-baserade återkommande nätverk för att få fråge-medveten passage representation. Sedan föreslår vi en självmatchande uppmärksamhetsmekanism för att förfina representationen genom att matcha passagen mot sig själv, som effektivt kodar information från hela passagen. Vi använder äntligen pekskärmsnätverken för att lokalisera svarens positioner från passagerna. Vi utför omfattande experiment på SQuAD-datasetet. Den enda modellen uppnår 71,3 % på mätvärdena för exakt matchning på den dolda testuppsättningen, medan ensemblemodellen ytterligare ökar resultaten till 75,9 %. Vid tidpunkten för inlämningen av pappret har vår modell första plats på SQuAD:s rankningslista för både singel- och ensemblemodell.
Ett annat inspirerande arbete är från REF, där författarna föreslår att matcha passagen mot sig själv så att representationen kan aggregera bevis från hela passagen.
12,501,880
Gated Self-Matching Networks for Reading Comprehension and Question Answering
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,045
Med den snabba tillväxten av kunskapsbaser (KBs) på webben blir det allt viktigare att dra full nytta av dem. Att besvara frågor om kunskapsbasen (KB-QA) är ett av de lovande sätten att få tillgång till de stora kunskaperna. Samtidigt som de neurala nätverksbaserade (NN-baserade) metoderna utvecklas, har NN-baserade KB-QA redan uppnått imponerande resultat. Tidigare arbete lade dock inte större vikt vid frågerepresentation, och frågan omvandlas till en fast vektor oberoende av dess kandidatsvar. Denna enkla representationsstrategi är inte lätt att uttrycka korrekt information i frågan. Därför presenterar vi en end-to-end neural nätverksmodell för att representera frågorna och deras motsvarande poäng dynamiskt enligt de olika kandidat svar aspekter via cross-attention mekanism. Dessutom utnyttjar vi den globala kunskapen inom den underliggande KB, som syftar till att integrera den rika KB-informationen i representationen av svaren. Som ett resultat av detta skulle det kunna lindra problemet med "out-of-vokabulary" (OOV), som hjälper korshållningsmodellen att mer exakt representera frågan. De experimentella resultaten om webbfrågor visar hur effektivt det föreslagna tillvägagångssättet är.
Medan de flesta inbäddade metoder kodar frågor och svar självständigt, föreslog REF en mekanism för korshänvisning för att koda frågor enligt olika aspekter av kandidatsvar.
3,896,491
An End-to-End Model for Question Answering over Knowledge Base with Cross-Attention Combining Global Knowledge
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,046
Människor känner lätt igen objektdelar och deras hierarkiska struktur genom att titta på hur de rör sig; de kan sedan förutsäga hur varje del rör sig i framtiden. I det här dokumentet föreslår vi en ny formulering som samtidigt lär sig en hierarkisk, lösryckt objektrepresentation och en dynamisk modell för objektdelar från omärkta videor. Vår modell Parts, Structure, and Dynamics (PSD) lär sig först att känna igen objektdelarna via en lagerbildsrepresentation; för det andra, förutsäga hierarkin via en strukturell deskriptor som komponerar lågnivåbegrepp till en hierarkisk struktur; och för det tredje, modellera systemdynamiken genom att förutsäga framtiden. Experiment på flera verkliga och syntetiska dataset visar att vår PSD-modell fungerar bra på alla tre uppgifter: segmentering av objektdelar, uppbyggnad av deras hierarkiska struktur, och fånga deras rörelsefördelningar.
Xu och al. REF återvinner objektdelarna, deras hierarkiska struktur och varje dels dynamik genom att observera hur objekt förväntas röra sig i framtiden.
76,667,896
Unsupervised Discovery of Parts, Structure, and Dynamics
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
4,047
Högkonfigurerbara system gör det möjligt för användare att skräddarsy programvaran efter sina specifika behov. Alla kombinationer av konfigurationsalternativ är dock inte giltiga, och begränsningar uppstår av tekniska eller icke-tekniska skäl. En explicit beskrivning av dessa begränsningar i en variabilitetsmodell gör det möjligt att resonera om de konfigurationer som stöds. För att automatisera skapandet av variabilitetsmodeller måste vi identifiera ursprunget till sådana konfigurationsbegränsningar. Vi föreslår ett tillvägagångssätt som använder buildtime fel och en ny funktion-effekt heuristic att automatiskt extrahera konfiguration begränsningar från C-kod. Vi genomför en empirisk studie av fyra högkonfigurerbara open-source-system med befintliga variabilitetsmodeller med tre mål i åtanke: utvärdera exaktheten i vårt tillvägagångssätt, avgöra återvinningen av befintliga variabilitetsmodellers begränsningar med hjälp av vår analys, och klassificera källorna till variabilitetsmodellernas begränsningar. Vi anser att både vår utvinningsheuristik är mycket exakt (93 % respektive 77 %) och att vi kan återvinna 19 % av de befintliga variabilitetsmodellerna med vårt tillvägagångssätt. Vi anser dock att många av de återstående begränsningarna kräver expertkunskap eller dyrare analyser. Vi hävdar att vår strategi, verktyg och experimentella resultat stödjer forskare och praktiker som arbetar på variabilitet modell re-engineering, evolution, och konsekvens-kontroll tekniker.
Nadi m.fl. I REF föreslogs en automatiserad metod för att (åter)konstruera variabilitetsmodeller från C-kod genom att extrahera konfigurationsbegränsningar från kodbasen.
6,404,480
Mining configuration constraints: static analyses and empirical results
{'venue': 'ICSE 2014', 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,048
Ansikte anpassning, som passar en ansiktsmodell till en bild och extraherar semantiska betydelser av ansikts pixlar, har varit ett viktigt ämne i CV gemenskap. De flesta algoritmer är dock utformade för ansikten i små till medelstora poser (under 45 • ), saknar förmågan att anpassa ansikten i stora poser upp till 90 •. Utmaningarna är trefaldiga: För det första förutsätter den allmänt använda landmärkesbaserade ansiktsmodellen att alla landmärken är synliga och därför inte lämpar sig för profilvyer. För det andra varierar utseendet mer dramatiskt över stora poser, allt från frontal vy till profil vy. För det tredje är märkning av landmärken i stora poser oerhört utmanande eftersom de osynliga landmärkena måste gissas. I detta dokument föreslår vi en lösning på de tre problemen i en ny anpassningsram, kallad 3D Dense Face Alignment (3DDFA), där en tät 3D-facemodell monteras på bilden via konvolutionsneutrala nätverk (CNN). Vi föreslår också en metod för att syntetisera storskaliga utbildningsprover i profilvyer för att lösa det tredje problemet med uppgiftsmärkning. Experiment i den utmanande AFLW-databasen visar att vår strategi leder till betydande förbättringar jämfört med de senaste metoderna.
REF monterade en tät 3D-ansiktsmodell på bilden via CNN och sammanställde storskaliga utbildningsprover i profilvyer för att lösa problemet med datamärkning.
204,927,862
Face Alignment Across Large Poses: A 3D Solution
{'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,049
Den senaste tidens framsteg har gjorts när det gäller att använda uppmärksamhetsbaserade enkoder-dekoderramar för videotextning. De flesta befintliga dekodrar använder dock uppmärksamhetsmekanismen för varje genererat ord, inklusive både visuella ord (t.ex. "gun" och "shooting") och icke-visuella ord (t.ex. "den", "a"). Dessa icke-visuella ord kan dock lätt förutsägas med hjälp av naturlig språkmodell utan hänsyn till visuella signaler eller uppmärksamhet. Att införa en mekanism för att uppmärksamma icke-visuella ord skulle kunna vilseleda och minska videotexternas övergripande prestanda. För att ta itu med denna fråga föreslår vi en hierarkisk LSTM med justerad tidsuppmärksamhet (hLSTMat) för videotextning. Det föreslagna ramverket utnyttjar den tidsbundna uppmärksamheten för att välja specifika ramar för att förutsäga de relaterade orden, medan den justerade tidsuppmärksamheten är att avgöra om den ska vara beroende av den visuella informationen eller den språkkontextinformationen. Dessutom är en hierarkisk LSTMs utformad för att samtidigt beakta både låg nivå visuell information och hög nivå språkkontext information för att stödja videotextgenerering. För att visa effektiviteten i vårt föreslagna ramverk testar vi vår metod på två vanliga datauppsättningar: MSVD och MSR-VTT, och experimentella resultat visar att vårt tillvägagångssätt överträffar de senaste metoderna på båda två datauppsättningar.
I REF föreslogs en hierarkisk LSTM som dekoder.
19,594,479
Hierarchical LSTM with Adjusted Temporal Attention for Video Captioning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
4,051
Abstrakt. Leverantörer av programvaruapplikationer har alltid varit tvungna att utföra belastningstester innan nya applikationer lanseras. Denna avgörande testfas är kostsam när det gäller människor och hårdvara, och de lösningar som i allmänhet används skulle gynnas av ytterligare utveckling. I synnerhet är det svårt att utforma en lämplig belastningsprofil för att betona en applikation och det måste göras noggrant för att undvika skev testning. Dessutom är statiska testplattformar ytterst komplexa att installera. Nya möjligheter att underlätta belastningstestningslösningar blir tillgängliga tack vare molntjänster. Detta dokument beskriver en Benchmark-as-a-Service-plattform baserad på: i) intelligent generering av trafik till den bänkade applikationen utan att orsaka thrashing (undvika fördefinierade belastningsprofiler), ii) ett virtualiserat och självskalbart insprutningssystem. Denna plattform visade sig minska kostnaderna för testning med 50 % jämfört med mer allmänt använda lösningar. Det experimenterades med referensen JEE-riktmärke RUBiS. Detta innebar att man kunde upptäcka flaskhalsnivåer.
En annan lösning beskrivs REF, som presenterar en molnbaserad benchmarking-som-en-tjänst-plattform som innehåller en komponent för att skapa trafik för den bänkade applikationen.
35,615,908
Self-scalable Benchmarking as a Service with Automatic Saturation Detection
{'venue': 'Middleware', 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,052
Abstract-Queries till sökmotorer på webben är oftast korta. De ger inte tillräcklig bevisning för ett effektivt urval av relevanta dokument. Tidigare forskning har föreslagit utnyttjande av frågeexpansion för att hantera detta problem. Expansionstermer bestäms dock vanligen på termen samtidiga förekomster inom dokumenten. I denna studie föreslår vi en ny metod för frågeexpansion baserad på användarinteraktioner som registrerats i användarloggar. Den centrala idén är att extrahera korrelationer mellan frågetermer och dokumenttermer genom att analysera användarloggar. Dessa korrelationer används sedan för att välja högkvalitativa expansionstermer för nya frågor. Jämfört med tidigare sökexpansionsmetoder utnyttjar våra användares bedömningar i användarloggar. De experimentella resultaten visar att den log-baserade frågeexpansionsmetoden kan ge mycket bättre resultat än både den klassiska sökmetoden och de andra sökexpansionsmetoderna.
Cui m.fl. REF föreslog en frågeexpansionsmetod baserad på användarinteraktioner som registrerats i klickdata.
13,149,206
Query Expansion by Mining User Logs
{'venue': 'IEEE Trans. Knowl. Data Eng.', 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,053
MapReduce är en programmeringsmodell för parallell databehandling som ofta används i molnbaserade datormiljöer. Nuvarande MapReduce implementeringar är baserade på centraliserade master-slave arkitekturer som inte klarar bra med dynamiska molninfrastrukturer, som ett molnmoln, där noder kan gå med och lämna nätverket till höga priser. Vi har utformat ett adaptivt MapReduce-ramverk, P2P-KartaReduce, som utnyttjar en peer-to-peer-modell för att hantera node curn, master misslyckanden, och jobbåterställning på ett decentraliserat men effektivt sätt, för att ge en mer tillförlitlig MapReduce middleware som effektivt kan utnyttjas i dynamiska Cloud-infrastrukturer. I detta dokument beskrivs P2P-KartaReduce-systemet som ger en detaljerad beskrivning av dess grundläggande mekanismer, en prototypimplementering och en omfattande prestandautvärdering i olika nätverksscenarier. Prestandaresultaten bekräftar den goda feltoleransnivå som tillhandahålls av P2P-KartaReduce-ramverket jämfört med ett centraliserat genomförande av MapReduce, samt dess begränsade effekt när det gäller allmänna nät.
P2P-KartaReduce REF är en P2P-modell inom ramen för MapReduce.
13,036,366
P2P-MapReduce: Parallel data processing in dynamic Cloud environments
{'venue': 'J. Comput. Syst. Sci.', 'journal': 'J. Comput. Syst. Sci.', 'mag_field_of_study': ['Computer Science']}
4,054
Abstrakt. Denna tidning presenterar en spel-teoretisk metod för att analysera säkerheten i datornätverk. Vi ser interaktionen mellan en angripare och administratören som ett två-spelare stokastiskt spel och konstruera en modell för spelet. Med hjälp av ett ickelinjärt program beräknar vi Nash equilibria eller bäst-respons strategier för spelarna (attacker och administratör). Vi förklarar sedan varför strategierna är realistiska och hur administratörer kan använda dessa resultat för att öka säkerheten i sitt nätverk.
Referens REF modellerade interaktionen mellan en angripare och administratören som ett två-spelare stokastiskt spel och beräknade Nash jämvikt med hjälp av ett icke-linjärt program.
5,591,740
Game strategies in network security
{'venue': 'International Journal of Information Security', 'journal': 'International Journal of Information Security', 'mag_field_of_study': ['Computer Science']}
4,055
Abstract-I detta brev, vi anser en storskalig multipleinput multiple-output (MIMO) system där mottagaren bör skörda energi från sändaren genom trådlös kraftöverföring för att stödja sin trådlösa informationsöverföring. Energistråleformningen i det storskaliga MIMO-systemet används för att ta itu med det utmanande problemet med trådlös fjärröverföring. Dessutom, med tanke på begränsningen av effekten i ett sådant system, fokuserar denna skrivelse på att maximera energieffektiviteten för informationsöverföring (bit per Joule) samtidigt som kvaliteten på tjänsten (QoS) krav, dvs.. Fördröjningsbegränsning genom att gemensamt optimera överföringstid och sändningskraft. Genom att lösa optimeringsproblemet får vi ett energieffektivt resursfördelningssystem. Numeriska resultat validerar det föreslagna systemets effektivitet. Index Terms-Energy-effektiv resursfördelning, trådlös information och kraftöverföring, storskalig MIMO-system, energistråleformning, QoS-garanti.
I REF antog författarna ett storskaligt MIMO-system och maximerade energieffektiviteten för information med energiformning i systemet.
15,819,250
Energy-Efficient Optimization for Wireless Information and Power Transfer in Large-Scale MIMO Systems Employing Energy Beamforming
{'venue': 'IEEE Wireless Communications Letters', 'journal': 'IEEE Wireless Communications Letters', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
4,056
Hög densitet punktmoln av urbana scener används för att identifiera objekt klasser som byggnader, vegetation, fordon, mark och vatten. Punktmolnsegmentering kan stödja klassificering och ytterligare funktionsextraktion under förutsättning att segmenten är logiska grupper av punkter som tillhör samma objektklass. En enda segmenteringsmetod ger vanligtvis inte en tillfredsställande segmentering för en mängd olika klasser. Detta papper undersöker kombinationen av olika segmentering och efterbehandlingsmetoder för att komma fram till användbara punktmoln segmenteringar. En egenskap som bygger på den normala vektorn och plattheten i ett punktområde används för att gruppera belamrade punkter i träd samt punkter på ytor i områden där utvinningen av plan inte var framgångsrik. I kombination med segmentsammanslagning och majoritetsfiltrering kan stora segment erhållas så att man kan härleda korrekta segmentfunktionsvärden. Resultaten presenteras och diskuteras för en 70 miljoner punktdatauppsättning över en del av Rotterdam.
Vosselman m.fl. REF kombinerar flera segmenteringsmetoder och efterbehandlingsmetoder för att uppnå användbara punktmolnsegmenteringar.
56,260,307
Point cloud segmentation for urban scene classification
{'venue': None, 'journal': 'ISPRS - International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences', 'mag_field_of_study': ['Geography']}
4,057
I en expertsökningsuppgift är användarnas behov att identifiera personer som har relevant expertis till ett ämne av intresse. Ett expertsöksystem förutsäger och rankar expertisen hos en uppsättning kandidatpersoner med avseende på användarnas fråga. I detta dokument föreslår vi ett nytt tillvägagångssätt för att förutsäga och rangordna kandidatexpertis när det gäller en fråga. Vi ser problemet med att rangordna experter som ett röstningsproblem, som vi modellerar genom att anpassa elva fusionstekniker. Vi undersöker effektiviteten i röstningsmetoden och tillhörande datafusionsteknik inom en rad dokumentvägningsmodeller, inom ramen för TREC 2005 Enterprise track. Utvärderingsresultaten visar att röstparadigmet är mycket effektivt, utan att använda någon samlingsspecifik heuristik. Dessutom visar vi att en förbättring av kvaliteten på den underliggande dokumentrepresentationen avsevärt kan förbättra insamlingen av datafusionsteknik på en expertsökningsuppgift. I synnerhet visar vi att tillämpningen av fältbaserade viktningsmodeller förbättrar rangordningen av kandidater. Slutligen visar vi att den relativa prestandan hos de anpassade teknikerna för datafusion för det föreslagna tillvägagångssättet är stabil oberoende av de använda viktningsmodellerna.
Ett effektivt tillvägagångssätt är att behandla problemet med rankningsexperter som ett röstningsproblem baserat på datafusionstekniker REF.
284,959
Voting for candidates: adapting data fusion techniques for an expert search task
{'venue': "CIKM '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,058
Abstract-Recently, scentext upptäckt har blivit en aktiv forskningsämne i datorseende och dokumentanalys, på grund av dess stora betydelse och betydande utmaning. Men en stor majoritet av de befintliga metoderna upptäcker text inom lokala regioner, vanligtvis genom att extrahera karaktär, ord eller linjenivå kandidater följt av kandidataggregation och falskt positiv eliminering, som potentiellt utesluter effekten av bred räckvidd och långa kontextuella signaler i scenen. För att dra full nytta av den rika information som finns i hela den naturliga bilden, föreslår vi att lokalisera text på ett holistiskt sätt, genom att gjuta scentext upptäckt som ett semantiskt segmenteringsproblem. Den föreslagna algoritmen körs direkt på fullständiga bilder och producerar globala, pixelvisa förutsägelsekartor, där detektioner senare bildas. För att bättre utnyttja textens egenskaper uppskattas tre typer av information om textregion, individuella tecken och deras relation, med en enda modell för Fully Convolutional Network (FCN). Med sådana förutsägelser om textegenskaper kan den föreslagna algoritmen samtidigt hantera horisontell, multiorienterad och böjd text i verkliga naturliga bilder. Experimenten om standardriktmärken, inklusive ICDAR 2013, ICDAR 2015 och MSRA-TD500, visar att den föreslagna algoritmen i stort sett överträffar tidigare toppmoderna metoder. Dessutom rapporterar vi det första utgångsresultatet om den nyligen släppta, storskaliga datauppsättningen COCO-Text.
Till exempel Yao et al. REF föreslår att algoritmen ska köras direkt på de fullständiga bilderna och ta fram globala, pixelvisa förutsägelsekartor där det senare bildas upptäckter.
6,427,766
Scene Text Detection via Holistic, Multi-Channel Prediction
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
4,059
Hur kan ett enda fullständigt konvolutionellt neuralt nätverk (FCN) utföra på objektdetektion? Vi introducerar DenseBox, en enhetlig end-to-end FCN ram som direkt förutsäger avgränsande rutor och objekt klass förtroenden genom alla platser och skalor av en bild. Vårt bidrag är tvåfaldigt. För det första visar vi att en enda FCN, om den utformas och optimeras noggrant, kan upptäcka flera olika objekt extremt exakt och effektivt. För det andra visar vi att när man införlivar med landmärke lokalisering under multi-task lärande, DenseBox ytterligare förbättrar objekt upptäckt accuray. Vi presenterar experimentella resultat på offentliga referensdataset inklusive MALF ansiktsdetektering och KITTI bildetektering, som indikerar att vår DenseBox är det toppmoderna systemet för att upptäcka utmanande objekt som ansikten och bilar.
REF ger en end-to-end utbildningsversion av detektionsnätverk för att direkt förutsäga avgränsande rutor och objektkonfidenser.
14,710,847
DenseBox: Unifying Landmark Localization with End to End Object Detection
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
4,060
Den djupa förstärkningslärande gemenskapen har gjort flera oberoende förbättringar av DQN-algoritmen. Det är dock oklart vilka av dessa förlängningar som kompletterar varandra och som kan kombineras på ett fruktbart sätt. I detta dokument undersöks sex tillägg till DQN-algoritmen och empiriskt studeras deras kombination. Våra experiment visar att kombinationen ger toppmodern prestanda på Atari 2600-riktmärket, både vad gäller dataeffektivitet och slutresultat. Vi ger också resultat från en detaljerad ablation studie som visar bidraget från varje komponent till den totala prestandan.
På grundval av detta föreslog DeepMind Rainbow Ref. Och levererar toppmodern prestanda på Atari 2600-riktmärket, både vad gäller dataeffektivitet och ultimat prestanda.
19,135,734
Rainbow: Combining Improvements in Deep Reinforcement Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
4,061
Abstrakt. Med utvecklingen av ett API-bibliotek utvecklas också dess dokumentation. Utvecklingen av API-dokumentation är gemensam kunskap för programmerare och biblioteksutvecklare, men inte i kvantitativ form. Utan sådan kvantitativ kunskap, programmerare kan försumma viktiga revideringar av API-dokumentation, och bibliotek utvecklare kanske inte effektivt förbättra API-dokumentation baserat på dess revidering historia. Det finns ett stort behov av att genomföra en kvantitativ studie om utvecklingen av API-dokumentation. Eftersom API-dokumentationen är stor i storlek och revideringar kan vara komplicerade är det dock ganska svårt att genomföra en sådan studie. I detta dokument presenterar vi en analysmetodik för att analysera utvecklingen av API-dokumentation. Baserat på metoden genomför vi en kvantitativ studie om API-dokumentationsutveckling av fem allmänt använda real-world-bibliotek. Resultaten avslöjar olika värdefulla resultat, och dessa resultat gör det möjligt för programmerare och biblioteksutvecklare att bättre förstå utvecklingen av API-dokumentation.
För att förstå utvecklingen av API-dokumentation, Shi et al. REF ] utforska hur Java API-anteckningar ändras i fem verkliga bibliotek.
16,916,939
An Empirical Study on Evolution of API Documentation
{'venue': 'FASE', 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,062
Abstract-Vi föreslår klippningsmetoder som kan använda komplexa geometrier för volymklippning. Clipping tester utnyttja per-fragment verksamhet på grafik hårdvara för att uppnå höga bildhastigheter. I kombination med texturbaserad volymåtergivning gör dessa tekniker det möjligt för användaren att interaktivt välja och utforska regioner i datamängden. Vi presenterar djupbaserade clipping tekniker som analyserar djupstrukturen i gräns representationen av clip geometri för att avgöra vilka delar av volymen måste klippas. I ett annat tillvägagångssätt, en voxelized clip objekt används för att identifiera klippta regioner. Dessutom beaktas kombinationen av volymklippning och volymskuggning. En optisk modell introduceras för att sammanfoga aspekter av ytbaserad och volymbaserad belysning för att uppnå en konsekvent skuggning av klippytan. Det visas hur denna modell effektivt kan införlivas i ovannämnda urklippsteknik.
Wieskopf m.fl. I REF föreslogs en optisk modell för sammanfogning av yt- och volymbaserad belysning för att uppnå en konsekvent skuggning av klippytan.
32,368,704
Interactive clipping techniques for texture-based volume visualization and volume shading
{'venue': 'IEEE Trans. Vis. Comput. Graph.', 'journal': 'IEEE Trans. Vis. Comput. Graph.', 'mag_field_of_study': ['Computer Science']}
4,063
Ett datorseendesystem har implementerats som kan känna igen tredimensionella objekt från okända synvinklar i enstaka gråskala bilder. Till skillnad från de flesta andra metoder, är igenkänningen uppnås utan några försök att rekonstruera djup information nedifrån och upp från den visuella inmatningen. I stället används tre andra mekanismer som kan överbrygga klyftan mellan den tvådimensionella bilden och kunskapen om tredimensionella objekt. För det första används en process av perceptuell organisation för att bilda grupperingar och strukturer i bilden som sannolikt kommer att vara invarianta över ett brett spektrum av synpunkter. För det andra används en probabilistisk rankningsmetod för att minska storleken på sökytan under modellbaserad matchning. Slutligen, en process av rumslig överensstämmelse för projektionerna av tredimensionella modeller i direkt överensstämmelse med bilden genom att lösa för okända synsätt och modellparametrar. En hög grad av robusthet i närvaro av ocklusion och saknade data kan uppnås genom en fullständig tillämpning av ett konsekvent synsätt. Det hävdas att liknande mekanismer och begränsningar utgör grunden för erkännande i människans syn.
Lowe REF, till exempel, förlitade sig på perceptuell organisation för att gruppera funktioner och minska storleken på sökytan som ingår i matchning, följt av top-down rumslig korrespondens som syftar till att anpassa en modell med en bild och uppskatta dess pose.
678,619
Three-Dimensional Object Recognition from Single Two-Dimensional Images
{'venue': 'ICONIP', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
4,064
Tillståndsbaserade säkerhetsmodeller ger kontrollerad åtkomst till olika systemresurser. Det uttrycksfulla i behörighetsuppsättningen spelar en viktig roll för att ge rätt nivå av granularitet i tillträdeskontroll. I detta arbete presenterar vi en metodik för den empiriska analysen av tillståndsbaserade säkerhetsmodeller som gör ny användning av den självorganiserande kartan (SOM) algoritmen Kohonen (2001). Medan den föreslagna metoden kan vara tillämplig på ett brett spektrum av arkitekturer, analyserar vi 1.100 Android-applikationer som en fallstudie. Vår metodik är av oberoende intresse för visualisering av tillståndsbaserade system utöver vår nuvarande Android-specifika empiriska analys. Vi erbjuder några diskussioner som identifierar potentiella punkter av förbättring för Android tillståndsmodell, försöker öka uttrycksfullhet där det behövs utan att öka det totala antalet behörigheter eller övergripande komplexitet.
Barrera m.fl. REF utförde en empirisk analys av uttrycksfullheten i Android: s behörighetsuppsättningar och diskuterade några potentiella förbättringar för Android: s behörighetsmodell.
14,088,821
A methodology for empirical analysis of permission-based security models and its application to android
{'venue': "CCS '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,065
Abstract-Vi undersöker den stabila paket ankomstgrad regionen i en diskret-tid slitsade slumpmässiga åtkomstnätverk, där källorna distribueras som en Poisson punkt process. Var och en av källorna i nätverket har en destination på ett visst avstånd och en buffert av oändlig kapacitet. Nätverket antas vara slumpmässigt men statiskt, dvs. källorna och destinationerna placeras slumpmässigt och förblir statiska under alla tider. Vi använder verktyg från köteori såväl som punktprocessteori för att studera stabiliteten i detta system med hjälp av begreppet dominans. Problemet är ett exempel på problemet med samverkande köer, som ytterligare kompliceras av Poissons rumsliga fördelning. Vi får tillräckliga villkor och nödvändiga villkor för stabilitet. Numeriska resultat visar att gapet mellan de tillräckliga förhållandena och de nödvändiga förhållandena är litet när tillträdesannolikheten, sändares densitet eller SINR-tröskeln är liten. Resultaten visar också att en liten förändring av ankomsthastigheten i hög grad kan påverka andelen instabila köer i nätverket.
Arbetet i REF undersöker den stabila genomströmningsregionen för ett slumpmässigt tillträdesnät där sändare och mottagare distribueras genom en statisk Poisson bipolär process.
6,340,273
On the Stability of Static Poisson Networks Under Random Access
{'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Computer Science']}
4,066
Abstract-Characterized genom sin enkla utplacering och fågel-öga sikt, obemannade luftfartyg (UAV) kan vara brett utplacerad både i övervakning och trafikledning. Den måttliga beräkningskapaciteten och den korta batteritiden begränsar dock den lokala databehandlingen på UAV-sidan. Som tur är kan detta hinder mildras genom att man använder sig av MEC-paradigmet (mobile-edge computing) för att avlasta krävande beräkningsuppgifter från UAV via en trådlös överföringslänk. Den avlastade informationen kan emellertid bli komprometterad av tjuvlyssnare. För att ta itu med denna fråga, vi föreställa oss en energieffektiv beräkning offloading teknik för UAV-MEC-system, med tonvikt på fysisk-lager säkerhet. Vi formulerar ett antal energieffektivitetsproblem för säkra UAV-MEC-system, som sedan omvandlas till konvexa problem. Slutligen finns deras optimala lösningar för både aktiva och passiva tjuvlyssnare. Dessutom analyseras förhållandena för noll, partiell och full avlastning ur ett fysiskt perspektiv. De numeriska resultaten belyser de specifika villkoren för att aktivera de tre ovannämnda avlastningsalternativen och kvantifiera resultatet av vår föreslagna avlastningsstrategi i olika scenarier. Index Terms-UAV, mobil-edge computing, fysisk-lager säkerhet och energieffektiv avlastning.
En gynnsam arkitektur har föreslagits för säkra obemannade luftfarkoster MEC ur perspektivet av det fysiska lagret säkerhet och formulerade en energieffektiv beräkning offloading problem i närvaro av både aktiva och passiva tjuvlyssnare i REF.
149,624,356
Energy-Efficient Computation Offloading for Secure UAV-Edge-Computing Systems
{'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science']}
4,067
Problemet med att hitta frekventa mönster från grafbaserade dataset är ett viktigt problem som hittar applikationer inom bland annat drogupptäckt, proteinstrukturanalys, XML-förfrågan och social nätverksanalys. I detta dokument föreslår vi en ram för att bryta frekventa storskaliga strukturer, formellt definierade som frekventa topologiska strukturer, från grafdataset. Viktiga delar av vårt ramverk inkluderar, snabba algoritmer för att upptäcka frekventa topologiska mönster baserat på den välkända uppfattningen om en topologisk mindre, algoritmer för att specificera och driva begränsningar djupt in i gruvprocessen för att upptäcka begränsade topologiska mönster, och mekanismer för att specificera ungefärliga matchningar när man upptäcker frekventa topologiska mönster i bullriga dataset. Vi demonstrerar livskraften och skalbarheten hos de föreslagna algoritmerna på verkliga och syntetiska dataset och diskuterar också användningen av ramverket för att upptäcka meningsfulla topologiska strukturer från proteinstrukturdata.
Jin m.fl. använda konceptet med en topologisk mindre för att snabbt upptäcka frekventa storskaliga mönster REF.
2,427,391
Discovering frequent topological structures from graph datasets
{'venue': "KDD '05", 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,068
Nätverksanalys används för närvarande i en myriad av sammanhang: från att identifiera potentiella narkotikamål till att förutsäga spridningen av epidemier och utforma vaccinationsstrategier, och från att hitta vänner till att avslöja brottslig verksamhet. Trots löftet om nätverksstrategin är nätdatans tillförlitlighet en källa till stor oro inom alla områden där komplexa nätverk studeras. Här presenterar vi en allmän matematisk och beräkningsram för att hantera problemet med datatillförlitlighet i komplexa nätverk. I synnerhet kan vi på ett tillförlitligt sätt identifiera både saknade och falska interaktioner i bullriga nätverksobservationer. Anmärkningsvärt nog gör vårt tillvägagångssätt det också möjligt för oss att genom dessa bullriga observationer få nätverksrekonstruktioner som ger uppskattningar av de verkliga nätverksegenskaper som är mer exakta än de som observationerna själva ger. Vår strategi har potential att styra experiment, att bättre karakterisera nätverksdatamängder, och att driva nya upptäckter. komplexa nätverk på grund av datatillförlitlighet på grund av nätverksrekonstruktion på grund av att blockmodellen saknas och oäkta interaktioner förförs: BM, stokastisk blockmodell; HRG, hierarkisk slumpmässig graf T han strukturerar nätverket av interaktioner mellan enheterna i ett system påverkar systemets dynamik, och förmedlar information om systemets funktionsbehov, dess utveckling och de enskilda enheternas roll. Av dessa skäl har nätverksanalysen blivit en hörnsten i så olika områden som systembiologi och sociologi [1]. Tyvärr är tillförlitligheten hos nätdata ofta en källa till oro. I systembiologin innehåller teknologier med hög genomströmning löftet att avslöja de invecklade processerna i cellen, men är också enligt uppgift felaktiga. Proteininteraktionsdata är utan tvekan det mest uppenbara exemplet på inkorrekta data: 2002 visade en systematisk jämförelse mellan flera höggenomströmningsmetoder och en referensdatauppsättning av hög kvalitet att dessa metoder har noggrannhet under 20 % [2]. Dessutom resulterar olika metoder i nätverk som har olika topologiska egenskaper [3] och täckningen av verkliga interaktioner är mycket begränsad: 80 % av interaktionen mellan jäst [3] och 99,7 % av den mänskliga interaktionen [4, 5] är fortfarande okänd. Inom samhällsvetenskapen är också saknade data på grund av individuell icke-respons och avhopp [6], informant inaccuracy [7] och provtagningsfördomar [8] genomgripande. Simuleringsstudier har visat att dessa felaktigheter kan leda till fundamentalt felaktiga uppskattningar av nätverksegenskaper och till vilseledande slutsatser [8], vilket är särskilt oroande vid en tidpunkt då sociala nätverksanalyser används för att hitta nya vänner och partners, urskilja nyckelpersoner i organisationer och identifiera brottslig verksamhet. Trots dessa farhågor har frågan om nättillförlitlighet endast behandlats i fält (t.ex. för att hantera protein-proteininteraktioner [9, 10] eller för att ta hänsyn till informant inaccuracy i sociala nätverk [7] ), och i studier som endast behandlar delar av problemet (t.ex. för att upptäcka saknade interaktioner [11] ). Det saknas därför en allmän ram för att hantera problemet med datatillförlitlighet i komplexa nätverk. Här utvecklar vi en sådan ram. Särskilt visar vi att inom vår ram kan vi på ett tillförlitligt sätt: (i) identifiera falska negativa (felande interaktioner) och falska positiva (sporriga interaktioner), och (ii) generera, från ett enda observerat nätverk, ett rekonstruerat nätverk vars egenskaper (klusterande koefficient, modularitet, diverseitet, epidemi sprider tröskel, och synkronisering, bland annat) är närmare det "sanna" underliggande nätverket än de i det observerade nätverket självt. Vi visar att vår strategi överträffar tidigare försök att förutsäga saknade och falska interaktioner, och illustrerar potentialen i vår metod genom att tillämpa den på ett proteininteraktionsnätverk av jäst [12]. Vi avslutar med att diskutera hur vår strategi kommer att hjälpa till att vägleda experiment och nya upptäckter, och att bättre karakterisera viktiga datamängder. Överväg ett observerat nätverk med adjakensmatris A O ; A O ij = 1 om noderna i och j är anslutna och 0 annars. Vi antar att detta observerade nätverk är ett förverkligande av en underliggande probabilistisk modell, antingen eftersom själva nätverket är resultatet av en stokastisk process, eftersom mätningen har osäkerhet, eller båda [7] 1. Låt oss kalla M uppsättningen av generativa modeller som kan tänkas ge upphov till det observerade nätverket, och p(M och A O ) sannolikheten för att M är den modell som gav upphov till observation A O. Om vi kunde få en ny observation av nätverket, resultatet skulle i allmänhet vara annorlunda från A O ; vår bästa uppskattning för sannolikheten p( X = x) för en godtycklig nätverksfastighet X är där p( X = x till M ) är sannolikheten att X = x i ett nätverk som genereras med modell M. Genom att använda Bayes teorem kan vi skriva om Eq. (1) som var p(A O) är sannolikheten att modell M ger upphov till A O bland alla möjliga adjacency matriser, och p(M ) är en förhandssannolikhet att modell M är den korrekta. Vi kallar p(X = x till A O ) tillförlitligheten av X = x mätningen. Med tanke på dessa arguments allmängiltighet är nyckeln till en god uppskattning av tillförlitligheten att identifiera uppsättningar modeller som är allmänna, empiriskt reserverade för publikationsfotnoter
Ett annat intressant arbete som presenteras i REF syftar till att identifiera saknade och falska interaktioner (länkar anslutning noder) och att rekonstruera nätverk vars egenskaper är närmare det "sanna" underliggande nätverket.
47,399
Missing and spurious interactions and the reconstruction of complex networks
{'venue': 'Proc. Natl. Acad. Sci. U. S. A. 106, 22073-22078 (2009)', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics', 'Biology', 'Medicine']}
4,069
Sammanfattning Elektroniska journaler (EMR) är kritiska, mycket känslig privat information inom hälso- och sjukvården, och måste ofta delas mellan kamrater. Blockchain ger en delad, oföränderlig och transparent historia av alla transaktioner för att bygga program med förtroende, ansvarighet och transparens. Detta ger en unik möjlighet att utveckla en säker och pålitlig EMR-datahantering och delningssystem med hjälp av blockchain. I detta dokument presenterar vi våra perspektiv på blockchainbaserad hantering av hälso- och sjukvårdsdata, särskilt för EMR-datadelning mellan vårdgivare och för forskningsstudier. Vi föreslår en ram för hantering och utbyte av EMR-data för cancerpatientvård. I samarbete med Stony Brook Universitetssjukhuset implementerade vi vårt ramverk i en prototyp som säkerställer integritet, säkerhet, tillgänglighet och finkornig åtkomstkontroll över EMR-data. Det föreslagna arbetet kan avsevärt minska vändningstiden för EMR-delning, förbättra beslutsfattandet för medicinsk vård och minska den totala kostnaden.
Författarna i REF föreslår ett säkert och pålitligt EMR-hanteringssystem med godkänd blockchain.
8,776,796
Secure and Trustable Electronic Medical Records Sharing using Blockchain
{'venue': 'AMIA ... Annual Symposium proceedings. AMIA Symposium', 'journal': 'AMIA ... Annual Symposium proceedings. AMIA Symposium', 'mag_field_of_study': ['Computer Science', 'Medicine']}
4,070
Vi presenterar en deterministisk algoritm som beräknar edge-connektivity av en graf i nära-lineär tid. Detta är för en enkel oriktad oviktad graf G med n hörn och m kanter. Detta är den första o(mn) tid deterministiska algoritmen för problemet. Vår algoritm är lätt att utöka för att hitta en betong minsta kantklippning. I själva verket kan vi konstruera den klassiska kaktus representation av alla minimala nedskärningar i nära-linjär tid. Den tidigare snabbast deterministiska algoritmen av Gabow från STOC'91 tog O (m + λ 2 n), där λ är kantanslutningen, men λ kan vara så stor som n − 1. Karger presenterade en randomiserad nästan linjär tid Monte Carlo algoritm för minsta skär problemet vid STOC'96, men den returnerade snittet är bara minimum med hög sannolikhet. Vårt huvudsakliga tekniska bidrag är en nära-linjär tid algoritm som avtalar vertex uppsättningar av en enkel ingång graf G med minimal grad δ, producerar en multigraph G med O (m/δ ) kanter, som bevarar alla minsta skärningar av G med minst två hörn på varje sida. I vår deterministiska näralinjära tidsalgoritm, kommer vi att bryta ner problemet via low-conductance nedskärningar som hittats med PageRank a la Brin och Page (1998), som analyserats av Andersson, Chung, och Lang på FOCS'06. Normalt, sådana algoritmer för low-conductance skär är randomiserade Monte Carlo algoritmer, eftersom de förlitar sig på att gissa en bra start vertex. Men i vårt fall har vi så mycket struktur att det inte behövs några gissningar. En preliminär version [22] presenterades vid det 47:e ACM-symposiet om datateorin (STOC 2015). Deterministic Edge Connectivity in Near-Linear Time 4:3 268-269] diskuterar också multigraphs med en något sämre gräns av O (m + λ 2 n log n). En linjär tid (2 + ε)-uppskattning av egg-anslutningen presenterades av Matula [24]. Alla ovan nämnda algoritmer har varit deterministiska. Studien av randomiserade algoritmer för det globala minimala skärproblemet initierades av Karger [17]. Vi skiljer mellan Las Vegas algoritmer med garanterade korrekta svar men förväntade körtider, och Monte Carlo algoritmer med begränsad körtid men några små sannolikhet för felaktiga svar. Las Vegas algoritmer kan konverteras till Monte Carlo algoritmer (gör ett fel om algoritmen inte slutar inom en viss tid bunden), så Las Vegas är generellt sett att föredra. Om vi har ett sätt att intyga korrekta svar, då kan vi också konvertera Monte Carlo till Las Vegas genom att köra om certifieringen misslyckas. Karger [17] presenterade Las Vegas algoritmer med en (1 + o(1)) approximation till den globala minimisänkningen i O (m) förväntad tid och en exakt global minimisänkning i O (m λ) förväntad tid. Karger och Stein [20] visade att slumpmässig kantkontraktion fungerar bra för det globala minimala skärproblemet, vilket leder till en Monte Carlo-algoritm som körs i O (n 2 log 3 n) tid. Slutligen gav Karger [18] en randomiserad O (m log 3 n)-algoritm för det globala minimala skärproblemet. Karger [18] påpekar att vi saknar ett motsvarande effektivt sätt att intyga att den returnerade skärningen är minimal. För mer detaljerad historia för det globala minimala skärproblemet hänvisar vi läsaren till boken av Schrijver [29]. Vi noterar att en deterministisk nästan linjär tid min-cut algoritm är känd för planar grafer [4]. I den här artikeln presenterar vi en deterministisk nästan linjär tidsalgoritm för beräkning av kantkonnektivitet och en global minsta skärning för en enkel graf. Med nästan linjär tid menar vi O (m) tid där O döljer loggfaktorer. Detta är den första o(mn) tid deterministiska algoritmen för problemet. Det tidigare bästa O (m + λ 2 n) tidsbundet av Gabow [9] är bra om λ är liten, men vi kan ha λ = på (n). Vi noterar att vi i den här artikeln inte försöker minimera antalet loggfaktorer som döljs i O-notationen, inte heller räknar vi dem explicit, t.ex., vi kommer att fritt använda minskningar som O (f (n)) O ( ska(n)) = O (f (n)](n)). I slutet kommer vi att löst uppskatta antalet till 12, vilket uppskattar körtiden för vår algoritm till O (m log 12 n). Syftet med denna uppskattning är bara att uppmuntra andra forskare att komma ner till ett mer rimligt antal loggfaktorer, vilket ger dem en konkret skyldighet att förbättra sig. Ja, Henzinger m.fl. [14] har nyligen förbättrat viktiga delar av vår konstruktion med den totala körtiden ner till O (m(log n) 2 (log log n) 2 ). På nästan linjär tid kan vi också beräkna kaktusrepresentationen av alla globala miniminedskärningar som införts i referens [5]. För att göra det involverar vi Gabows tidigare snabbaste O (λm) tidsalgoritm [10] som en svart låda. Vi noterar här att Karger och Panigrahi [19] har presenterat en nästan linjär tid Monte Carlo algoritm för att bygga kaktus datastruktur. Hädanefter överväger vi bara oviktade grafer. Vi får en enkel graf, och vi vill hitta en min-cut i nästan linjär tid. Vi kan anta att minimigraden δ är minst polylogaritmisk; för annars kan vi bara använda Gabow's [9], algoritm för att hitta min-cut i O (λm) = O (δm) = O (m) tid. För våra syften räcker det att anta δ ≥ log 6 n. Med en trivial snitt menar vi ett snitt där en sida består av en enda vertex. Vi noterar att minimigraden δ är en övre gräns på kanten-anslutning λ, eftersom det är den minsta storleken av en trivial snitt. Att hitta δ är trivialt, men vi kunde ha λ < δ. Vad som gör enkla grafer speciellt är att om du har en icke-trivial klippa i en enkel graf, då varje sida behöver ha minst δ hörn. Denna iakttagelse och dess samband med ledning kommer att diskuteras nedan i avsnitt 1.4. Genom att teckna en vertex uppsättning U på V, menar vi identifiera hörnen i U samtidigt ta bort kanterna mellan dem. Vi kanske inte kontrollerar att U är ansluten, så detta kanske inte motsvarar kant kontraktioner. Namnen på de kanter som inte avlägsnats bevaras, och ett snitt bevaras om alla kanterna bevaras. Den grundläggande idén i vår min-cut algoritm är att göra sammandragningar i grafen samtidigt bevara alla icke-triviala min-cuts, fortsätter tills grafen är så liten att Gabow algoritm kan avsluta i O (m) tid, där m är antalet kanter i den ursprungliga enkla inmatningskurvan. Sammandragningarna kan införa parallella kanter, så internt, algoritmen fungerar med en multigraph. Vårt huvudsakliga tekniska bidrag är att bevisa följande teorem: Theorem 1.1. Med tanke på en enkel ingång graf G med n hörn, m kanter, och minimal grad δ, i nära-linjär tid, kan vi kontrakt vertex uppsättningar som producerar en multigraph G, som endast har m (m/δ ) kanter, men som bevarar alla icke-triviala min-cuts av G. Från Theorem 1.1, vi lätt få vår nära-linjära min-cut algoritm: Corollary 1.2. Vi kan hitta en minsta skärning av en enkel graf G i nästan linjär tid. Bevis. Låt δ vara den minsta graden av G. Vi tillämpar Theorem 1.1 till G producerar grafen G. Vi kör nu Gabow min-cut algoritm [9] på G, ber det att misslyckas om kant-anslutningen är över δ. Detta tar O (δm) = O (m) tid, och nu jämför vi produktionen med den minsta graden δ. På samma sätt kan vi inom nästan linjär tid få kaktus representation av alla globala minimala nedskärningar från referens [5] genom att tillämpa kaktusalgoritmen Gabow [10] till G. Efter att ha producerat kaktus C av G, behöver vi bara lägga till min-graders hörn som extra nålar för att få kaktusarna i inmatningskurvan G. En beskrivning av detta inklusive definitionen av min-cut kaktus ges i Avsnitt 8. Vi noterar att Theorem 1.1 inte kan hålla om inmatningsgrafen är en multigraf. För att se detta, överväga en cykel av längd n ≥ 4, men där varje kant ersätts av k = (log n) på (1) parallella kanter. Nu är varje kant involverad i en icke-trivial min-cut där varje sida består av minst två på varandra följande hörn, och därför kan inga kanter dras ihop. Detta visar att sammandragningarna av Theorem 1.1 är mycket specifika för enkla grafer. Dessutom kan de bara bevara icke-triviala min-cuts, för om vi till exempel tar en komplett graf, då varje kant är i en trivial min-cut. Dock kan en komplett graf kontrakteras till en enda vertex, eftersom den inte har någon icke-trivial min-cut. Ytterligare resultat. Även om minskningen i Theorem 1.1 av antalet kanter ser ut som en typisk sparifiering, är det inte, för kanterna är kontrakterade, inte borttagna, och den resulterande G kommer att ha mycket färre hörn än G. I själva verket, kombinera med tekniker Nagamochi och Ibaraki [27], kan vi se till att antalet hörn kvar efter sammandragningarna är O (n/δ ). Eftersom antalet min-cuts i någon multigraph är som mest kvadratisk, en trevlig konsekvens är att antalet min-cuts i en enkel graf med n hörn och minimum grad δ är som mest n + O ((n/δ ) 2 ). Vi är inte medvetna om någon annan som har observerat att en stor minimigrad i en enkel graf innebär några minimala nedskärningar, även om det verkar som om detta faktum också kan härledas från kaktus representation [5]. Vår sammandragningsteknik kan stärkas för att även bevara ungefärliga min-snitt. Mer exakt, med min-grad δ och kant anslutning λ, kommer vi att stärka Theorem 1.1 till
Denna teknik introducerades av Kawarabayashi och Thorup REF, som uppnår nästan linjär deterministisk tid (uppskattas vara O(m log 12 n)).
15,523,046
Deterministic Edge Connectivity in Near-Linear Time
{'venue': 'JACM', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
4,071
Abstrakt. För att förbättra programvaruproduktiviteten använder programmerare ofta befintliga bibliotek eller ramverk genom att använda de metoder som anges i deras API för att bygga nya programvarusystem. Dessa API-metoder är dock ofta komplexa och inte väldokumenterade. För att bekanta sig med hur dessa API-metoder används utnyttjar programmerare ofta ett sökverktyg för källkod för att söka efter kodslippar som använder API-metoder av intresse. Men de returnerade kodsnuttar är ofta stora till antalet, och det enorma antalet snuttar sätter ett hinder för programmerare att hitta användbara sådana. För att hjälpa programmerare att övervinna denna barriär har vi utvecklat en API-användning gruvram och dess stödverktyg som kallas MAPO (Mining API-användning Mönster från öppna källarkiv) för gruv API användningsmönster automatiskt. En minerad mönster beskriver att i ett visst användningsscenario, vissa API metoder ofta kallas tillsammans och deras användningar följer vissa sekventiella regler. MAPO rekommenderar vidare de minerade API användningsmönster och deras tillhörande kod sippets på programmerares önskemål. Våra experimentella resultat visar att med dessa mönster MAPO hjälper programmerare att hitta användbara kodsnuttar mer effektivt än två toppmoderna kodsökningsverktyg. För att undersöka om MAPO kan hjälpa programmerare i programmeringsuppgifter genomförde vi ytterligare en empirisk studie. Resultaten visar att programmerare med hjälp av MAPO producerar kod med färre fel när de ställs inför relativt komplexa API-användningar, jämfört med att använda de två toppmoderna kodsökningsverktygen.
REF utvecklar en API-användning gruvram och dess stödverktyg som kallas MAPO (Mining API-användning Mönster från öppna källarkiv) för gruv API användningsmönster automatiskt.
11,036,114
MAPO: Mining and recommending API usage patterns
{'venue': 'In European Conference on Object-Oriented Programming (ECOOP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,072
Uppkomsten av energieffektivitet som en primär begränsning i processorer och systemdesign innebär nya utmaningar när det gäller makt- och energimedvetenhet för numeriska bibliotek och vetenskapliga tillämpningar. Strömförbrukning spelar också en viktig roll i utformningen av datacenter, som kan inrymma petascale eller exascale-nivå databehandlingssystem. I dessa extrema skalor blir förståelse och förbättring av energieffektiviteten hos numeriska bibliotek och tillhörande tillämpningar en avgörande del av datorsystemets framgångsrika genomförande och drift. I detta dokument studerar och undersöker vi praxisen att styra ett datorsystems effektförbrukning, och vi undersöker hur olika effekttak påverkar prestandan hos numeriska algoritmer med olika beräkningsintensiteter. Vidare bestämmer vi vilken effekt, i termer av prestanda och energianvändning, dessa tak har på ett system som kör vetenskapliga tillämpningar. Denna analys kommer att göra det möjligt för oss att karakterisera de typer av algoritmer som drar störst nytta av dessa kraftstyrningssystem. Våra experiment utförs med hjälp av en uppsättning representativa kärnor och flera populära vetenskapliga riktmärken. Vi kvantifierar ett antal effekt- och prestandamätningar och drar observationer och slutsatser som kan ses som en färdplan för att uppnå energieffektivitet vid utformning och genomförande av vetenskapliga algoritmer. Energieffektivitet, högpresterande datorer, Intel Xeon Phi, Knights landning, PAPI, prestandaanalys, prestandaräknare, energieffektivitet En grundläggande utmaning i strävan att nå exaskala prestandanivåer är att hitta rätt balans mellan prestanda och energieffektivitet på lämplig programvara och hårdvarunivåer. I detta dokument diskuterar vi strategier för effektmätning och effektstyrning för att erbjuda vetenskapliga applikationsutvecklare de grundläggande byggstenarna som krävs för att utveckla dynamiska optimeringsstrategier samtidigt som de arbetar inom de kraftbegränsningar som moderna och framtida högpresterande datorsystem (HPC) har. Tillämpningar med höga krav på databandbredd, vanligen kallade "minnesbundna" applikationer, har mycket olika konsekvenser för strömförbrukningen jämfört med "kompilera-bundna" problem som kräver tung CPU-genomströmning. Ur ett energiperspektiv leder beräkningsbundna arbetsbelastningar till hög processoreffektförbrukning, medan minnesbundna arbetsbelastningar i första hand förbrukar ström genom det viktigaste dynamiska slumpmässiga åtkomstminnet (DRAM). I det senare fallet, CPU kanske inte behöver förbruka ström på toppnivåer eftersom den huvudsakliga Dram latens och bandbredd fungerar som en flaskhals. Denna dynamik tyder på att små minskningar till CPU-effektgränsen kan minska energiförbrukningen över tid med minimal-till-ingen prestandanedbrytning, vilket i slutändan resulterar i betydande energibesparingar. För att undersöka potentiella effektbesparingar måste ett ramverk för energihantering användas för dynamisk effektövervakning och effekttak. Analysera hur hårdvarukomponenter förbrukar ström vid körning är nyckeln för att bestämma vilken av de ovan nämnda kategorierna ett program passar in i. Allteftersom datorlandskapet utvecklades började hårdvaruleverantörer erbjuda tillgång till sina energiövervakningsmöjligheter. Till exempel, börjar med införandet av Sandy Bridge arkitektur, Intel införlivar den kör genomsnittliga effektgräns (RAPL) modell i sin CPU-design för att ge
Azzam m.fl. REF analyserade prestandan hos många kärnor och strömförbrukningen hos olika hårdvarukomponenter när det gäller strömkapsling.
46,886,191
Investigating power capping toward energy-efficient scientific applications
{'venue': 'Concurr. Comput. Pract. Exp.', 'journal': 'Concurr. Comput. Pract. Exp.', 'mag_field_of_study': ['Computer Science']}
4,073
Differentiell integritet (DP) har blivit allmänt accepterad som en strikt definition av dataintegritet, med starkare integritetsgarantier än traditionella statistiska metoder. Nyligen genomförda studier har dock visat att för rimliga integritetsbudgetar, differentiell integritet avsevärt påverkar den förväntade nyttan. Många alternativa integritetsskyddsbegrepp som syftar till att avslappna DP har sedan dess föreslagits, i hopp om att skapa en bättre kompromiss mellan integritetsskydd och nytta. Vid CCS'13, Li et al. införde ramen för medlemskapets integritet, där de syftar till att skydda mot att medlemmar avslöjas av motståndare vars förkunskaper fångas upp av en familj av sannolikhetsfördelningar. Inom ramen för denna ram undersöker vi en avslappning av DP, genom att överväga tidigare distributioner som fångar upp mer rimliga mängder bakgrundskunskap. Vi visar att för olika sekretessbudgetar, DP kan användas för att uppnå medlemskap integritet för olika kontradiktoriska inställningar, vilket leder till en intressant kompromiss mellan integritetsgarantier och nytta. Vi omvärderar metoder för att släppa differentialt privat χ 2 - statistik i genom- omfattande föreningsstudier och visar att vi kan uppnå en högre nytta än i tidigare verk, samtidigt som man garanterar medlemskap integritet i en relevant kontradiktorisk miljö.
Tramèr m.fl. REF undersökte en avslappning av differentiell integritet genom att överväga mer rimliga mängder bakgrundskunskap.
16,352,069
Differential Privacy with Bounded Priors: Reconciling Utility and Privacy in Genome-Wide Association Studies
{'venue': "CCS '15", 'journal': None, 'mag_field_of_study': ['Computer Science']}
4,074
Den löpande prestandan hos moderna SAT-lösare på slumpmässiga k-CNF-formler är djupt kopplad till "fasövergång" fenomenet sett empiriskt i tillfredsställelsen av slumpmässiga k-CNF-formler. Senaste universella hashing-baserade metoder för provtagning och beräkning är avgörande beroende av körtiden prestanda SAT lösare på formler som uttrycks som en kombination av både k-CNF och XOR begränsningar (känd som k-CNF-XOR formler), men beteendet hos slumpmässiga k-CNF-XOR formler är outforskad i tidigare arbete. I detta dokument presenterar vi den första studien av tillfredsställandet av slumpmässiga k-CNF-XOR-formler. Vi visar empiriska belägg för en överraskande fasövergång som följer en linjär avvägning mellan k-CNF och XOR-begränsningar. Dessutom bevisar vi att det finns en fasövergång för k-CNF-XOR-formler för k = 2 och (när antalet k-CNF-begränsningar är litet) för k > 2.
I REF studerades först tillfredsställandetröskeln för kombination av slumpmässiga XOR-formler för k-CNF och slumpmässiga XOR-formler med variabel bredd.
8,222,985
Combining the $k$-CNF and XOR Phase-Transitions
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
4,075
Ett Pyramiduppmärksamhetsnätverk (PAN) föreslås för att utnyttja effekterna av global kontextuell information vid semantisk segmentering. Olika från de flesta befintliga verk, kombinerar vi uppmärksamhetsmekanism och rumslig pyramid för att extrahera exakta täta funktioner för pixel märkning i stället för komplicerade dilaterade konvolution och artificiellt utformade dekoder nätverk. Specifikt introducerar vi en funktion Pyramid Uppmärksamhet modul för att utföra rumslig pyramid uppmärksamhet struktur på hög nivå utdata och kombinera global pooling för att lära sig en bättre funktion representation, och en global Uppmärksamhet Upp exempel modul på varje dekoder lager för att ge globala sammanhang som en vägledning för låg nivå funktioner för att välja kategori lokalisering detaljer. Det föreslagna tillvägagångssättet uppnår toppmoderna prestanda på PASCAL VOC 2012 och Cityscapes riktmärken med en ny registrering av mIoU noggrannhet 84,0 % på PASCAL VOC 2012, medan utbildning utan COCO dataset.
Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. föreslog en global undersökningsmodul i dekodern för att ta fram ett globalt sammanhang av högnivåfunktioner som vägledning för viktning av lågnivåfunktionsinformation REF.
44,120,007
Pyramid Attention Network for Semantic Segmentation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
4,076
Abstract-Estimating mänskliga poser är ett viktigt steg mot att utveckla robotar som kan förstå mänskliga rörelser och förbättra deras kognitiva kapacitet. Detta papper presenterar en geometrisk funktion för att uppskatta mänskliga poser från en 3D-punkt molninmatning. Den föreslagna funktionen kan betraktas som en förlängning av idén om visuella funktioner, såsom färg / kant, av färg / grayska bilder, och den innehåller den geometriska strukturen i punktmolnet. Det härleds genom att arrangera 3D-punkterna i en trädstruktur, som bevarar de globala och lokala egenskaperna hos 3D-punkterna. Visas experimentellt, trädstrukturen (spatial beställning) är särskilt viktigt för att uppskatta mänskliga poser (dvs. artikulerade objekt). 3D-orientering (pann, lutning och girvinkel) och formegenskaper extraheras sedan från varje nod i trädet för att beskriva den geometriska fördelningen av 3D-punkterna. Den föreslagna funktionen har utvärderats på ett referensdataset och jämförts med två befintliga geometriska egenskaper. Experimentella resultat visar att den föreslagna funktionen har det lägsta totala felet i human-pose uppskattning.
Med hjälp av 3D-Point-Cloud föreslog REF en 3D-funktion för att uppskatta den mänskliga posen.
6,567,518
A 3D-point-cloud feature for human-pose estimation
{'venue': '2013 IEEE International Conference on Robotics and Automation', 'journal': '2013 IEEE International Conference on Robotics and Automation', 'mag_field_of_study': ['Engineering', 'Computer Science']}
4,077