src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Mekaniska anordningar som motorer, fordon, flygplan, etc., är vanligtvis instrumenterade med många sensorer för att fånga beteende och hälsa hos maskinen. Det finns dock ofta externa faktorer eller variabler som inte fångas upp av sensorer som leder till tidsserier som i sig är oförutsägbara. Till exempel kan manuella kontroller och/eller oövervakade miljöförhållanden eller belastning leda till i sig oförutsägbara tidsserier. Att upptäcka anomalier i sådana scenarier blir utmanande med hjälp av standardmetoder baserade på matematiska modeller som bygger på stationaritet, eller förutsägelsemodeller som använder förutsägelsefel för att upptäcka anomalier. Vi föreslår en Long Short Term Memory Networks baserad Encoder-Decoder system för Anomaly Detection (EncDec-AD) som lär sig att rekonstruera "normala" tidsserie beteende, och därefter använder rekonstruktion fel för att upptäcka avvikelser. Vi experimenterar med tre allmänt tillgängliga nästan förutsägbara tidsseriedataset: strömförbrukning, rymdfärja och EKG, och två verkliga motordataset med både prediktivt och oförutsägbart beteende. Vi visar att EncDec-AD är robust och kan upptäcka avvikelser från förutsägbara, oförutsägbara, periodiska, aperiodiska och kvasiperiodiska tidsserier. Vidare visar vi att EncDec-AD kan upptäcka anomalier från korta tidsserier (längd så liten som 30) samt långa tidsserier (längd så stor som 500).
Till exempel Malhotra et al. REF presenterar en LSTM-baserad kodare-dekoder metod för multi-sensor tidsserie anomali upptäckt.
9,286,983
LSTM-based Encoder-Decoder for Multi-sensor Anomaly Detection
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,914
Nya online-tjänster är starkt beroende av automatisk personalisering för att rekommendera relevant innehåll till ett stort antal användare. Detta kräver att systemen ska skalas snabbt för att tillgodose strömmen av nya användare som besöker onlinetjänsterna för första gången. I detta arbete föreslår vi ett innehållsbaserat rekommendationssystem för att ta itu med både rekommendationens kvalitet och systemets skalbarhet. Vi föreslår att använda en rik funktionsuppsättning för att representera användare, enligt deras webbsurfhistorik och sökfrågor. Vi använder en Deep Learning-strategi för att kartlägga användare och objekt till ett latent utrymme där likheten mellan användare och deras föredragna objekt maximeras. Vi utökar modellen för att gemensamt lära av funktioner i objekt från olika domäner och användarfunktioner genom att införa en multi-view Deep Learning-modell. Vi visar hur man kan göra denna rika-feature-baserade användarrepresentation skalbar genom att minska dimensionen av indata och mängden utbildningsdata. Den rika användarfunktion representation gör det möjligt för modellen att lära sig relevanta användarbeteende mönster och ge användbara rekommendationer för användare som inte har någon interaktion med tjänsten, med tanke på att de har lämplig sökning och webbhistorik. Kombinationen av olika domäner till en enda modell för lärande hjälper till att förbättra rekommendationskvaliteten i alla domäner, samt att ha en mer kompakt och semantiskt rikare användare latent funktion vektor. Vi experimenterar med vår strategi på tre verkliga rekommendationssystem förvärvade från olika källor av Microsoft-produkter: Windows Apps rekommendation, Nyheter rekommendation, och Movie / TV rekommendation. Resultaten visar att vår strategi är betydligt bättre än toppmoderna algoritmer (upp till 49% förbättring på befintliga användare och 115% förbättring på nya användare). Dessutom visar experiment på en offentligt öppen datauppsättning också överlägsenheten av vår metod i jämförelse med övergångsgenerativa ämnesmodeller, för modell- * Arbetat på Microsoft Research under författarens sommarpraktik. ............................................................................................................................................. Skalbarhetsanalys visar att vår multi-view DNN-modell enkelt kan skalas till att omfatta miljontals användare och miljarder poster. Experimentella resultat bekräftar också att kombination av funktioner från alla domäner ger mycket bättre prestanda än att bygga separata modeller för varje domän.
Kartläggning av användare och objekt till ett latent utrymme, som görs i REF verkar vara ett bra sätt att ta itu med rekommendationens kvalitet i innehållsbaserade rekommendationssystem.
14,936,990
A Multi-View Deep Learning Approach for Cross Domain User Modeling in Recommendation Systems
{'venue': "WWW '15", 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,915
Abstract-I trådlösa ad hoc-nätverk, noder kommunicerar med fjärran destinationer med hjälp av mellanliggande noder som reläer. Eftersom trådlösa noder är energibegränsade, kanske det inte ligger i nodens bästa intresse att alltid acceptera reläförfrågningar. Å andra sidan, om alla noder bestämmer sig för att inte använda energi i återutläggning, då nätverksgenomströmningen kommer att sjunka dramatiskt. Båda dessa extrema scenarier (fullständigt samarbete och fullständigt icke-samarbete) är ovidkommande för en användares intressen. I detta dokument tar vi upp frågan om användarsamarbete i ad hoc-nätverk. Vi antar att noder är rationella, d.v.s., deras handlingar är strikt bestäms av självintresse, och att varje nod är associerad med en minimal livstid begränsning. Med tanke på dessa livstid begränsningar och antagandet av rationellt beteende, kan vi avgöra den optimala genomströmning som varje nod bör ta emot. Vi definierar detta för att vara den rationella Pareto optimal driftpunkt. Därefter föreslår vi en distribuerad och skalbar acceptalgoritm kallad Generous TIT-FOR-TAT (GTFT). Acceptalgoritmen används av noderna för att avgöra om en reläbegäran ska godtas eller avslås. Vi visar att GTFT resulterar i en Nash-jämvikt och bevisar att systemet konvergerar till den rationella och optimala driftpunkten.
I REF, srinivasan et al. föreslog en acceptansalgoritm kallad GTFT och de visade att GTFT resulterar i Nash jämvikt.
8,912,605
Cooperation in wireless ad hoc networks
{'venue': 'IEEE INFOCOM 2003. Twenty-second Annual Joint Conference of the IEEE Computer and Communications Societies (IEEE Cat. No.03CH37428)', 'journal': 'IEEE INFOCOM 2003. Twenty-second Annual Joint Conference of the IEEE Computer and Communications Societies (IEEE Cat. No.03CH37428)', 'mag_field_of_study': ['Computer Science']}
81,916
PageRank definieras som stationärt tillstånd i en Markovkedja. Kedjan erhålls genom att störa övergångsmatrisen inducerad av en webbgrafik med en dämpningsfaktor α som sprider sig jämnt en del av rangen. Valet av α är i högsta grad empiriskt, och i de flesta fall används fortfarande det ursprungliga förslaget α = 0,85 av Brin och Page. Nyligen upptäcktes dock PageRanks beteende med avseende på förändringar i α vara användbart vid detektering av länkspam [21]. Dessutom saknas fortfarande en analytisk motivering av det värde som valts för α. I den här artikeln ger vi den första matematiska analysen av PageRank när α ändras. I synnerhet visar vi att, tvärtemot vad folk tror, för verkliga grafer värden av α nära 1 inte ger en mer meningsfull rankning. Sedan ger vi slutna formler för PageRank-derivat av valfri ordning, och en förlängning av effektmetoden som approximerar dem med konvergens O t k α t för k-th-derivatan. Slutligen visar vi en snäv koppling mellan itererad beräkning och analytiskt beteende genom att bevisa att k-th iteration av kraftmetoden ger exakt det PageRank-värde som erhålls med hjälp av en Maclaurin polynom av grad k. Det senare resultatet banar väg för tillämpningen av analysmetoder för studien av PageRank.
De resultat som rapporteras i REF visar att α-värden nära 1 inte ger korrekta rankningar.
1,357,184
PageRank as a function of the damping factor
{'venue': "WWW '05", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,917
I denna artikel visar vi att en corpus av några tusen Wikipedia artiklar om betong eller visualiseringsbara begrepp kan användas för att producera en lågdimensionell semantisk funktion representation av dessa begrepp. Syftet med en sådan representation är att fungera som en modell av ett objekts mentala sammanhang under funktionella experiment med magnetisk resonanstomografi (fMRI). En nyligen genomförd studie [19] visade att det var möjligt att förutsäga fMRI-data som förvärvats medan försökspersonerna tänkte på ett konkret koncept, med tanke på en representation av dessa begrepp i termer av semantiska egenskaper som erhållits med mänsklig övervakning. Vi använder ämnesmodeller på våra corpus för att lära oss semantiska funktioner från text på ett oövervakat sätt, och visar att dessa funktioner kan överträffa dem i [19] krävande 12- och 60-vägs klassificering uppgifter. Vi visar också att dessa egenskaper kan användas för att avslöja likheter i hjärnaktivering för olika begrepp som parallell dessa relationer i beteendedata från människor.
Syftet med en sådan representation är att fungera som en modell av det mentala sammanhanget för ett ämne under funktionella magnetisk resonanstomografi (fMRI) experiment REF.
17,131,669
Using Wikipedia to learn semantic feature representations of concrete concepts in neuroimaging experiments
{'venue': 'Artificial intelligence', 'journal': 'Artificial intelligence', 'mag_field_of_study': ['Medicine', 'Computer Science']}
81,918
Med trådlös nätverksteknik som sträcker sig in i våra arbets- och driftmiljöer är korrekt hantering av intermittent trådlös konnektivitet och nätverksstörningar av betydelse. Eftersom antalet potentiella opportunistiska tillämpningar fortsätter att öka (d.v.s. trådlösa sensornätverk, undervattenssensornätverk, fickkopplade nätverk, transportnät och så vidare.), utformningen av en effektiv routing schema som överväger och tillgodoser de olika invecklade beteenden som observerats i ett opportunistiskt nätverk är av intresse och förblev önskvärt. Även om tidigare lösningar använder antingen replikerings- eller kodningsteknik för att ta itu med utmaningarna i opportunistiska nätverk, gör avvägningen av dessa två tekniker dem bara idealiska under vissa nätverksscenarier. I detta dokument föreslår vi ett hybridsystem, H-EC, för att hantera en mängd olika opportunistiska nätverksfall. H-EC är utformad för att helt kombinera robustheten av radering kodning baserade routing tekniker, samtidigt som prestandafördelarna med replikering tekniker bevaras. Vi utvärderar H-EC mot andra liknande strategier när det gäller leveransförhållande och latens, och konstaterar att H-EC erbjuder robusthet i värsta fall fördröjt prestandafall samtidigt som vi uppnår bra prestanda i små delay-prestandafall. Vi diskuterar också de trafikomkostnader som är förknippade med H-EC jämfört med andra system, och presenterar flera strategier som potentiellt kan minska trafikomkostnaderna för H-EC-system.
Dessutom föreslår Ref ett hybridsystem som kombinerar styrkan i raderingskodningen och fördelarna med Aggressive Forwarding, så att det är robust i de värsta fallen av fördröjningsprestanda, och fungerar effektivt i mycket små fall av fördröjningsprestanda.
15,942,734
A hybrid routing approach for opportunistic networks
{'venue': "CHANTS '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,919
Vi introducerar en metod för att visualisera framväxande nätverk. Förutom de mellanliggande tillstånden i nätet, förmedlar det karaktären av förändring mellan stater genom att rulla upp dynamiken i nätverket. Varje ändring visas i ett separat lager av en tredimensionell representation, där lagerstacken motsvarar en tidslinje i evolutionen. Vi fokuserar på nätverk av dynamisk diskurs som den drivande applikationen, men metoden sträcker sig till alla typer av nätverk som utvecklas på liknande sätt.
Brandes och Corman REF presenterar ett system för att visualisera nätverksutveckling där varje ändring visas i ett separat lager av en 3D-representation, med noder som är gemensamma för två lager representerade som kolumner som förbinder lagren.
205,129,384
Visual Unrolling of Network Evolution and the Analysis of Dynamic Discourse†
{'venue': None, 'journal': 'Information Visualization', 'mag_field_of_study': ['Computer Science']}
81,921
Nyligen, magnetisk resonanstomografi har visat sig vara viktigt för utvärderingen av placenta hälsa under graviditeten. Kvantitativ bedömning av moderkakan kräver en segmentering, som visar sig vara utmanande på grund av den höga variationen i dess position, orientering, form och utseende. Dessutom är bild förvärv korrumperas av rörelse artefakter från både foster och moder rörelser. I detta dokument föreslår vi en helautomatisk segmentering av moderkakan från strukturella T2-viktade skanningar av hela livmodern, samt en förlängning för att ge en intuitiv prenatal syn i detta vitala organ. Vi antar en 3D flerskaliga konvolutionella neurala nätverk för att automatiskt identifiera placenta kandidat pixlar. Den resulterande klassificeringen förfinas därefter av en 3D tät villkorlig slumpmässig fält, så att en hög upplösning placenta volym kan rekonstrueras från flera överlappande stackar av skivor. Vårt segmenteringsramverk har testats på 66 försökspersoner vid havandeskapsåldern 20-38 veckor med en Dice-poäng på 71,95 ± 19,79 % för friska foster med en fast avsökningssekvens och 66,89 ± 15,35 % för en kohort blandad med fall av intrauterin fetal tillväxtrestriktion med hjälp av varierande avsökningsparametrar.
Rueckert m.fl. REF föreslår en helautomatisk segmentering ram för att identifiera placenta kandidat pixlar.
34,196,335
Fast Fully Automatic Segmentation of the Human Placenta from Motion Corrupted MRI
{'venue': 'MICCAI', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,922
Vi tillämpar en nyligen endimensionell algoritm för att förutsäga slumpmässiga nära förpackning fraktioner av polydisperse hårda sfärer [Farr och Groot, J. Chem. Fylken. 133, 244104 (2009)) till lognormala fördelningar av sfärstorlekar och blandningar av sådana populationer. Vi visar att resultaten jämför väl med två mycket långsammare algoritmer för direkt simulerande sfärer i tre dimensioner, och visar att algoritmen är tillräckligt snabb för att hantera inversa problem i partikelpackning: designa storleksfördelningar för att uppfylla de kriterier som krävs. Den endimensionella metod som används i detta dokument genomförs som en datakod på programmeringsspråket C, tillgänglig på http://sourceforge.net/projects/spherepack1d/ enligt villkoren i GNUs allmänna offentliga licens (version 2).
Farr REF studerade problemet med slumpmässiga nära förpackningsfraktioner av lognormala fördelningar av hårda sfärer.
98,625,166
Random close packing fractions of lognormal distributions of hard spheres
{'venue': 'Powder Technology, Vol 245, p28-34 (2013)', 'journal': None, 'mag_field_of_study': ['Physics', 'Chemistry']}
81,923
Abstrakt. Mobiltelefoner är inställda på att bli det universella gränssnittet för onlinetjänster och molntjänster. Men att använda dem för detta ändamål idag är begränsad till två konfigurationer: program kör antingen på telefonen eller kör på servern och är fjärråtkomst via telefonen. Dessa två alternativ tillåter inte en anpassad och flexibel serviceinteraktion, vilket begränsar möjligheterna till prestandaoptimering också. I detta papper presenterar vi en middleware plattform som automatiskt kan distribuera olika lager av ett program mellan telefonen och servern, och optimera en mängd olika objektiva funktioner (latens, data som överförs, kostnad, etc.). Vår strategi bygger på befintlig teknik för distribuerad modulhantering och kräver ingen ny infrastruktur. I tidningen diskuterar vi hur man modellerar applikationer som en förbrukningsgraf, och hur man behandlar den med ett antal nya algoritmer för att hitta den optimala fördelningen av applikationsmodulerna. Applikationen är sedan dynamiskt utplacerad på telefonen på ett effektivt och transparent sätt. Vi har testat och validerat vårt arbetssätt med omfattande experiment och med två olika tillämpningar. Resultaten visar att de tekniker vi föreslår avsevärt kan optimera prestandan hos molnapplikationer när de används från mobiltelefoner.
Att kalla Cloud REF är en middleware-plattform som automatiskt kan distribuera olika lager av ett program mellan telefonen och servern, och optimera en mängd olika objektiva funktioner.
1,498,445
Calling the cloud: Enabling mobile phones as interfaces to cloud applications
{'venue': 'Middleware', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,924
Detta dokument handlar om Kalman filtrering problem för att spåra ett enda mål på fast-topologi trådlösa sensor nätverk (WSNs). Både den otillräckliga ankartäckningen och avhoppen från paketen har beaktats i filtrets utformning. Det resulterande spårningssystemet är modellerat som ett flerkanaligt ickelinjärt system med multiplikativt buller. Med tanke på att kanalerna kan vara korrelerade med varandra, använder vi en allmän matris för att uttrycka det multiplikativa bruset. Därefter presenteras en modifierad utökad Kalman filtreringsalgoritm baserad på den erhållna modellen för att uppnå hög spårningsnoggrannhet. I synnerhet utvärderar vi effekten av olika parametrar på spårningsprestandan genom simuleringsstudier.
Dessutom föreslås en modifierad utökad Kalman filtreringsteknik REF för spårning av applikationer med otillräckliga och intermittenta observationer.
55,682,439
Modified Extended Kalman Filtering for Tracking with Insufficient and Intermittent Observations
{'venue': None, 'journal': 'Mathematical Problems in Engineering', 'mag_field_of_study': ['Mathematics']}
81,925
ABSTRACT Den ultratillförlitliga låg latenskommunikationen (URLLC) i femte generationens mobilkommunikationssystem syftar till att stödja olika nya tillämpningar med strikta krav på latens och tillförlitlighet. Mobile edge computing (MEC) betraktas som en lovande lösning för att minska latensen i beräkningsintensiva uppgifter som utnyttjar kraftfulla datorenheter på kort avstånd. Det senaste arbetet med uppgiftsöverföring till MEC är främst inriktat på avvägningen mellan latens och energiförbrukning, snarare än tillförlitlighet. I detta dokument studeras avvägningen mellan latensen och tillförlitligheten i utlastningen av uppgifter till MEC. En ram tillhandahålls, där användarutrustning partitionerar en uppgift i del-tasks och avlastar dem till flera närliggande kant noder (ENs) i följd. Inom denna ram formulerar vi ett optimeringsproblem för att gemensamt minimera latensen och avlasta felsannolikheten. Eftersom det formulerade problemet är nonconvex, designar vi tre algoritmer baserade på heuristisk sökning, omformulering linjäriseringsteknik och semi-definit avkoppling, respektive, och lösa problemet genom att optimera EN kandidater val, avlasta beställning och uppgift allokering. Jämfört med det tidigare arbetet visar de numeriska simuleringsresultaten att de föreslagna algoritmerna har en bra balans mellan latens och tillförlitlighet i URLC. Bland dem uppnår den heuristiska algoritmen den bästa prestandan när det gäller latens och tillförlitlighet med minimal komplexitet. INDEX TERMS 5G, ultra-tillförlitlig låg latent kommunikation, mobil edge computing, beräkning offloading.
Liu och Zhang Ref beaktade avvägningen mellan latens och tillförlitlighet vid utlastning av uppgifter till MEC.
4,105,704
Offloading Schemes in Mobile Edge Computing for Ultra-Reliable Low Latency Communications
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
81,926
Abstract-I trådlösa nätverk är systemöverlevnad en av de viktigaste frågorna när det gäller att tillhandahålla servicekvalitet (QoS). Eftersom fel på hemagent (HA) eller mobil ankarpunkt (MAP) orsakar serviceavbrott, har den hierarkiska mobilen IPv6 (HMIPv6) endast en svag överlevnadsförmåga. I detta dokument föreslår vi Robust Hierarchical Mobile IPv6 (RH-MIPv6), som ger feltolerans och robusthet i mobila nätverk. I RH-MIPv6 registrerar en mobil nod (MN) primär (P-RCoA) och sekundär (S-RCoA) regional vård av adresser till två olika MAP (primär och sekundär) samtidigt. Vi utvecklar en mekanism för att göra det möjligt för den mobila noden eller korrespondentnoden (CN) att upptäcka fel på primär MAP och ändra deras fastsättning från primär till sekundär MAP. Genom detta återvinningsförfarande är det möjligt att minska återvinningstiden för fel. Analysutvärderingen visar att RH-MIPv6 har snabbare återhämtningstid än HMIPv6 och vi visar även genom simulering som ett analytiskt resultat. Följaktligen visar RH-MIPv6 ca 60 % snabbare återhämtningstid jämfört med HMIPv6.
Du, Pack och Choi REF föreslog robust hierarkisk mobil IPv6 (RH-MIPv6) för att ge feltolerans och robusthet i MIMv6-nätverk.
11,031,532
Robust hierarchical mobile IPv6 (RH-MIPv6): an enhancement for survivability and fault-tolerance in mobile IP systems
{'venue': '2003 IEEE 58th Vehicular Technology Conference. VTC 2003-Fall (IEEE Cat. No.03CH37484)', 'journal': '2003 IEEE 58th Vehicular Technology Conference. VTC 2003-Fall (IEEE Cat. No.03CH37484)', 'mag_field_of_study': ['Computer Science']}
81,927
Vi presenterar vikt normalisering: en reparameterisering av viktvektorer i ett neuralt nätverk som frikopplar längden på dessa viktvektorer från deras riktning. Genom att omparameterisera vikterna på detta sätt förbättrar vi konditioneringen av optimeringsproblemet och vi påskyndar konvergensen av stokastisk lutning nedstigning. Vår reparameterisering är inspirerad av batch normalisering men introducerar inga beroenden mellan exemplen i en minibatch. Detta innebär att vår metod också kan tillämpas framgångsrikt på återkommande modeller som LSTMs och på bullerkänsliga applikationer såsom djup förstärkning lärande eller generativa modeller, för vilka batch normalisering är mindre väl lämpad. Även om vår metod är mycket enklare, ger det fortfarande mycket av upphastigheten av full batch normalisering. Dessutom är de beräkningsmässiga omkostnaderna för vår metod lägre, vilket gör det möjligt att ta fler optimeringssteg på samma tid. Vi demonstrerar nyttan av vår metod för applikationer i övervakad bildigenkänning, generativ modellering och djupt förstärkande lärande.
Huvudidén är att frikoppling av viktens längd och riktning (som görs i BatchNorm och viktnormalisering REF ) kan utnyttjas i stor utsträckning.
151,231
Weight Normalization: A Simple Reparameterization to Accelerate Training of Deep Neural Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,928
I detta arbete presenterar vi en end-to-end system för text spotting-lokalisera och känna igen text i naturliga scenbilder-och textbaserad bildsökning. Detta system bygger på en regional förslagsmekanism för detektion och djupa konvolutionella neurala nätverk för erkännande. Vår pipeline använder en ny kombination av kompletterande förslagsgenereringstekniker för att säkerställa hög återkallning och ett snabbt efterföljande filtreringssteg för att förbättra precisionen. För erkännande och rangordning av förslag utbildar vi mycket stora konvolutionella neurala nätverk för att utföra ordigenkänning på hela förslagsregionen samtidigt, som avviker från de karaktärsklassificeringsbaserade systemen i det förflutna. Dessa nätverk utbildas enbart på data som produceras av en syntetisk textgenereringsmotor, som inte kräver några humanmärkta data. Genom att analysera stegen i vår pipeline visar vi toppmoderna resultat hela tiden. Vi utför rigorösa experiment över ett antal standard-end-to-end text spotting riktmärken och text-baserade bildsökning dataset, visar en stor förbättring jämfört med alla tidigare metoder. Slutligen visar vi en verklig tillämpning av vårt textspaningssystem så att tusentals timmar av nyhetsfilmer omedelbart kan sökas via en textsökning.
Jaderberg m.fl. REF föreslog ett end-to-end-system för lokalisering och erkännande av texter från naturliga scenbilder.
207,252,329
Reading Text in the Wild with Convolutional Neural Networks
{'venue': 'International Journal of Computer Vision', 'journal': 'International Journal of Computer Vision', 'mag_field_of_study': ['Computer Science']}
81,929
Hittills har relationsextraktionssystem i stor utsträckning använt sig av funktioner som genereras av språkliga analysmoduler. Fel i dessa funktioner leder till fel i relationsdetektering och klassificering. I detta arbete avviker vi från dessa traditionella tillvägagångssätt med komplicerad funktionsteknik genom att införa ett konvolutionellt neuralt nätverk för relationsextraktion som automatiskt lär sig funktioner från meningar och minimerar beroendet av externa verktyg och resurser. Vår modell tar fördelar av flera fönsterstorlekar för filter och förtränade ordinbäddningar som en initializer på en icke-statisk arkitektur för att förbättra prestandan. Vi betonar relationen utvinning problem med en obalanserad corpus. De experimentella resultaten visar att vårt system avsevärt överträffar inte bara de bästa baslinjesystemen för relationsextraktion utan också de toppmoderna systemen för relationsklassificering.
Till exempel Nguyen et al. REF använde ett CNN med förträngda ordinslag som överträffade tidigare toppmoderna system för relationsklassificering.
12,585,424
Relation Extraction: Perspective from Convolutional Neural Networks
{'venue': 'VS@HLT-NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,930
I detta dokument studeras problemet med att inbädda mycket stora informationsnätverk i lågdimensionella vektorutrymmen, vilket är användbart i många uppgifter som visualisering, nodklassificering och länkförutsägelse. De flesta befintliga grafen inbäddningsmetoder inte skala för verkliga världen informationsnätverk som vanligtvis innehåller miljontals noder. I detta dokument föreslår vi en ny metod för inbäddning av nätverk som kallas "LINE", som är lämplig för godtyckliga typer av informationsnätverk: oriktade, riktade och/eller vägda. Metoden optimerar en noggrant utformad objektiv funktion som bevarar både de lokala och globala nätverksstrukturerna. En edge-sampling algoritm föreslås som tar itu med begränsningen av den klassiska stokastisk lutning nedstigning och förbättrar både effektiviteten och effektiviteten av inferensen. Empiriska experiment visar LINE:s effektivitet i en mängd olika verkliga informationsnätverk, inklusive språknätverk, sociala nätverk och citeringsnätverk. Algoritmen är mycket effektiv, som kan lära sig inbäddning av ett nätverk med miljontals hörn och miljarder kanter på några timmar på en typisk enda maskin. Källkoden för LINE finns tillgänglig på nätet. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning.
För att lösa skalbarhetsproblemet med denna metod när den tillämpas på verkliga informationsnätverk (som ofta innehåller miljontals noder) utvecklades LINE REF.
8,399,404
LINE: Large-scale Information Network Embedding
{'venue': "WWW '15", 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,931
Abstract-Vi föreslår två enkla sätt att använda en genetisk algoritm (GA) för att utforma ett system med flera klasser. Den första GA-versionen väljer separata funktionsundergrupper som ska användas av de enskilda klassificeringarna, medan den andra versionen väljer (eventuellt) överlappande funktionsundergrupper, och även typerna av de enskilda klassificeringarna. De två GAs har testats med fyra verkliga datauppsättningar: Hjärta, Satimage, Bokstäver och Rättsmedicinska glasögon (tiofaldig korsvalidering, med undantag för Satimage där vi bara använde två splitar). Vi använde tre-klassificerare system och grundläggande typer av individuella klassificerare (de linjära och quadratic discriminant klassificerare och den logistiska klassificerare). De system med flera klassificeringar som utformats med de två GAs jämfördes med klassificeringar med hjälp av: 1) alla funktioner; 2) den bästa funktionen delmängd som hittades med metoden sekventiellt bakåt (SBS) och 3) den bästa funktionen delmängd som hittades av en GA (individuell klassificering!). Vi fann att: 1) det system med flera klasser som härleddes genom GA, Version 2, gav den minsta felfrekvensen i alla experiment; och 2) med Satimage och Forensic glasögon data, det producerade också den minsta testfelsfrekvensen. Att generalisera på grundval av dessa experiment är inte enkelt eftersom skillnaderna mellan felfrekvenserna i jämförelsen verkade vara för små. GA-design kan göras mindre benägna att överskola genom att inkludera straffvillkor i fitnessfunktionen som redovisar antalet funktioner som används.
I detta avseende, Genetisk algoritm (GA) är känd som en av de bästa sökalgoritmer för optimering av klassificerings utdata REF.
16,027,566
Designing classifier fusion systems by genetic algorithms
{'venue': 'IEEE Trans. Evolutionary Computation', 'journal': 'IEEE Trans. Evolutionary Computation', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,932
De tre grundläggande elementen i vår nationella simuleringsmodell är (1) en tidigare utvecklad stokastisk agentbaserad modell för sjukdomsspridning på samhällsnivå; (2) detaljerad amerikansk folkräkningsdemografi och arbetsflödesdata för daglig pendlartrafik på korta avstånd, och Bureau of Transportation Statistics data för de mindre frekventa långdistansresebeteende; och (3) högpresterande parallell computing expertis i att modellera miljoner till miljarder partiklar på hundratals till tusentals processorer. Dessa tre komponenter, var och en av dem som vi beskriver härnäst i detalj, förs samman för att ge en unik förmåga till en detaljerad modellering av sjukdomsspridningen i USA:s befolkning. (1) Samhällsnivå stokastisk simuleringsmodell Som utgångspunkt för att bygga vår nationella simuleringsmodell använder vi en diskret tids- och stokastisk simuleringsmodell av sjukdomar som sprids inom en strukturerad 2000-tysk, Kadau, Longini och Macken Supporting Info: Sida 2 av 37 2/26/06 persongemenskap. Liknande modeller har utvecklats och applicerats tidigare på både influensa (1-4) och smittkoppor (5). Modellpopulationen är stokastiskt genererad för att matcha folkräkningsbaserade rikstäckande fördelningar av ålder, hushållets storlek och anställningsstatus. Varje person i befolkningen tillhör en av fem åldersgrupper: förskolebarn (0-4 år), skolbarn (5-18 år), unga vuxna (19-29 år), vuxna (30-64 år) och äldre vuxna (64+ år). Hushållen består av en till sju personer, med antingen en eller två vuxna, och grupperas slumpmässigt i grupper om fyra hushåll vardera, och ytterligare grupperas i ett av fyra icke-överlappande bostadsområden, som vardera innehåller cirka 500 personer. Varje person tillhör också en uppsättning av nära och tillfällig kontakt (även kallad "mixing") grupper, allt från deras hushåll och hushåll kluster (högsta kontaktpriser), till skolor och arbetsplatser, ner till deras grannskap och hela samhället (med de lägsta kontaktfrekvenser, som representerar enstaka interaktioner i gallerior, stormarknader och kyrkor, till exempel). Alla barn i förskoleåldern är förordnade att antingen en stadsdel daghem, med 14 barn i genomsnitt, eller till en av flera mindre grannskapet lekgrupper, var och en med 4 barn. Beroende på ålder kan barn i skolåldern tillhöra en av två grundskolegrupper (var och en delas mellan två stadsdelar, med 79 elever vardera i genomsnitt), en samhällsomfattande medelskolegrupp (128 elever i genomsnitt) eller en samhällsomfattande gymnasiegrupp (i genomsnitt 155 elever). Dessa skolkontaktgrupper är i allmänhet inte verkliga skolor, utan snarare representativa för de typiska dagliga interaktioner en elev kan ha med klasskamrater och andra kamrater. Enligt uppgifter från USA:s folkräkning går 93 % av barnen 5–18 år i skolan, så vi tillåter att de återstående 7 % blandas i hushållet, hushållsklustret, grannskapet och samhället under dagtid. Arbetsföra vuxna (begränsat till dem som är 19 -64 år) tillhör en arbetsgrupp på cirka 20 personer. Även om många arbetsplatser i verkligheten är större än 20 personer, antar vi att arbetstagarna tar kontakt med tillräckligt lång varaktighet och/eller närhet för att överföra influensavirus med en undergrupp av hela arbetskraften på den platsen. Överföring inom varje kontaktgrupp beskrivs med en kontakt sannolikhet c i (Tabell 3), som kan bero på åldern för både smittsamma och mottagliga personer. Denna kontakt sannolikhet representerar sannolikheten (inom varje 12-timmarsperiod) att ha en kontakt med tillräcklig varaktighet och närhet för överföring av en smittsam dos av Germann, Kadau, Longini och Macken Supporting Info: Sida 3 av 37 2/26/06 influensavirus att vara möjligt mellan dessa två individer i denna sociala miljö. Sannolikheten för överföring givet sådan kontakt, P trans, är ett enda skalar tal som multiplicerar varje kontakt sannolikhet, vilket möjliggör en enkel variation i smittsamhet (typiskt representeras av det grundläggande reproduktiva antalet, R 0 ) utan att ändra de underliggande sociala interaktion nätverk parametrar. Vi tillåter inga säsongs- eller veckovariationer i kontaktfrekvenser eller överföringsannolikhet, och inga födslar eller icke-flurelaterade dödsfall ingår i vår modell. Varje dag beräknas sannolikheten för infektion för varje mottaglig individ baserat på sannolikheten för överföring för varje potentiell smittsam kontakt, p i = P trans × c i. Om den infektiösa kontakten får antiviral behandling, multipliceras denna överföringsannolikhet ytterligare med (1 - AVE i ), där AVE i är antiviral effekt för smittsamhet. På samma sätt, om de har vaccinerats, minskar vaccinets effekt på infektionsförmågan VE i överföringssannolikheten med (1-VE i ). Sannolikheten för överföring p i kan minskas ytterligare för asymtomatiska (ännu smittsamma) kontakter, som beskrivs i nästa avsnitt. Sannolikheten för att en mottaglig person blir smittad beräknas sedan som en produkt av alla möjliga smittsamma kontakter varje dag. Figur 3 illustrerar denna beräkning för en mottaglig vuxen (visas i blått) med ett smittsamt barn i hushållet (HH), en smittsam arbetsgrupp (WG) kontakt, och tre andra infektiösa personer i samhället i stort (Comm). Sannolikheten att denna mottagliga vuxen blir smittad är där c och en betecknar barn respektive vuxen. (Det är naturligtvis trivialt att generalisera detta till fallet där de två samhällsbarnen har olika nivåer av infektionsförmåga på grund av terapeutiska läkemedel eller olika svårighetsgrader, t.ex. ett symtomatiskt och det andra subkliniskt.) En Bernoulli-prövning utförs genom att generera ett enhetligt [0,1] slumpmässigt tal; om detta nummer är mindre än P, blir den mottagliga vuxna smittad och går in i infektionens latenta fas. Om så önskas, kan infektionskällan bestämmas genom provtagning från de relativa bidragen från varje smittsam kontakt till P (till exempel, i detta exempel en infektion är mest sannolikt att överföras från hushållets barn, men alla 5 smittsamma kontakter har en ändlig sannolikhet att identifieras som källan). Germann, Kadau, Longini och Macken Supporting Info: Sida 4 av 37 2/26/06 Vi använder samma influensa naturhistoria modell som tidigare (4), som för fullständighet är rekapitulerad i Bild. 3............................................................... De viktigaste punkterna är att latent, inkubation och smittsam period varar i varje prov från diskreta fördelningar, med genomsnittliga perioder på 1,2, 1,9 respektive 4,1 dagar. (Den smittsamma perioden inkluderar både den lilla skillnaden mellan latent och inkubationsperioder, samt den vanliga postinkubationsperioden när symptomen uppträder hos 67% av infekterade personer.) All smittsamhet som inte åtföljs av overt symtom (nämligen den post-latent delen av inkubationsperioden, om någon, och 33% av infekterade personer som aldrig utvecklar symptom) antas vara hälften så stor som infektionen hos symptomatiska individer, vilket minskar överföringsannolikheten p i med en faktor av två. Liksom tidigare (1-5) tillåter vi också personer som blir sjuka att dra sig tillbaka från alla kontaktgrupper utom sitt hushåll, med en åldersberoende abstinenssannolikhet och fördelning av antalet sjukdagar innan utsättande för influensa taget från Elveback et al (1). Den potentiella pandemiska influensastammen antogs ha ett åldersberoende anfallsmönster mellan de historiska 1957–8 "asiatiska" influensa A (H2N2) (6) och 1968–9 "Hong Kong" influensa A (H3N2) (7) pandemiska stammarna (se tabell 4). För passande ändamål beräknades anfallsfrekvensen som ett genomsnitt av sluttillståndet för 500 oberoende samhällen som till en början hade 12 slumpmässigt infekterade personer vardera (Fig. 4)................................................................. Som baslinje togs kontaktfrekvenserna i hushåll, små lekgrupper och stora daghem från (3) där en H2N2-stam modellerades. Men eftersom detta anfallsfrekvensmönster drabbar barn i skolåldern särskilt hårt (se tabell 4 ), måste dessa nivåer minskas med ungefär en faktor på 3 (detta är också tydligt i (4), där ett liknande anfallsfrekvensmönster var lämpligt till en modell specifik för Thailand). Resten av kontaktbidraget delades upp mellan de återstående fyra kontaktgrupperna (arbetsgrupper, hushållskluster, grannskap och gemenskap). Finjustering för att generera de kontaktsannolikheter som visas i tabell 3 gjordes genom att beräkna gradientvektorerna för de olika åldersberoende anfallsfrekvenserna med avseende på kontakthastighetsparametrarna, vilket ger en linjär approximation av anfallsfrekvensens beroende som en funktion av kontaktfrekvensen. Germann, Kadau, Longini och Macken Supporting Info: Sida 5 av 37 2/26/06 Även om monteringen endast gjordes för isolerade samhällen, vi finner att den nationella modellen har en mycket liknande attack hastighet mönster (se tabell 4). Den grundläggande geografiska enheten i vår modell är folkräkningen, som definieras som ett relativt stabilt geografiskt område med mellan 1.500 och 8.000 invånare, med en optimal storlek på 4.000 personer. I 2000, vilket är anledningen till att ett betydande antal människor (1,13 miljoner, eller 0,9% av den totala arbetskraften) rapporterades som arbetar på platser 100 miles eller mer från sin bostad. Vi antar att sådana resor inte sker dagligen, och istället placera dessa enligt åldersgruppsspecifika uppgifter i tabell 5. Den genomsnittliga resan varaktighet enligt dessa uppgifter är 4,3 nätter; vi väljer från en fördelning mellan 0 och 11 nätter enligt uppgifterna i tabell 5. För det nuvarande genomförandet, varje resa destination är ett slumpmässigt område inom en slumpmässig gemenskap (inklusive arbetsgrupp-endast samhällen), vilket resulterar i en enkel "gravitation" modell utan distansinformation. Vi utgår från att den pandemiska influensastammen förs in i Förenta staterna via anländande internationella passagerare. Dessutom utgår vi ifrån att det vid tidpunkten för denna introduktion pågår en världsomfattande pandemi, så att det inte finns något särskilt land eller område som kan isoleras (t.ex. begränsa ankomsten av internationella flygningar från Sydostasien). Följaktligen anser vi att de 14 största internationella flygplatsportarna (14) i kontinentala USA (se tabell 6 ), och introducerar ett litet antal smittade individer varje dag. Vi gör det genom att välja en slumpmässig traktat och gemenskap inom varje län listas i tabell 6, och slumpmässigt infektera mellan 0 och N individer ( valda slumpmässigt från en enhetlig fördelning) i det samhället. Vi tar N i proportion till antalet internationella ankomster till varje flygplats, förutsatt att 1-10 potentiella smittade per 10 000 dagliga passagerare. Detta representerar en grupp individer, såsom en familj eller affärsresenärer, som flyger in i USA från den förmodade pandemin Germann, Kadau, Longini, och Macken Supporting Info: Page 8 av 37 2/26/06 som rasar över hela 180-dagars simuleringen. För de flesta simuleringar antar vi 2 infekterade personer per 10 000 dagliga internationella passagerare, men känsligheten för detta val och andra frågor som rör sådd av infekterade diskuteras nedan. Värdet på R 0 beräknades för olika sannolikheter för överföring med tre olika metoder, vilket ger de resultat som sammanfattas i tabell 7. Den första metoden var att i genomsnitt antalet sekundära infektioner (undvika eventuella tertiära infektioner) i 128.000 isolerade samhällen som var och en hade ett slumpmässigt index fall inom den 2000-personers gemenskapen befolkningen. (Med ett mindre antal insikter, upp till flera tusen, ledde till statistiska fel för stora för att bestämma R 0 inom önskad ±0.1 precision.) Ett exempel på denna beräknade fördelning och det resulterande medelvärdet R 0 visas för P trans = 0,12 i bild. 6 Och dessa resultat är betecknade "random index fall" i tabell 7. Den andra metoden var likartad, förutom att separata R 0 först beräknades för indexfall som tillhör var och en av de 5 åldersgrupperna (se tabell 7 ). Den totala R 0 beräknades sedan som ett genomsnitt av dessa åldersgruppsberoende R 0-värden, viktade med det åldersberoende anfallsfrekvenssmönstret för respektive överföringssannolikhet (kallas "attackfrekvensmönstret viktat indexfall" i tabell 7 ). Genom att göra detta, indexfallet är mer "typisk" av dem som drabbats hårdast av utbrottet, och som förväntat, denna metod ökar något värdet av R 0 (särskilt för låg R 0 ). Den sista metoden är en approximation baserad på lutningen av det kumulativa antalet fall (15) och möjliggör också ett tidsberoende av det reproduktiva antalet, där v är summan av latent och infektiösa perioder, som för vår modell är 1,2 + 4,1 = 5,3 dagar, f är den relativa varaktigheten av latent period (dvs., bild. 7 ) och 7 )............................................................................................................... Även om det finns stora svängningar tidigt på grund av de större statistiska felen (från färre fall), är det tydligt att R är störst i början, och sjunker senare. Detta beror på att skolbarn är särskilt viktiga spridare i de inledande stadierna av ett influensautbrott (se bild). 7 ) På grund av deras starka samverkan mellan hushåll och skolor, vilket sedan naturligt förbättrar R (se tabell Germann, Kadau, Longini och Macken Supporting Info: Sida 9 av 37 2/26/06 7). Efter cirka 30 dagar stabiliseras värdet för R; i tabell 7 rapporterar vi (som "slop av kumulativt antal fall") det genomsnittliga värdet mellan dag 30 och den tidpunkt då R börjar sjunka kraftigt eftersom stora delar av nationen redan är drabbade. Denna approximation är i god överensstämmelse med det värde som erhålls genom den andra metoden, som endast omfattar simuleringar på kort sikt med en enda gemenskap. Vi bör notera att de två tidigare metoderna endast kan ge ett genomsnittligt statiskt värde som estimat, medan den senare metoden kan ge information om tidsutvecklingen av R. Här visar tidiga variationer och förbättring av det reproduktiva antalet tydligt svårigheten att mäta denna mängd från tillgängliga data i en verklig epidemi. Dessutom, detta beteende är ännu mer komplicerat av spatiotemporal spridning av epidemin, vilket orsakar lokala variationer av R i tiden. Det bör inte vara alltför förvånande att det genomsnittliga statiska värdet av R 0 för samhället och nationella modeller är liknande, eftersom även om indexfallet kan interagera med mer än en gemenskap i den senare simuleringen, antalet effektiva interaktioner är samma, och i båda fallen populationerna är helt mottagliga. Vid aktivering av ett TAP-program behandlas symptomatiska individer och deras nära kontakter med antivirala läkemedel, tills ett eventuellt begränsat nationellt lager har uttömts. Vi antar att X% av symptomatiska fall kan identifieras, och att en dag efter sjukdomsdebut, den sjuke behandlas terapeutiskt och profylax erbjuds till sina nära kontakter. Av dessa antar vi att 100% av hushåll, hushållskluster, preshool och lekgruppskontakter identifieras och behandlas, och att Y% av arbetsgruppen och elementära, mellan- och gymnasiekontakter identifieras och behandlas. För detta arbete kommer vi att fokusera på två fall: X = Y = 60 % eller 80 %, och hänvisa till dessa som "60 % TAP" respektive "80 % TAP". Liksom i andra nya modeller av pandemisk influensa (4) använder vi rapporterade uppskattningar av den antivirala effekten för oseltamivir (16) (17) (18) (19) (20). Specifikt antar vi att antiviral effekt för känslighet AVE = 0. kuren blir sjuk, de fullföljer sin nuvarande kur vid den ökade dosen på 2 tabletter/dag. Vi antar att full antiviral effekt uppnås med den första tabletten, och att det inte finns någon kvarstående effekt när kuren är avslutad. Två stora osäkerheter vid modellering av vaccinationsprogram är hur effektivt vaccinet kommer att vara (som även för endemisk influensa, är det typiskt matchas mot en stam som är flera månader till ett år gamla), och hur snabbt det kan produceras, distribueras, och resultera i ett effektivt immunsvar. Hittills är vaccinationens effekt mot en humananpassad fågelstam okänd. Immunogeniciteten hos experimentella vacciner har mätts; det har konstaterats att en fyrfaldig ökning av antigeninnehållet utöver den för vacciner mot humana stammar och två vaccindoser krävs för en ökning av antikroppstiter som vanligtvis förknippas med skydd (21). Vi utgår från att effektivitet och immunogenicitet är linjärt relaterade i våra simuleringar. Den andra komplikationen är relaterad till timing. Tidsfördröjningen mellan vaccination och full effekt beror på det enskilda vaccinet; till exempel kan ett levande försvagat vaccin ge ett antikroppssvar inom 1 dag, medan ett avlivat vaccin kan ta två veckor. Om flera doser krävs kan tidsskalan vara betydligt längre; till exempel innebär två doser av ett avlivat vaccin som administreras med fyra veckors mellanrum att full effekt kanske inte uppnås förrän sex veckor efter den initiala dosen. I stället för att behandla detaljerna för ett visst vaccin (inklusive partiell effekt mellan administrering av den första och den andra dosen) kombinerar vi helt enkelt denna fördröjningstid med den för produktion och distribution, och hänvisar endast till det datum då vaccinationen blir effektiv, vilket kan vara antingen före eller efter utbrottet. ** Vi överväger två alternativa distributionsstrategier, antingen slumpmässigt i hela den berättigade populationen, eller företrädesvis till barn (med eventuellt kvarvarande vaccin som sedan distribueras bland vuxna). I båda fallen består den berättigade populationen av alla individer som inte har vaccinerats och som för närvarande inte är symptomatiska. För ** Detta leder till en mindre inkonsekvens, eftersom den berättigade populationen bestäms vid den tidpunkt då full effekt uppnås och inte vid det tidigare vaccinationsdatumet. Denna studie handlar dock om strategier för att minimera antalet smittade individer, i vilket fall antalet nya symptomatiska fall (som inte blir berättigade till vaccination) mellan dessa två datum är försumbart. Germann, Kadau, Longini och Macken Supporting Info: Sida 11 av 37 2/26/06 enkelhet, vi bara överväga två alternativa produktionsscenarier, antingen förutsatt tidig distribution av ett lågeffektivt (t.ex. ett dåligt matchat) vaccin eller försenad produktion av ett vaccin med högre effekt. Det välmatchade vaccinet antas kräva två doser och ha en vaccineffekt för känslighet VE s = 0,70 (med en reducerad VE s = 0,50 för äldre, 65+) och en vaccineffekt för infektionsförmåga VE i = 0,80. Det dåligt matchade vaccinet har endast VE s = 0,30 (för alla åldersgrupper) och VE i = 0,50, och antas kräva endast en engångsdos (vilket inte skulle vara fallet för ett aviärt H5N1-baserat vaccin, till exempel (21)). Det antas att tidig produktion av det dåligt matchade vaccinet möjliggör ett vaccinationsprogram före utbrottet, vilket resulterar i en tidigare täckning av en del av populationen (igen, antingen enhetligt eller företrädesvis för barn). För antingen vaccin antar vi en konstant produktions- och distributionshastighet på 4, 10 eller 20 miljoner doser per vecka i hela landet, antingen med början så snart som två månader före den första introduktionen, så sent som två månader efter den första introduktionen. Den totala produktionen antas också vara begränsad till 50, 100, 250 eller 400 miljoner doser. När man erkänner en pandemisk stam i USA, är en av de sannolika begränsningsstrategierna stängning av skolor (22). Vi antar att detta innebär en total landsomfattande stängning av alla skolrelaterade blandningsgrupper i vår modell, och att denna stängning fortsätter att gälla under pandemins varaktighet. De berörda blandningsgrupperna är de vanliga lekgrupperna i förskoleåldern, förskolorna och grundskolorna, mellan- och gymnasieskolorna. Alla andra kontaktfrekvenser förblir oförändrade. Som ett resultat av antingen ett formellt karantänprogram, eller frivilliga förändringar i socialt och hygieniskt beteende i händelse av en utbredd pandemi, är det troligt att normalt kontaktbeteende kommer att påverkas i kristider. Även om denna förändring är svår att förutsäga i förväg, kommer den nästan säkert att innebära en ökad tendens att stanna hemma snarare än på stora offentliga platser. För att approximera denna beteendeförändring antar vi att kontaktfrekvensen sänks till hälften för samhället, grannskapet, arbetsgruppen, skolan, förskolan och lekgruppen mixing grupper; hushållens kontaktfrekvens fördubblas; och hushållens klusterkontaktfrekvens förblir oförändrad. Som med de andra begränsning Germann, Kadau, Longini, och Macken Supporting Info: Sida 12 av 37 2/26/06 strategier, antas det att denna förändring i normalt beteende sker rikstäckande, och varar under resten av epidemin. Vi överväger minskningar av båda våra resekomponenter: den dagliga arbetsplatsen resor och oregelbundna långdistansresor. Den första kan begränsas genom frivilliga ökningar av telematik, eller i extrema fall genom en nationell arbetsstopp (med undantag för hälso- och sjukvård och akutpersonal, som beskrivs nedan). Minskningar av långväga resor kan också variera från en del av den naturliga sociala distanserande tendensen, till en påtvingad karantän eller reserestriktioner program. Vi antar att långdistansresor kan reduceras till så lite som 1% av det normala antalet resor. I detta avsnitt undersöker vi känsligheten för olika delar av modellen, inklusive hur epidemin införs, förseningar i genomförandet av interventionsstrategier och den förmodade effektiviteten (eller allmänhetens efterlevnad) vid varje ingripande. Även om var och en av dessa variationer naturligt leder till kvantitativa förändringar i de exakta kvantitativa resultaten, är de grundläggande slutsatserna i huvudtexten alla relativt okänsliga för någon av de variationer som vi har undersökt. Eftersom modellen till sin natur är stokastisk (inklusive den mock populationsgenerationen, införandet av nya infekterade, den dagliga sjukdomsöverföringen, och interventionsstrategin komponenter), i teorin måste vi köra flera insikter för varje scenario, var och en med en annan initial slumpmässig frö. (För parallella körningar använder varje processor olika frön för att undvika exakt identiska samhällen var som helst i simuleringen.) Vi har dock observerat att mellan den stora graden av rumslig i genomsnitt över de 180 000 samhällen som utgör den nationella modellen, och det dagliga införandet av nya smittade som kräver en kraftfull interventionsstrategi, så finns det nästan ingen variation i vare sig den landsomfattande epidemikurvan eller den slutliga attackfrekvensen, utan endast subtila skillnader i den specifika tidpunkten och de geografiska detaljerna för epidemins spridning. Till exempel jämförde vi åtta olika baslinje (ingen intervention) realisationer för R 0 = 1,6, som endast skiljer sig från de initiala slumptalsgeneratorfröna. Alla åtta simuleringar ger Germann, Kadau, Longini och Macken Supporting Info: Sidan 13 av 37 2/26/06 nästan identiska slutliga anfallsfrekvenser (fyra simuleringar ger 32,62%, tre ger 32,63%, och en 32,64%), med epidemin toppar mellan 115 och 120 dagar efter den första amerikanska introduktionen i alla insikter. (2) Utsäde av epidemin För att undersöka känsligheten mot olika introduktioner av infekterade individer (storlek och rumslig fördelning av dessa individer, liksom dynamisk vs. statisk sådd), olika mängd resor, samt olika slumpmässiga frön (dvs.. stokastiskt beteende), en serie körningar utan intervention presenteras för R 0 = 1,9 (liknande resultat erhölls för andra val av R 0 ). Figur 8 visar känsligheten för den dynamiska såddhastigheten, från 1 till 4 smittade per 10 000 internationella passagerare varje dag vid de viktigaste 14 amerikanska internationella flygnaverna, samt en statisk sådd av 8 smittade per 10 000 internationella passagerare endast i början av simuleringen (motsvarande 76 smittade personer som infördes dag 0). Man kan tydligt se att utsädets storlek och effekten av statisk vs dynamisk sådd endast ändrar epidemikurvorna, utan att påverka formen eller den totala anfallsfrekvensen (43,53 % i samtliga fall).
Tyskan et al. REF undersökte spridningen av en pandemisk stam av influensaviruset genom den amerikanska populationen.
7,177,829
Mitigation strategies for pandemic influenza in the United
{'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Biology', 'Medicine']}
81,933
Abstrakt. I detta dokument presenterar vi ett B2B-integrationsscenario som bygger på principerna för semantiska webbtjänster. För detta scenario visar vi fördelarna med semantiska beskrivningar som används i integrationsprocessen för att möjliggöra samtal mellan system med data och processförmedling av tjänster. Vi illustrerar vår strategi på WSMX -en middleware plattform byggd speciellt för att anta semantiska serviceorienterade arkitekturer.
Den stöder kommunikation mellan partner, data och processmedling med hjälp av WSMX integration middleware REF.
56,557,942
WSMX: A Semantic Service Oriented Middleware for B2B Integration
{'venue': 'ICSOC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,934
o ge den semantiska webben liv och tillhandahålla avancerade kunskapstjänster, vi behöver effektiva sätt att få tillgång till och extrahera kunskap från webbdokument. Även om websida annoteringar kan underlätta sådan kunskapsinsamling, annoteringar är sällsynta och kommer förmodligen aldrig att vara rik eller tillräckligt detaljerad för att täcka all kunskap dessa dokument innehåller. Manuell annotering är opraktisk och oskalbar, och automatiska annoteringsverktyg är fortfarande till stor del outvecklade. Specialiserade kunskapstjänster kräver därför verktyg som kan söka och extrahera specifik kunskap direkt från ostrukturerad text på webben, guidad av en ontologi som beskriver vilken typ av kunskap som ska skördas. En ontologi använder begrepp och relationer för att klassificera domänkunskap. Andra forskare har använt ontologier för att stödja kunskapsutvinning, 1,2 men få har utforskat sin fulla potential inom detta område. Artequakt-projektet kopplar ihop ett kunskapsextraktionsverktyg med en ontologi för att uppnå kontinuerligt kunskapsstöd och leda informationsextrahering. Extraktionsverktyget söker efter dokument på nätet och extraherar kunskap som matchar den givna klassificeringsstrukturen. Den ger denna kunskap i ett maskinläsbart format som automatiskt kommer att underhållas i en kunskapsbas (KB). Knowledge extrahering förbättras ytterligare med hjälp av en lexikonbaserad termexpansionsmekanism som ger utökad ontologiterminologi. Många information utdrag (IE) system kan känna igen enheter i dokument-till exempel, att "Rembrandt" är en person eller "15 Juli 1606" är ett datum. Sådan information är dock inte särskilt användbar utan förhållandet mellan dessa enheter-det vill säga, Rembrandt föddes den 15 juli 1606. Genom att ta fram sådana relationer kan vi automatiskt skaffa oss mer fullständig kunskap för att befolka ontologin. Artequakt försöker identifiera entitetsrelationer med hjälp av ontologirelationsdeklarationer och lexikal information. Att lagra information i en strukturerad KB stöder olika kunskapstjänster, till exempel att rekonstruera det ursprungliga källmaterialet för att producera en dynamisk presentation anpassad till användarens behov. Tidigare arbete inom detta område har belyst svårigheterna med att upprätthålla en retorisk struktur över en dynamiskt sammansatt sekvens. 3 De flesta dynamiska berättande tekniker har använt robust historia schema såsom den typiska nyhetsprogramformat (en sekvens av atombulletiner). 4 Genom att bygga ett story-schemalager över en ontologi kan vi skapa dynamiska berättelser inom specifika domäner. Genom att populera ontologin genom automatisk-kunskap-förvärv programvara, låter vi användare konstruera dessa berättelser från webbens enorma mängd information. Artequakt kombinerar expertis och erfarenhet från tre olika projekt: • Artiste: Ett europeiskt projekt för att utveckla en distribuerad databas över konstbilder. Detta har nyligen efterträtts av Sculpteur, som kommer att utöka databasen till 3D-objekt och integrera med den semantiska webben. •..............................................................
Alternativt kan automatisk informationsutdragning också drivas av en ontologi (jfr. Om det inte finns några uppgifter som tyder på att det finns en risk för att det finns en risk för att det uppstår en allvarlig risk för en allvarlig störning, ska den behöriga myndigheten i den medlemsstat där den behöriga myndigheten har sitt säte underrätta den behöriga myndigheten i den medlemsstat där den behöriga myndigheten har sitt säte om detta.
967,604
Automatic Ontology-Based Knowledge Extraction from Web Documents
{'venue': 'IEEE Intelligent Systems', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,935
En heterogen datormiljö är en serie heterogena processorer som är sammankopplade med höghastighetsnät, vilket ger löfte om snabb bearbetning av beräkningsintensiva tillämpningar med olika datorbehov. Schemaläggning av en applikation modellerad av Directed Acyklic Graph (DAG) är en nyckelfråga när man siktar på hög prestanda i denna typ av miljö. Problemet tas i allmänhet upp i termer av uppgift schemaläggning, där uppgifter är de schemaläggs enheter i ett program. Problemen med schemaläggningen har visat sig vara NP-kompletterade i allmänhet samt flera begränsade fall. I denna studie presenterar vi en enkel schemaläggningsalgoritm baserad på lista schemaläggning, nämligen, låg komplexitet Prestanda Effektiv Task Scheduling (PETS) algoritm för heterogena datorsystem med komplexitet O (e) (p+ log v), som ger effektiva resultat för applikationer som representeras av DAGs. Analysen och experimenten baserade på både slumpmässigt genererade grafer och grafer av några verkliga applikationer visar att PETS algoritmen väsentligt överträffar de befintliga schemaläggningsalgoritmer som heterogeneous Earliest Finish Time (HEFT), Critical-Path-On a Processor (CPOP) och Levelized Min Time (LMT), i termer av schema längd ratio, speed up, effektivitet, körtid och frekvens av bästa resultat. Nyckelord: DAG, uppgiftsgraf, schemaläggning av uppgifter, heterogena datorsystem, schemalängd, hastighetsförbättring, effektivitet En växande betoning på samtidig bearbetning av jobb har lett till en ökad acceptans av heterogena datormiljöer och tillgängligheten av ett nätverk av processorer gör ett kostnadseffektivt utnyttjande av underliggande parallellism för tillämpningar som vädermodellering, bildbehandling, realtid och distribuerade databassystem. En välkänd strategi bakom ett effektivt genomförande av en enorm applikation på en heterogen datormiljö är att dela upp den i flera oberoende uppgifter och schemalägga sådana uppgifter över en uppsättning tillgängliga processorer. En uppgiftsdelningsalgoritm tar hand om att effektivt dela upp en applikation i uppgifter av lämplig kornstorlek och en abstrakt modell av en sådan partitionerad applikation kan representeras av en riktad Acyklisk Graph (DAG). Varje uppgift hos en DAG motsvarar en sekvens av operationer och en riktad kant representerar företrädesbegränsningarna mellan uppgifterna. Varje uppgift kan utföras på en processor och den riktade kanten visar överföring av relevanta data från en processor till en annan. Schemaläggning av uppgifter kan utföras vid kompileringstid eller vid körtid. När egenskaperna hos en ansökan, som omfattar utförandetider för uppgifter på olika processorer, datastorleken på kommunikationen mellan uppgifter och beroenden uppgift, är kända a priori, representeras den med en statisk modell. Syftet med uppgiften schemaläggning är att kartlägga uppgifterna på processorer och beställa deras utförande så att kraven uppgift företräde är uppfyllda och en minsta övergripande slutförande tid erhålls. Problemet med schemaläggning av uppgifter med erforderligt företrädesförhållande, i det mest allmänna fallet, har visat sig vara NP-fullständigt [1, 2] för vilket optimala lösningar kan hittas först efter en uttömmande sökning. Effektiv programplanering är avgörande för att uppnå hög prestanda i heterogena datorsystem. På grund av dess avgörande betydelse för prestationen har problemet med schemaläggningen i allmänhet studerats ingående och olika heuristiker har föreslagits i litteraturen [3] [4] [5] [6] [7] [8] [9] [10] [11] [12] [14] [15] [16] [17]. Dessa heuristik klassificeras i en mängd olika kategorier såsom lista schemaläggning algoritmer, kluster algoritmer, guidade slumpmässiga sökmetoder och uppgift dubblering baserade algoritmer. I listan schemaläggningsalgoritmer [4] [5] [6], en beställd lista över uppgifter konstrueras genom att tilldela prioritet till varje uppgift och uppgifterna väljs för utförande baserat på deras prioritet. Lista schemaläggning algoritmer är i allmänhet att föredra eftersom de genererar god kvalitet scheman med mindre komplexitet. Lista schemaläggning algoritmer såsom Mapping Heuristic (MH) [4], Levelized Min
HEFT (Heterogenous Earliest Finish Time) algoritm REF är en tvåstegsmetod.
16,336,784
Low Complexity Performance Effective Task Scheduling Algorithm for Heterogeneous Computing Environments
{'venue': None, 'journal': 'Journal of Computer Science', 'mag_field_of_study': ['Computer Science']}
81,936
Abstract-I detta papper, vi tar itu med problemet med att hämta objekt baserat på öppen-vokabulary naturliga språkfrågor: Med tanke på en fras som beskriver ett specifikt objekt, t.ex. "majsflingor rutan", uppgiften är att hitta den bästa matchningen i en uppsättning bilder som innehåller kandidat objekt. Vid namngivning av objekt tenderar människor att använda naturligt språk med rika semantik, inklusive grundnivåkategorier, finkorniga kategorier och exempelnivåbegrepp som märkesnamn. Befintliga metoder för storskaligt objektigenkänning misslyckas i detta scenario, eftersom de förväntar sig frågor som kartlägger direkt till en fast uppsättning förtränade visuella kategorier, t.ex. Synuppsättningstaggar för ImageNet. Vi tar itu med denna begränsning genom att införa en ny metod för att hämta objekt. Med tanke på en kandidat objektbild, kartlägger vi först det till en uppsättning ord som sannolikt kommer att beskriva det, med hjälp av flera lärda bild-till-text projektioner. Vi föreslår också en metod för hantering av öppna vokabulärer, dvs. ord som inte ingår i träningsdata. Vi jämför sedan den naturliga språkfrågan med de uppsättningar av ord som förutspås för varje kandidat och väljer den bästa matchningen. Vår metod kan kombinera semantik på kategori- och instansnivå i en gemensam representation. Vi presenterar omfattande experimentella resultat på flera dataset med både instans-nivå och kategori-nivå matchning och visar att vårt tillvägagångssätt kan exakt hämta objekt baserat på extremt varierande öppna-vokabulära frågor. Källkoden för vårt tillvägagångssätt kommer att vara allmänt tillgänglig tillsammans med förutbildade modeller på http://openvoc.berkeleyvision.org och kan användas direkt för robottillämpningar.
Med tanke på en uppsättning kandidat objekt regioner, Guadarrama et al. REF genererade text från de kandidater som representerades som säck-of-words och jämförde ordpåsar med frågetexten.
15,077,345
Open-vocabulary Object Retrieval
{'venue': 'Robotics: Science and Systems', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,937
Abstract-Support vektor maskiner (SVMs) ursprungligen utformats för binär klassificering. Hur man effektivt utökar den för klassificering i flera klasser är fortfarande en pågående forskningsfråga. Flera metoder har föreslagits där vi vanligtvis konstruerar en flerklassig klassificerare genom att kombinera flera binära klassificerare. Vissa författare föreslog också metoder som tar hänsyn till alla klasser samtidigt. Eftersom det är dyrare att beräkna för att lösa problem i flera klasser har man inte gjort några seriösa jämförelser av dessa metoder med hjälp av storskaliga problem. Speciellt för metoder som löser flera klasser SVM i ett steg, ett mycket större optimeringsproblem krävs så hittills experiment är begränsade till små datamängder. I detta dokument ger vi sönderfallsimplementationer för två sådana "sammanhängande" metoder. Vi jämför sedan deras prestanda med tre metoder baserade på binära klassificeringar: "one-mot-all", "one-mot-one", och riktade acyklisk graf SVM (DAGSVM). Våra experiment visar att metoderna "en mot en" och DAG är mer lämpliga för praktisk användning än de andra metoderna. Resultaten visar också att för stora problem metoder genom att beakta alla data på en gång i allmänhet behöver färre stöd vektorer.
Dessa multi-klass SVM-metoder har jämförts i REF, och det visas att en-mot-en metod är mer lämplig praktiskt sett i fråga om hastighet och noggrannhet.
15,874,442
A Comparison of Methods for Multiclass Support Vector Machines
{'venue': 'IEEE TRANS. NEURAL NETWORKS', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine']}
81,938
Bred täckning av semantiska relationer mellan verb skulle kunna vara till nytta för många NLP-uppgifter. Vi presenterar en halvautomatisk metod för att extrahera finkorniga semantiska relationer mellan verb. Vi upptäcker likhet, styrka, antonymy, enablement, och temporal händer-före relationer mellan par av starkt associerade verb med hjälp av lexicosyntactic mönster över webben. På en uppsättning av 29.165 starkt associerade verbpar, gav vår extraktionsalgoritm 65.5% noggrannhet. Analys av feltyper visar att på relationsstyrkan uppnådde vi 75% noggrannhet. Vi tillhandahåller resursen, som kallas VERBOCEAN, för nedladdning på
VerbOcean REF ) är en resurs av starkt associerade verb par och deras semantiska förhållande.
13,507,979
VerbOcean: Mining The Web For Fine-Grained Semantic Verb Relations
{'venue': 'SIGDAT Conference On Empirical Methods In Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,939
Social reklam använder information om konsumenters jämlikar, inklusive inbördes anknytningar med ett varumärke, produkt, organisation, etc., för att rikta annonser och kontextualisera deras visning. Detta tillvägagångssätt kan öka ad effektivitet av två huvudsakliga skäl: kamraters tillhörighet återspeglar oobserverade konsumentegenskaper, som är korrelerade längs det sociala nätverket, och införandet av sociala ledtrådar (dvs. kamraters association med ett varumärke) tillsammans med annonser påverkar svar via sociala påverkansprocesser. Av dessa skäl, svar kan ökas när flera sociala signaler presenteras med annonser, och när annonser är anslutna till kamrater som är starka, snarare än svaga, band. Vi utför två mycket stora fältexperiment som identifierar effekten av sociala signaler på konsumenternas svar på annonser, mätt i form av annonsklick och bildandet av kontakter med den annonserade enheten. I det första experimentet randomiserar vi antalet sociala signaler som förekommer i ord-of-mouth reklam, och mäter hur svaren ökar som en funktion av antalet signaler. I det andra experimentet undersöks effekten av att utöka traditionella annonsenheter med en minimal social signal (dvs. att visa en peer's tillhörighet under en annons i ljusgrå text). I genomsnitt orsakar denna signal betydande ökningar i annonsprestanda. Med hjälp av ett mått på slipsstyrka baserat på den totala mängden kommunikation mellan ämnen och deras kamrater, visar vi att dessa påverkanseffekter är störst för starka band. Vårt arbete har implikationer för annonsoptimering, användargränssnittsdesign och centrala frågor inom samhällsvetenskaplig forskning.
Till exempel Bakshy et al. REF genomförde randomiserade kontrollerade försök för att identifiera effekten av socialt inflytande på konsumenternas svar på reklam.
8,200,262
Social influence in social advertising: evidence from field experiments
{'venue': "EC '12", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics', 'Mathematics']}
81,940
....................................... Översikt över ett klusterdiagram från SOMFlow som skapades under vår expertstudie för att analysera talintonation: Först identifieras en könseffekt (A) och tas bort med hjälp av en domänspecifik semitonnormalisering (B). Analytikern skapade mer detaljerade SOM för artificiella celler och lade till manuella annoteringar (C) för att filtrera buller som orsakas av mätfel. Den resulterande SOM avslöjar en relation till planen meta-attribute (D) och ytterligare datapartitioner gör det möjligt för analytikern att jämföra tonhöjd konturer av olika högtalargrupper. Abstract-Clustering är en central byggsten för dataanalys, som syftar till att extrahera annars dolda strukturer och relationer från råa dataset, såsom särskilda grupper som effektivt kan relateras, jämföras och tolkas. En uppsjö av visuella-interaktiva klusteranalystekniker har hittills föreslagits, men att komma fram till användbara kluster kräver ofta flera omgångar av användarinteraktioner för att finjustera data förbehandling och algoritmer. Vi presenterar en flerstegs Visual Analytics (VA) metod för iterativ klusterförfining tillsammans med en implementation (SMFlow) som använder Självorganiserande kartor (som) för att analysera tidsseriedata. Den stödjer prospektering genom att erbjuda analytikern en visuell plattform för att analysera mellanliggande resultat, anpassa de underliggande beräkningarna, iterativt partitionera data, och för att återspegla tidigare analytiska aktiviteter. Historien om tidigare beslut är explicit visualiseras i ett flöde diagram, vilket gör det möjligt att jämföra tidigare klusterförfiningar och utforska relationer. Vi utnyttjar ytterligare kvalitets- och intressanta åtgärder för att vägleda analytikern i upptäckten av användbara mönster, relationer och datapartitioner. Vi genomförde två paranalysexperiment tillsammans med en ämnesexpert inom talintonationsforskning för att visa att tillvägagångssättet är effektivt för interaktiv dataanalys, vilket stöder ökad förståelse av klusterresultat samt den interaktiva processen i sig.
SOMFlow REF kan iterativt facettera och förfina kluster, med historien om tidigare beslut visualiserade i ett flöde diagram.
3,056,598
SOMFlow: Guided Exploratory Cluster Analysis with Self-Organizing Maps and Analytic Provenance
{'venue': 'IEEE Transactions on Visualization and Computer Graphics', 'journal': 'IEEE Transactions on Visualization and Computer Graphics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
81,941
Abstract-Fine-grained objektklassificering är en utmanande uppgift på grund av den subtila inter-class skillnad och stora intra-class variation. Nyligen, visuell uppmärksamhet modeller har tillämpats för att automatiskt lokalisera de diskriminerande regioner av en bild för att bättre fånga kritisk skillnad och visade lovande prestanda. Men utan hänsyn till mångfalden i uppmärksamhetsprocessen fungerar de flesta befintliga uppmärksamhetsmodeller dåligt när det gäller att klassificera finkorniga föremål. I detta dokument föreslår vi ett diversifierat visuellt uppmärksamhetsnätverk (DVAN) för att ta itu med problemen med finkornig objektklassificering, vilket avsevärt minskar beroendet av starkt övervakad information för att lära sig lokalisera diskriminerande regioner jämfört med uppmärksamhetslösa modeller. Ännu viktigare är att DVAN uttryckligen eftersträvar mångfalden av uppmärksamhet och kan samla in diskriminativ information i största möjliga utsträckning. Flera uppmärksamhet dukar genereras för att extrahera konvolutionella funktioner för uppmärksamhet. En LSTM återkommande enhet används för att lära sig uppmärksamhetsdukars uppmärksamhet och diskriminering. Den föreslagna DVAN har förmågan att delta i objektet från grov till fin granularitet, och en dynamisk intern representation för klassificering byggs upp genom att gradvis kombinera informationen från olika platser och skalor av bilden. Omfattande experiment utförda på CUB-2011, Stanford Dogs och Stanford Cars datauppsättningar har visat att de föreslagna diversifierade visuella uppmärksamhetsnätverken uppnår konkurrenskraftig prestanda jämfört med de senaste metoderna, utan att använda några tidigare kunskaper, användarinteraktioner eller externa resurser i utbildning eller testning.
Zhao m.fl. REF har föreslagit ett diversifierat visuellt uppmärksamhetsnätverk (DVAN), som använder flera uppmärksamhetsdukar för att extrahera konvolutionella funktioner för uppmärksamhet.
1,822,018
Diversified Visual Attention Networks for Fine-Grained Object Classification
{'venue': 'Published in: IEEE Transactions on Multimedia ( Volume: 19, Issue: 6, June 2017 )', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,942
Vi föreslår ett nytt ramverk för att uppskatta generativa modeller via en kontradiktorisk process, där vi samtidigt utbildar två modeller: en generativ modell G som fångar datadistributionen, och en discriminativ modell D som uppskattar sannolikheten för att ett prov kommer från träningsdata snarare än G. Utbildningsförfarandet för G är att maximera sannolikheten för att D gör ett misstag. Detta ramverk motsvarar ett minimax 2-spelarspel. I utrymmet för godtyckliga funktioner G och D finns en unik lösning, där G återvinner träningsdatadistributionen och D är lika med 1 2 överallt. I det fall där G och D definieras av flerskiktsperceptroner kan hela systemet tränas med backpropagation. Det finns inget behov av någon Markov kedjor eller ovalsade approximativa inference nätverk under vare sig utbildning eller generering av prover. Experiment visar ramens potential genom kvalitativ och kvantitativ utvärdering av de producerade proven.
Goodfellow m.fl. Föreslå Generative Adversarial Networks (GAN) REF att utbilda en generativ modell med en diskriminerande modell i ett kontradiktoriskt paradigm.
1,033,682
Generative Adversarial Nets
{'venue': 'NIPS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,943
Förekomsten av undandragande attacker under testfasen av maskininlärning algoritmer utgör en betydande utmaning för både deras installation och förståelse. Dessa attacker kan utföras genom att lägga omärkliga perturbationer till ingångar för att generera kontradiktoriska exempel och hitta effektiva försvar och detektorer har visat sig vara svårt. I detta dokument går vi bort från angreppsförsvarets kapprustning och försöker förstå gränserna för vad som kan läras i närvaro av en undanflyktsmotståndare. I synnerhet utökar vi ramen Sannolikt Ungefärlig Korrekt (PAC)-lärande för att redogöra för närvaron av en motståndare. Vi definierar först korrumperade hypotesklasser som uppstår från standard binära hypotesklasser i närvaro av en undvikande motståndare och härleda Vapnik-Chervonenkis (VC)-dimensionen för dessa, betecknad som den kontradiktoriska VCdimensionen. Vi visar sedan att prov komplexitet övre gränser från den grundläggande teorem av statistisk inlärning kan utvidgas till fallet med undvikande motståndare, där provet komplexitet kontrolleras av den kontradiktoriska VCdimension. Vi härleder sedan uttryckligen den kontradiktoriska VC-dimensionen för halvrymdsklassificeringar i närvaro av en provvis normkonstruerad motståndare av den typ som vanligen studeras för undanflyktsattacker och visar att den är densamma som standard VC-dimensionen och avslutar en öppen fråga. Slutligen bevisar vi att den kontradiktoriska VC-dimensionen kan vara antingen större eller mindre än standard VC-dimensionen beroende på hypotesklassen och motståndaren, vilket gör den till ett intressant studieobjekt i sig.
I ett senare arbete REF, Cullina et al. studera PAC-lärande garantier för binära linjära klassificeringar i den kontradiktoriska inställningen via VCdimension, och visa att VC-dimensionen inte ökar i närvaro av kontradiktoriska attacker.
46,938,109
PAC-learning in the presence of evasion adversaries
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,944
Vi presenterar en effektiv och skalbar teknik för spatiotemporal segmentering av långa videosekvenser med hjälp av en hierarkisk grafbaserad algoritm. Vi börjar med att oversegmentera en volymetrisk videograf i rum-tid regioner grupperade efter utseende. Vi konstruerar sedan en "regiongraf" över den erhållna segmenteringen och upprepar iterativt denna process över flera nivåer för att skapa ett träd av spatio-temporala segmenteringar. Detta hierarkiska tillvägagångssätt genererar hög kvalitet segmenteringar, som tidsmässigt överensstämmer med stabila regiongränser, och gör det möjligt för efterföljande tillämpningar att välja mellan olika nivåer av granularitet. Vi förbättrar segmenteringskvaliteten ytterligare genom att använda tät optiskt flöde för att styra tidsanslutningar i den ursprungliga grafen. Vi föreslår också två nya metoder för att förbättra skalbarheten av vår teknik: a) en parallell utanför kärnalgoritm som kan bearbeta volymer som är mycket större än en in-core algoritm, och b) en clip-baserad processalgoritm som delar upp videon i överlappande klipp i tiden, och segmenterar dem successivt samtidigt som konsekvensen upprätthålls. Vi demonstrerar hierarkiska segmenteringar på videobilder så länge som 40 sekunder, och stöder även ett strömmande läge för godtyckligt långa videor, om än utan förmågan att bearbeta dem hierarkiskt.
Grundmann m.fl. REF presenterar en effektiv och skalbar strategi för spatiotemporell segmentering av långa videosekvenser med hjälp av en hierarkisk grafbaserad algoritm, som kombinerar en volymetrisk översegmentering med en hierarkisk omsegmentering.
9,363,299
Efficient hierarchical graph-based video segmentation
{'venue': '2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition', 'journal': '2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
81,945
Vi undersöker i vilken utsträckning sociala band mellan människor kan härledas från samtidig förekomst i tid och rum: Med tanke på att två personer har varit på ungefär samma geografiska plats ungefär samtidigt, vid flera tillfällen, hur troligt är det att de känner varandra? Dessutom, hur beror denna sannolikhet på den rumsliga och tidsmässiga närheten av samtidiga händelser? Sådana problem uppstår i data med ursprung i både online- och offlinedomäner samt inställningar som fångar gränssnitt mellan online- och offlinebeteende. Här utvecklar vi en ram för kvantifiering av svaren på sådana frågor, och vi tillämpar denna ram på offentligt tillgängliga data från en webbplats för sociala medier, där vi konstaterar att även ett mycket litet antal samtidiga händelser kan resultera i en hög empirisk sannolikhet för ett socialt samband. Vi presenterar sedan probabilistiska modeller som visar hur så stora sannolikheter kan uppstå från en naturlig modell av närhet och sam-förekomst i närvaro av sociala band. Förutom att tillhandahålla en metod för att fastställa några av de första kvantifierbara uppskattningarna av dessa åtgärder, har våra resultat potentiella konsekvenser för privatlivet, särskilt för hur sociala strukturer kan härledas från offentliga online-register som fångar individers fysiska platser över tiden. data science på grund av integritet, probabilistiska modeller, sociala nätverk E redan idag, gör vi slutsatser om den sociala världen från ofullständiga observationer av händelser runt omkring oss. En särskild kategori av sådana slutsatser bygger på samtidiga uppskattningar i rymden och tidsbaserade uppskattningar av ett socialt band mellan två personer på det faktum att de befann sig på samma geografiska plats ungefär samtidigt. Förutom dess intuitiva tillgänglighet har sådana resonemang använts i psykologiska studier av stadslivet (1) och juridiska analyser av farorna med "skuld efter association" (2, 3). Dessa frågor uppstår också naturligt i online-domäner, inklusive de som återspeglar spatio-temporala spår av sina användares aktiviteter i den fysiska världen. Trots den breda relevansen hos de underliggande frågorna har det dock i grund och botten inte funnits någon exakt grund för att kvantifiera betydelsen av dessa effekter. Här studerar vi denna fråga i en online-miljö och finner att geografiska sammanfall i själva verket kan ha betydande makt att bilda slutsatser om sociala band: Kunskapen om att två personer var proximata på bara några olika platser vid ungefär samma tidpunkter kan tyda på en hög villkorlig sannolikhet att de är direkt kopplade i det underliggande sociala nätverket, i de data vi anser. Våra resultat använder offentligt tillgänglig rumslig och tidsbunden information från en stor webbplats för sociala medier för att härleda uppskattningar av länkar i webbplatsens sociala nätverk online. Vi utvecklar också en probabilistisk modell för att redogöra för de höga sannolikheter som observeras. Förutom att tillhandahålla en kvantitativ grund för dessa slutsatser får våra resultat konsekvenser för det oavsiktliga läckaget av privat information genom deltagande på sådana platser. Vår analys använder data där individer ägnar sig åt aktiviteter på kända platser och tider. Det finns många potentiella källor till sådana uppgifter, inklusive transaktionsregister från mobiltelefoner, offentliga transiteringssystem och kreditkortsleverantörer. Vi använder en källa där liknande aktiviteter registreras offentligt och online: en storskalig datauppsättning från den populära fotodelningssajten Flickr. De flesta foton som laddas upp till Flickr inkluderar den tid då bilden togs, som rapporterats av en klocka i den digitala kameran, och många bilder är också geo-taggade med en latitud-longitud koordinat som visar var på jorden fotografiet togs. Dessa geotaggar anges antingen av fotografen genom att klicka på en karta på Flickr webbplats, eller (i ökande utsträckning) produceras av en global positioneringssystem (GPS) mottagare i kameran eller mobiltelefon. Flickr innehåller också ett offentligt socialt nätverk där användarna specificerar sociala band till andra användare. Spatio-Temporal Co-occurences and Social Ties Vi definierar en spatiotemporal co-occurence mellan två Flickr användare som en instans där de båda tog bilder på ungefär samma plats och ungefär samtidigt. I synnerhet delar vi upp jordens yta i rutnätsliknande celler, vars sidolängder spänner över grader av latitud och longitud. Vi säger att två personer A och B co-occurred i en given s × s cell C, på temporal avstånd t, om både A och B tog bilder geo-taggade med en plats i cell C inom t dagar av varandra. Sedan, för ett givet par människor, räknar vi antalet distinkta celler i vilka de hade en samtidig förekomst på temporal avstånd t. Till exempel, i Bild. 1, A och B har tre samtidiga förekomster på ett temporalt intervall av 2, och fyra samtidiga förekomster på ett temporalt intervall av 7. Vår centrala fråga är följande: Hur stor är sannolikheten för att två personer har en social slips, med tanke på att de har samtidiga förekomster i k distinkta celler vid ett temporalt intervall av t? Detta är en fråga som är relevant i alla sammanhang där samförekomster kan tyda på sociala band, och vi betonar att vår metod för att utforska det är en allmän; eftersom Flickr i synnerhet ger spatio-temporal information och även en uttrycklig lista över sociala band bland sina användare, är det en naturlig domän där man kan beräkna konkreta numeriska svar på frågan. Svaren beror på tre parametrar: antalet samtidiga händelser k (med angivande av mängden bevis för en social slips) tillsammans med cellstorleken s och tidsintervallet t (med angivande av bevisets precision). Vi beräknar sannolikheten som en funktion av dessa parametrar genom att först bygga det sociala nätverket av Flickr med hjälp av alla vänskapslänkar som deklarerats fram till april 2008 och sedan identifiera spatio-temporala samtidiga händelser som inträffade efter april 2008. På så sätt, och i överensstämmelse med vår ursprungliga motivation, identifierar vi bara sociala band som existerade innan bevisen ansamlades via samtidiga händelser (detta förklaras mer i detalj i diskussionen). Med hjälp av en datauppsättning på 38 miljoner geo-taggade bilder från Flickr (se Material och metoder för mer detaljer) hittar vi (Fig. 2) att sannolikheten för en social slips ökar kraftigt när antalet samtidiga händelser k ökar och tidsintervallet t minskar. Vad som kanske är mest slående är inte riktningen för detta beroende, utan snarare de stora värdena för sannolikheterna själva i förhållande till sannolikheten för att ha ett socialt samband. Två
Grandall och Al. REF visade att co-occurence-funktionen bidrar till att sluta sociala band genom experiment över en datauppsättning på 38 miljoner geo-taggade foton från Flickr.
14,199,048
Inferring social ties from geographic coincidences
{'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Computer Science', 'Medicine']}
81,946
Extrem multi-label klassificering avser övervakad multi-label lärande som involverar hundratusentals eller till och med miljontals etiketter. Dataset i extrem klassificering uppvisar passar för makt-lag distribution, d.v.s. En stor del av etiketterna har mycket få positiva förekomster i datadistributionen. De flesta state-of-the-art metoder för extrem multi-label klassificering försöker fånga korrelation mellan etiketter genom att inbädda etiketten matris till en lågdimensionell linjär sub-rymd. I närvaro av en lag om maktfördelning som är mycket stor och mångskiftande kan dock strukturella antaganden som låg rang lätt brytas. I detta arbete presenterar vi DiSMEC, som är en storskalig distribuerad ram för att lära sig linjära one-versus-rest clasfiers tillsammans med explicit kapacitetskontroll för att kontrollera modellstorlek. Till skillnad från de flesta state-of-the-art metoder, DiSMEC inte göra några låga antaganden på etiketten matris. Med hjälp av dubbla lager av parallellisering kan DiSMEC lära sig klassificeringar för datauppsättningar som består av hundratusentals etiketter inom några timmar. Den explicita kapacitetskontrollmekanismen filtrerar bort falska parametrar som håller modellen kompakt i storlek, utan att förlora förutsägelsenoggrannhet. Vi genomför en omfattande empirisk utvärdering av offentligt tillgängliga verkliga datauppsättningar som består av upp till 670.000 etiketter. Vi jämför DiSMEC med senaste state-of-the-art metoder, inklusive -SLECE som är en ledande metod för att lära sig glesa lokala inbäddningar, och FastXML som är en trädbaserad metod optimera rankning baserad förlust funktion. På vissa datauppsättningar kan DiSMEC avsevärt öka förutsägelsenoggrannheten -10 % bättre jämfört med SLECC och 15 % bättre jämfört med FastXML, i absoluta tal. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning.
Babbar och Schölkopf föreslog DiSMEC REF, som är en storskalig distribuerad ram för att lära sig linjära one-versus-rest-klasser.
294,105
DiSMEC: Distributed Sparse Machines for Extreme Multi-label Classification
{'venue': "WSDM '17", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,947
I detta dokument föreslås en ny djup arkitektur för att ta itu med flermärkt bildigenkänning, en grundläggande och praktisk uppgift mot allmän visuell förståelse. Nuvarande lösningar för denna uppgift är vanligtvis beroende av ett extra steg i utvinning av hypotesregioner (dvs. regionförslag), vilket resulterar i överflödig beräkning och suboptimal prestanda. I detta arbete uppnår vi den tolkningsbara och kontextualiserade flermärkta bildklassificeringen genom att utveckla en återkommande memorand-attention modul. Denna modul består av två alternativt utförda komponenter: i) ett rumsligt transformatorskikt för att lokalisera uppmärksamhetsregioner från de konvolutionella funktionskartorna på ett regionförslagsfritt sätt och ii) ett undernätverk för LSTM (Long-Short Term Memory) för att sekventiellt förutsäga semantiska märkningspoäng på de belägna regionerna samtidigt som man fångar de globala beroendena i dessa regioner. LSTM matar också ut parametrarna för beräkning av den rumsliga transformatorn. På storskaliga riktmärken för flermärkt bildklassificering (t.ex. MS-COCO och PAS-CAL VOC 07) visar vår strategi överlägsna prestationer jämfört med andra befintliga toppmoderna både i noggrannhet och effektivitet.
REF använder ett undernätverk för LSTM för att förutsäga märkningspoäng på de regioner som är belägna i ett rumsligt transformatorskikt.
19,742,621
Multi-label Image Recognition by Recurrently Discovering Attentional Regions
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
81,948
Mobile-edge computing (MEC) är ett framväxande paradigm för att möta de ständigt ökande kraven på beräkning från mobila applikationer. Genom att avlasta den beräkningsintensiva arbetsbelastningen till MEC-servern kan kvaliteten på beräkningsupplevelsen, t.ex. exekveringslatensen, förbättras avsevärt. Eftersom batterikapaciteten på enheten är begränsad, skulle dock beräkningen avbrytas när batteriets energi tar slut. För att ge tillfredsställande beräkningsprestanda och uppnå grön databehandling är det av stor betydelse att söka förnybara energikällor för att driva mobila enheter via energiskördsteknik. I detta dokument kommer vi att undersöka ett grönt MEC-system med EH-enheter och utveckla en effektiv avlastningsstrategi. Exekveringskostnaden, som tar upp både genomförande latency och uppgiftsfel, antas som prestandamått. En låg-komplexitet online-algoritm, nämligen Lyapunov optimering-baserad dynamisk beräkning offloading (LODCO) algoritm föreslås, som gemensamt beslutar avlastning beslut, CPU-cykel frekvenser för mobilt utförande, och sändningseffekt för beräkning offloading. En unik fördel med denna algoritm är att besluten endast beror på den ögonblickliga sidan information utan att kräva distribution information om begäran om beräkning uppgift, den trådlösa kanalen, och EH processer. Genomförandet av algoritmen kräver bara att lösa ett deterministiskt problem i varje tidsrymd, för vilken den optimala lösningen kan erhållas antingen i sluten form eller genom bisektionssökning. Dessutom visas att den föreslagna algoritmen är asymptotiskt optimal genom noggrann analys. Resultaten av provsimuleringen ska presenteras för att verifiera den teoretiska analysen och validera den föreslagna algoritmens effektivitet. Mobil-edge computing, energi skörd, dynamisk spänning och frekvensskalning, effektstyrning, QoE, Lyapunov optimering. Författarna är med
Mao m.fl. utvecklat en LODCO-algoritm för att minimera förseningen i utförandet och hanterat uppgiften misslyckande som prestanda metrisk REF.
14,777,050
Dynamic Computation Offloading for Mobile-Edge Computing with Energy Harvesting Devices
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,949
Abstract-Automatisk pectoral muskelborttagning på mediolateral sned vy av mammogram är ett viktigt steg för många mammografiska bearbetningsalgoritmer. Den stora variationen i muskelkonturens position tillsammans med likheten mellan muskel- och bröstvävnad gör dock upptäckten till en svår uppgift. I detta dokument föreslår vi ett tvåstegsförfarande för att upptäcka muskelkonturen. I ett första steg förutsägs konturens ändpunkter med ett par vektorregressionsmodeller; en modell tränas för att förutsäga skärningspunkten mellan konturen och den övre raden medan den andra är utformad för att förutsäga konturens slutpunkt på den vänstra kolumnen. Därefter beräknas muskelkonturen som den kortaste vägen mellan de två ändpunkterna. En omfattande jämförelse med manuellt ritade konturer avslöjar styrkan i den föreslagna metoden.
REF uppskattade bröstmuskelns kontur som den kortaste vägen genom de två slutpunkterna i bildens lutning.
8,229,328
Pectoral muscle detection in mammograms based on the shortest path with endpoints learnt by SVMs
{'venue': '2010 Annual International Conference of the IEEE Engineering in Medicine and Biology', 'journal': '2010 Annual International Conference of the IEEE Engineering in Medicine and Biology', 'mag_field_of_study': ['Computer Science', 'Medicine']}
81,950
Abstract-Vi presenterar en ny strategi för multi-signal gest erkännande som behandlar samtidiga kropps- och handrörelser. Systemet undersöker temporal sekvenser av tvåkanaliga ingångssignaler som erhållits via statistisk slutledning som indikerar 3D kropp pose och hand pose. Lärande gestmönster från dessa signaler kan vara ganska utmanande på grund av förekomsten av långdistans tidsberoende och lågt signal-till-brusförhållande (SNR). Vi införlivar en Gaussian temporal-smoothing kärna i inference ramverket, fånga långdistans temporal-beroenden och öka SNR effektivt. En omfattande uppsättning experiment utfördes, så att vi kan (1) visa att kombinera kropp och hand signaler avsevärt förbättrar igenkänning noggrannheten; (2) rapportera om vilka funktioner i kropp och händer är mest informativa; och (3) visa att med hjälp av en Gaussian temporal-smoothing avsevärt förbättrar gest igenkänning noggrannhet.
Sång och al. använde en Gaussian temporal-smoothing HCRF REF för att klassificera gester som kombinerar både kropps- och handsignaler.
15,168,116
Multi-signal gesture recognition using temporal smoothing hidden conditional random fields
{'venue': 'Face and Gesture 2011', 'journal': 'Face and Gesture 2011', 'mag_field_of_study': ['Computer Science']}
81,951
I detta dokument beskrivs en ram som fungerar som en referens för klassificering av användargränssnitt som stöder flera mål, eller flera sammanhang för användning inom området sammanhangsmedveten databehandling. I detta sammanhang bryts användningen ned i tre aspekter: slutanvändarna av det interaktiva systemet, maskinvaru- och programvarudatorplattformen med vilken användaren måste utföra sina interaktiva uppgifter och den fysiska miljön där de arbetar. Därför är ett sammanhangskänsligt användargränssnitt ett användargränssnitt som uppvisar en viss förmåga att vara medveten om sammanhanget (kontextmedvetenhet) och att reagera på förändringar i detta sammanhang. I detta dokument försöker man ge en enhetlig förståelse av kontextkänsliga användargränssnitt snarare än ett recept på olika sätt eller metoder för att ta itu med olika utvecklingssteg. Ramverket strukturerar snarare utvecklingslivscykeln till fyra abstraktionsnivåer: uppgift och koncept, abstrakt användargränssnitt, konkret användargränssnitt och slutanvändargränssnitt. Dessa nivåer är strukturerade med ett förhållande av reifikation som går från en abstrakt nivå till en konkret och ett förhållande av abstraktion som går från en konkret nivå till en abstrakt nivå. De flesta metoder och verktyg kan förstås tydligare och jämföras i förhållande till varandra mot nivåerna i denna ram. Dessutom uttrycker ramen när, var och hur en förändring av sammanhanget beaktas och stöds i det sammanhangskänsliga användargränssnittet tack vare en relation av översättning. När det gäller användargränssnitt med flera mål introduceras, definieras och exemplifieras begreppet användargränssnitt av plast. Dessa användargränssnitt stöder viss anpassning till ändringar i sammanhanget för användning samtidigt som en fördefinierad uppsättning av användbarhetsegenskaper bevaras.
Golgata m.fl. REF ger en översikt över olika modelleringsmetoder för att hantera användargränssnitt som stöder flera mål inom området sammanhangsmedveten databehandling.
13,215,955
A unifying reference framework for multi-target user interfaces
{'venue': 'INTERACTING WITH COMPUTERS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,952
Abstract-This paper utforskar hur man fjärrövervakar nätverk-omfattande kvalitet i mesh-pull P2P live streaming system. Peers i sådana system annonsera för varandra buffertkartor som sammanfattar de bitar av videoströmmen som de för närvarande har cachad och göra tillgängliga för delning. Vi visar hur buffertkartor kan utnyttjas för att övervaka nätverkens kvalitet. Vi visar att den information som ges i en kamrats annonserade buffertkarta korrelerar med den personens visnings-kontinuitet och start latency. Med tanke på denna korrelation skördar vi på distans buffertkartor från många kamrater och bearbetar sedan dessa buffertkartor för att uppskatta videouppspelningens kvalitet. Vi tillämpar denna metod för ett populärt P2P live streaming-system, nämligen PPLive. För att skörda buffertkartor bygger vi en buffertkarta och använder även passiva noder för sniffning. Vi bearbetar de skördade buffertkartorna och presenterar resultat för nätverkstäckande uppspelningskontinuitet, start latency, uppspelningsfördröjningar bland kamrater och bitförökningsmönster. Resultaten visar att denna metod kan ge någorlunda korrekta uppskattningar av videouppspelningskvaliteten i hela nätverket.
Författare i REF utnyttjar en analys av PPLive buffertkartor, samlas in genom protokoll omvänd teknik, för att infer QoS-mått såsom nätverksomfattande uppspelning kontinuitet, start latency, uppspelning släpar bland kamrater, och bit utbredning timing.
698,718
Inferring Network-Wide Quality in P2P Live Streaming Systems
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']}
81,953
Vi analyserar Tangle -a DAG-värderad stokastisk process där nya hörn fästs vid grafen vid Poissoniska tider, och bilagans platser väljs med hjälp av slumpmässiga promenader på den grafen. Vi visar att det finns ("nästan symmetriska") Nash equilibria för systemet där en del av spelarna försöker optimera sina fastsättningsstrategier. Sedan presenterar vi också simuleringar som visar att de "själviska" spelarna ändå kommer att samarbeta med nätverket genom att välja fastsättningsstrategier som liknar standard en.
I REF, författarna etablerat en matematisk modell för att analysera Tangle systemet och visat förekomsten av Nash jämvikt för systemet där en del av spelarna försökte optimera sina fastsättningsstrategier.
3,772,906
Equilibria in the Tangle
{'venue': 'Computers&Industrial Engineering, Volume 136, Pages 160-172, October 2019', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Engineering', 'Mathematics']}
81,954
Sammanfattning av denna webbsida: Den senaste utvecklingen inom smartphones har ökat bearbetningskapaciteten och utrustat dessa enheter med ett antal inbyggda multimodala sensorer, inklusive accelerometrar, gyroskop, GPS-gränssnitt, Wi-Fi-åtkomst och närhetssensorer. Trots att många studier har undersökt utvecklingen av användar-kontext medvetna program med smartphones, dessa program för närvarande bara kan känna igen enkla sammanhang med hjälp av en enda typ av sensor. Därför inför vi i detta arbete en övergripande strategi för kontextmedvetna applikationer som använder de multimodala sensorerna i smartphones. Det föreslagna systemet kan inte bara känna igen olika typer av sammanhang med hög noggrannhet, utan det kan också optimera strömförbrukningen eftersom strömhungriga sensorer kan aktiveras eller avaktiveras vid lämpliga tidpunkter. Dessutom kan systemet känna igen aktiviteter varhelst smartphonen finns på en människas kropp, även när användaren använder telefonen för att ringa ett telefonsamtal, manipulera program, spela spel eller lyssna på musik. Dessutom presenterar vi även en ny funktionsvalsalgoritm för accelerometerklassificeringsmodulen. Den föreslagna funktionen val algoritm hjälper till att välja bra funktioner och eliminera dåliga funktioner, vilket förbättrar den totala noggrannheten hos accelerometern klassificerare. Experimentella resultat visar att det föreslagna systemet kan klassificera åtta verksamheter med en noggrannhet på 92,43 %.
En ny funktion val algoritm används för accelerometer klassificering REF och den använder multimodala sensordata från accelerometer, ljud, GPS och Wi-Fi.
6,568,414
Comprehensive Context Recognizer Based on Multimodal Sensors in a Smartphone
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Computer Science']}
81,955
Abstract-Det är välkänt att maxvikt politik baserat på en kö backlog index kan användas för att stabilisera stokastiska nätverk, och att liknande stabilitetsresultat håller om en fördröjning index används. Med hjälp av Lyapunov optimering, utökar vi denna analys till att designa ett verktyg maximera algoritm som använder explicit fördröjning information från head-of-line paket vid varje användare. Den resulterande politiken har visat sig säkerställa deterministiska värsta tänkbara fördröjningsgarantier och ge ett genomflöde som skiljer sig från det optimala verkliga värdet med ett belopp som är omvänt proportionellt mot fördröjningsgarantin. Våra resultat håller för en allmän klass av 1-hop nätverk, inklusive paket switchar och flera användare trådlösa system med tidsvariation tillförlitlighet.
I en annan forskningslinje använde Neely REF Lyapunov-baserade tekniker för att ungefär maximera genomströmningsverktyget baserat på explicita förseningar med head-of-line-paket.
1,204,815
Delay-Based Network Utility Maximization
{'venue': 'IEEE/ACM Transactions on Networking', 'journal': 'IEEE/ACM Transactions on Networking', 'mag_field_of_study': ['Computer Science']}
81,956
Abstract-Coarse kvantization vid basstationen (BS) av en massiv multi-användare (MU) multi-input multiple-output (MIMO) trådlöst system lovar betydande effekt och kostnadsbesparingar. Coarse kvantization möjliggör också betydande minskningar av rå analog-till-digital omvandlare data som måste överföras från en rumsligt separerad antenn array till basband bearbetningsenhet. De teoretiska gränserna samt praktiska transceiveralgoritmer för sådana kvantiserade MU-MIMO-system som arbetar över frekvensplatta smalbandskanaler har studerats i stor utsträckning. Det i praktiken relevanta scenariot där sådana kommunikationssystem fungerar över frekvensselektiva, bredbandskanaler är dock mindre välbegripligt. Detta dokument undersöker upplänkprestandan hos ett kvantiserat massivt MU-MIMO-system som distribuerar ortogonal frekvensdivision multiplexing (OFDM) för bredbandskommunikation. Vi föreslår nya algoritmer för kvantized maximal en posteriori kanal uppskattning och data detektion, och vi studerar tillhörande prestanda/kvantisering kompromisser. Våra resultat visar att grov kvantisering (t.ex., fyra till sex bitar, beroende på förhållandet mellan antalet BS-antenner och antalet användare) i massiva MU-MIMO-OFDM-system innebär praktiskt taget ingen prestandaförlust jämfört med det oändliga-precision fallet utan extra kostnad i form av basband bearbetning komplexitet. Index Terms-Analog-till-digital konvertering, konvex optimering, framåt-bakåt delning (FBS), frekvens-selektiva kanaler, massiv multi-användare multi-input multiple-output (MU-MIMO), maximal a-posteriori (MAP) kanaluppskattning, minsta medelvärde-kvadratfel (MMSE) datadetektering, ortogonal frekvensdivision multiplexing (OFDM), kvantisering.
I REF utvecklades kanaluppskattning och datadetektionsalgoritmer för kvantiserad massiv MIMO i frekvensselektiva blekningskanaler.
1,688,669
Quantized Massive MU-MIMO-OFDM Uplink
{'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,957
Populär teknik för domänanpassning såsom funktionen förstärkningsmetod av Daumé III (2009) har främst beaktats för gles binära-värderade funktioner, men inte för täta realvärderade funktioner såsom de som används i neurala nätverk. I den här artikeln beskriver vi enkla neurala förlängningar av dessa tekniker. Först föreslår vi en naturlig generalisering av funktionen förstärkningsmetod som använder K + 1 LSTMs där en modell fångar globala mönster över alla K-domäner och de återstående K-modellerna fångar domänspecifik information. För det andra föreslår vi en ny tillämpning av ramen för Ando och Zhang (2005)s lärande av gemensamma strukturer för domänanpassning, och ger också en neural utvidgning av deras tillvägagångssätt. I experiment på slot taggning över 17 domäner, våra metoder ger tydliga prestandaförbättringar jämfört med Daumé III (2009) tillämpas på funktionsrika CRFs.
REF utökar Daume III (2007)s metod för utökning av funktioner för fördjupat lärande genom att utöka olika modeller för varje område.
14,816,251
Frustratingly Easy Neural Domain Adaptation
{'venue': 'COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,958
Abstract-Middleboxar eller nätverk apparater som brandväggar, proxies och WAN optimizers har blivit en integrerad del av dagens ISP och företagsnätverk. Middlebox-funktioner används vanligtvis på dyr och egenutvecklad hårdvara som kräver utbildad personal för installation och underhåll. Middleboxar bidrar avsevärt till ett näts kapital- och driftskostnader. Dessutom kräver organisationer ofta att deras trafik passerar genom en specifik sekvens av mellanboxar för att uppfylla säkerhets- och prestationspolicyer. Detta gör installation och underhåll av mellanboxen ännu mer komplicerat. Nätverksfunktion Virtualization (NFV) är en framväxande och lovande teknik som är tänkt att övervinna dessa utmaningar. Den föreslår att pakethantering flyttas från dedikerade maskinvarumiddleboxar till programvara som körs på råvaruservrar. I NFV terminologi kallas programcentralboxar för Virtualized Network Functions (VNF). Det är ett utmanande problem att fastställa erforderligt antal och placering av VNF som optimerar nätdriftskostnader och utnyttjande, utan att bryta servicenivåavtal. Vi kallar detta VNF Orkestrering Problem (VNF-OP) och ge en Integer Linear Programmering (ILP) formulering med genomförande i CPLEX. Vi tillhandahåller också en dynamisk programmeringsbaserad heuristisk för att lösa större fall av VNF-OP. Spårdrivna simuleringar på verkliga nätverkstopologier visar att heurismen kan erbjuda lösningar som ligger inom 1,3 gånger den optimala lösningen. Våra experiment tyder på att en VNF-baserad metod kan ge mer än 4× minskning av driftskostnaderna för ett nätverk.
Ref. REF modellerar batchutbyggnaden av flera kedjor med hjälp av en ILP och utvecklar heuristik för att lösa större fall av problemet.
14,332,285
On Orchestrating Virtual Network Functions in NFV
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,959
När det gäller kommunikationer för energiupptagning överför användarna meddelanden med hjälp av energi som skördats från naturen under kommunikationens gång. Med en optimal sändningspolicy beror systemets prestanda endast på energiankomstprofilerna. I detta dokument introducerar vi begreppet energisamarbete, där en användare trådlöst överför en del av sin energi till en annan energiskördare. Detta gör det möjligt att forma och optimera den energi som anländer till den energimottagande noden, och förbättrar den totala systemprestandan, trots den förlust som uppstår vid energiöverföring. Vi överväger flera grundläggande fleranvändarnätverksstrukturer med energiupptagning och trådlös energiöverföringskapacitet: reläkanal, tvåvägskanal och flera accesskanaler. Vi bestämmer energihanteringspolicyer som maximerar systemgenomströmningen inom en given varaktighet med hjälp av en Lagrangian formulering och de resulterande KKT optimala förhållanden. Vi utvecklar en tvådimensionell riktningsvattenfyllningsalgoritm som optimalt kontrollerar flödet av skördad energi i två dimensioner: med tiden (från tidigare till framtida) och bland användare (från energiöverföring till energimottagning) och visar att en generaliserad version av denna algoritm uppnår gränsen för kapacitetsregionen i tvåvägskanalen.
När det gäller trådlös energiöverföring föreslår författarna i REF begreppet energisamarbete där nätknutpunkterna utbyter sin återstående energi trådlöst förbättrar den totala systemprestandan, trots den förlust som uppstår vid energiöverföring.
5,990,062
Energy Cooperation in Energy Harvesting Communications
{'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,960
Abstract-This paper beskriver en ny hög kapacitet steganografi algoritm för att inbädda data i inaktiva ramar av låg bithastighet ljudströmmar kodade av G.723.1 source codec, som används i stor utsträckning i Voice over Internet Protocol (VoIP). Denna studie visar att, tvärtemot existerande tanke, de inaktiva ramar VoIP strömmar är mer lämpliga för data inbäddning än de aktiva ramar av strömmarna; det vill säga, stelanografi i inaktiva ljudramar uppnår en större data inbäddning kapacitet än den i de aktiva ljudramarna under samma omärklighet. Genom att analysera döljandet av steganografi i inaktiva ramar av låg bithastighet ljudströmmar kodade av G.723.1 codec med 6.3 kb/s, författarna föreslår en ny algoritm för steganografi i olika talparametrar för inaktiva ramar. Resultatutvärderingen visar att inbäddade data i olika talparametrar ledde till olika nivåer av döljande. En förbättrad detekteringsalgoritm för röstaktivitet föreslås för att upptäcka inaktiva ljudramar med hänsyn till paketförlust. Experimentella resultat visar vår föreslagna steganografialgoritm inte bara uppnått perfekt omärklighet utan också fick en hög data inbäddningshastighet upp till 101 bits/frame, vilket tyder på att data inbäddningskapaciteten hos den föreslagna algoritmen är mycket större än tidigare föreslagna algoritmer. Index Terms-Audio strömmar, inaktiva ramar, steganografi, Voice over Internet Protocol (VoIP).
Dessutom Huang et al. REF föreslog en algoritm för inbäddning av data i vissa parametrar i de inaktiva talramarna kodade av G.723.1 codec.
15,096,702
Steganography in Inactive Frames of VoIP Streams Encoded by Source Codec
{'venue': 'IEEE Transactions on Information Forensics and Security', 'journal': 'IEEE Transactions on Information Forensics and Security', 'mag_field_of_study': ['Computer Science']}
81,961
: Våra online deblurring resultat (botten) på ett antal utmanande verkliga videoramar (överst) lider av stark objektrörelse. Vårt föreslagna tillvägagångssätt kan bearbeta indatavideon (VGA) i realtid, dvs. 24 fps på ett vanligt grafikkort (NVIDIA GTX 1080). Toppmoderna videodeblurringsmetoder kan ta bort icke-uniform oskärpa orsakad av oönskad kameraskakning och/eller objektrörelse i dynamiska scener. De flesta befintliga metoder är dock baserade på satsbearbetning och behöver därför tillgång till alla registrerade ramar, vilket gör dem beräkningskrävande och tidskrävande och därmed begränsa deras praktiska användning. Däremot föreslår vi en online (sekventiell) videodeblurringsmetod baserad på ett spatio-temporalt återkommande nätverk som möjliggör realtidsprestanda. I synnerhet introducerar vi en ny arkitektur som utvidgar det mottagliga fältet samtidigt som nätverkets totala storlek hålls liten för att möjliggöra snabb exekvering. På så sätt kan vårt nätverk ta bort även stor oskärpa som orsakas av starka kameraskakningar och/eller föremål som rör sig snabbt. Dessutom föreslår vi ett nytt nätverksskikt som upprätthåller tidsmässig överensstämmelse mellan på varandra följande ramar genom dynamisk tidsblandning som jämför och adaptivt (vid testtid) delar funktioner som erhålls vid olika tidpunkter. Vi visar den föreslagna metodens överlägsenhet i en omfattande experimentell utvärdering.
Kim och Al. REF introducerar en spatiotemporal återkommande arkitektur med en dynamisk mekanism för tidsblandning som möjliggör adaptiv informationsutbredning.
3,831,826
Online Video Deblurring via Dynamic Temporal Blending Network
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
81,962
Inlärning allmänna representationer av text är ett grundläggande problem för många naturliga språkförståelse (NLU) uppgifter. Tidigare har forskare föreslagit att använda språkmodellen för utbildning och lärande med flera arbetsuppgifter för att lära sig robusta representationer. Dessa metoder kan dock ge suboptimala resultat i scenarier med låga resurser. Inspirerad av de senaste framgångarna med optimeringsbaserade metalearning-algoritmer utforskar vi i denna artikel den modell-agnostiska metalearning-algoritmen (MAML) och dess varianter för NLU-uppgifter med låg resurs. Vi validerar våra metoder på GLUE-riktmärket och visar att våra föreslagna modeller kan överträffa flera starka baslinjer. Vi visar vidare empiriskt att de inlärda representationerna kan anpassas till nya uppgifter på ett effektivt och effektivt sätt.
REF:s hävstångseffekt för meta-lärande för icke-lärande med låga resurser.
201,652,627
Investigating Meta-Learning Algorithms for Low-Resource Natural Language Understanding Tasks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,963
I detta dokument föreslår vi en mycket djup konvolutionell kodning-avkodning ram för bildrenovering såsom denoisering och super-upplösning. Nätverket består av flera lager av convolution och de-konvolution operatörer, lära sig end-to-end kartläggningar från korrupta bilder till de ursprungliga. De konvolutionella skikten fungerar som en funktionsutsugare, som fångar abstraktionen av bildinnehållet och samtidigt eliminerar ljud/korruption. De-konvolutionella lager används sedan för att återställa bilddetaljerna. Vi föreslår att symmetriskt koppla samman konvolutions- och dekonvolutionslager med skippa-lager-anslutningar, med vilka träningen konvergerar mycket snabbare och uppnår en högre kvalitet lokal optimal. För det första, De skip anslutningar gör att signalen förskjuts tillbaka till botten skikt direkt, och därmed tar itu med problemet med lutning försvinner, vilket gör utbildning djupa nätverk lättare och uppnå restaurering prestanda vinster följaktligen. För det andra, dessa hoppa anslutningar passera bild detaljer från konvolutionella lager till de-konvolutionella lager, vilket är fördelaktigt för att återställa den ursprungliga bilden. Betydande, med den stora kapaciteten, kan vi hantera olika nivåer av buller med hjälp av en enda modell. Experimentella resultat visar att vårt nätverk uppnår bättre prestanda än alla tidigare rapporterade toppmoderna metoder.
Mao m.fl. REF införde en helt konvolutionell kodning-avkodning ram-arbete för bild denoiserande och super-upplösning.
10,987,457
Image Restoration Using Very Deep Convolutional Encoder-Decoder Networks with Symmetric Skip Connections
{'venue': 'NIPS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,964
Vi föreslår en metod för att lära sig djupa ReLU-baserade klassificeringar som är bevisligen robusta mot normbundna adversariella perturbationer (på träningsdata; för tidigare osedda exempel, tillvägagångssättet kommer att garanteras att upptäcka alla kontradiktoriska exempel, även om det kan markera några icke-adversariska exempel också). Den grundläggande idén med tillvägagångssättet är att överväga en konvex yttre approximation av uppsättningen aktiveringar som kan nås genom en normbunden perturbation, och vi utvecklar en robust optimeringsprocess som minimerar den värsta fallförlusten över denna yttre region (via ett linjärt program). Avgörande är att vi visar att det dubbla problemet med detta linjära program kan representeras som ett djupt nätverk som liknar backpropagation-nätverket, vilket leder till mycket effektiva optimeringsmetoder som ger garanterade gränser på den robusta förlusten. Slutresultatet är att genom att köra några fler framåt och bakåt passerar genom en något modifierad version av det ursprungliga nätverket (även om möjligen med mycket större batchstorlekar), kan vi lära oss en klassificering som är bevisligen robust till någon normbunden adversarial attack. Vi illustrerar tillvägagångssättet på en leksak 2D robust klassificering uppgift, och på en enkel konvolutionell arkitektur tillämpas på MNIST, där vi producerar en klassificering som bevisligen har mindre än 8,4% testfel för varje kontradiktorisk attack med begränsad ❌ norm mindre än = 0,1. Detta är det största verifierade nätverk som vi är medvetna om, och vi diskuterar framtida utmaningar när det gäller att skala upp strategin till mycket större områden.
På senare tid har REF utvecklat en linjär programmeringsformulering för den kontradiktoriska förvrängningen.
3,659,467
Provable defenses against adversarial examples via the convex outer adversarial polytope
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,965
Dagens globalt nätverkade samhälle ställer stora krav på spridning och utbyte av information. Även om tidigare släppt information främst var i tabellform och statistisk form, många situationer kräver idag att specifika data (mikrodata). För att skydda anonymiteten hos de enheter (kallade respondenter) till vilka information hänvisar, tar datainnehavarna ofta bort eller krypterar explicita identifierare som namn, adresser och telefonnummer. Avidentifierande uppgifter ger dock ingen garanti för anonymitet. Utlämnad information innehåller ofta andra uppgifter, såsom ras, födelsedatum, kön och ZIP-kod, som kan kopplas till offentligt tillgänglig information för att på nytt identifiera respondenter och sluta sig till information som inte var avsedd för offentliggörande. I detta dokument tar vi upp problemet med att släppa mikrodata samtidigt som anonymiteten hos de respondenter som uppgifterna hänvisar till skyddas. Metoden bygger på definitionen av k-anonymitet. En tabell ger k-anonymitet om man försöker länka uttryckligen identifiera information till dess innehåll kartlägga informationen till åtminstone k-enheter. Vi illustrerar hur k-anonymitet kan tillhandahållas utan att äventyra integriteten (eller sannfärdigheten) av den information som frigörs med hjälp av generalisering och undertryckande tekniker. Vi introducerar begreppet minimal generalisering som fångar egenskapen hos utgivningsprocessen för att inte förvränga data mer än vad som behövs för att uppnå k-anonymitet, och presentera en algoritm för beräkning av en sådan generalisering. Vi diskuterar också möjliga preferenspolicyer att välja bland olika minimala generaliseringar. Privacy, Data Anonymity, Disclosure Control, Microdata Release, Inference, Record Linkage, Security, Information Protection. Information är i dag förmodligen den viktigaste och mest efterfrågade resursen. Vi lever i ett internetarbetat samhälle som bygger på spridning och utbyte av information inom såväl den privata som den offentliga och den offentliga sektorn. Statliga, offentliga och privata institutioner är i allt högre grad skyldiga att göra sina uppgifter elektroniskt tillgängliga [8, 18]. Om tidigare denna spridning och utbyte av information främst var i statistiska och tabulära företag, offentliga kontor, kommersiella organisationer, och så vidare. För att skydda integriteten för respondenterna (individer, organisationer, föreningar, företag, och så vidare) som uppgifterna hänvisar till, släpps data i allmänhet "sanitized" genom att ta bort alla explicita identifierare såsom namn, adresser och telefonnummer. Även om de avidentifierade uppgifterna till synes är anonyma kan de innehålla andra uppgifter, såsom ras, födelsedatum, kön och ZIP-kod, som unikt eller nästan unikt hänför sig till specifika respondenter (dvs. enheter som uppgifterna avser) och få dem att skilja sig från andra [13]. Genom att koppla dessa identifierande egenskaper till allmänt tillgängliga databaser som kopplar dessa egenskaper till den svarandes identitet, kan uppgiftsmottagarna avgöra till vilken svarande varje del av utgivna data hör, eller begränsa deras osäkerhet till en viss delmängd av individer. Den stora mängd information som är lätt tillgänglig idag och den ökade beräkningskraft som finns tillgänglig för angriparna gör sådana länkning attacker till ett allvarligt problem. Information om oss samlas in varje dag, när vi går föreningar eller grupper, handlar mat eller utför de flesta av våra gemensamma dagliga aktiviteter [7, 8]. Man har beräknat att det i Förenta staterna för närvarande finns omkring fem miljarder privatägda register som beskriver varje medborgares ekonomi, intressen och demografi. Informationskontor som TRW, Equifax och Trans Union har de största och mest detaljerade databaserna över amerikanska konsumenter. De flesta kommuner säljer befolkningsregister som inkluderar individers identiteter tillsammans med grundläggande demografi; exempel inkluderar lokala folkräkningsuppgifter, röstlistor, stadskataloger och information från bilbyråer, skattebedömare och fastighetsbyråer. I vissa stater är det idag möjligt att få tillgång till både körkort och registreringsskyltar för en $25 avgift. Typiska uppgifter i dessa databaser kan innehålla namn, socialförsäkringsnummer, födelsedatum, adresser, telefonnummer, familjestatus samt arbets- och lönehistorik. Dessa uppgifter, som ofta distribueras eller säljs offentligt, kan användas för att länka identiteter och avidentifierad information, vilket gör det möjligt att på nytt identifiera respondenterna. Den begränsade tillgången till information och den dyra behandlingen av den, både i tid och resurser, som tidigare utgjorde en form av skydd, håller inte längre. Det är i dag inte svårt för en uppgiftsmottagare att kombinera de "avidentifierade" mikrouppgifterna med andra offentligt tillgängliga uppgifter (t.ex. röstlängdsregister). Denna situation har gett upphov till särskilda farhågor på det medicinska och finansiella området, där mikrodata, som i allt högre grad övergår till cirkulation eller forskning, kan utsättas för eller har utsatts för missbruk som äventyrar enskilda personers privatliv [2, 8, 12, 21]. För att illustrera problemet exemplifierar figur 1 en tabell med medicinska data som skall lämnas ut. Uppgifterna har avidentifierats genom att namn och personnummer för social trygghet har utelämnats, så att identiteterna för de personer som uppgifterna avser inte avslöjas. Men värden av andra släppta attribut, såsom ZIP, DateOfBirth, Race, Sex, och MaritalStatus kan också visas i någon extern tabell tillsammans med den individuella identiteten, och
Vårt mål är att hitta den minimala k-anonyma generaliseringen (tabellen) enligt definitionen av minimalitet definieras av Samarati REF.
561,716
Protecting respondents’ identities in microdata release
{'venue': 'In IEEE Transactions on Knowledge and Data Engineering (TKDE', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,966
I detta dokument föreslås en praktisk ram för videokodning baserad på principer för distribuerad källkodskodning, med målet att uppnå en effektiv och skalbar kodning med låg komplexitet. Med utgångspunkt från en standard prediktiv kodare som basskikt (såsom MPEG-4 baslinje videokodare i vårt genomförande), kan den föreslagna Wyner-Ziv skalbar (WZS) kodare uppnå högre kodning effektivitet, genom att selektivt utnyttja hög kvalitet rekonstruktion av den tidigare ramen i förstärkning lagerkodning av den aktuella ramen. Detta skapar en multi-lager Wyner-Ziv förutsägelse "länk", ansluter samma bitplan nivå mellan på varandra följande ramar, vilket ger förbättrad tidsförutsägelse jämfört med MPEG-4 FGS, samtidigt som komplexiteten är rimlig vid kodaren. Eftersom den tidsmässiga korrelationen varierar i tid och rum är en blockbaserad adaptiv modalgoritm utformad för varje bitplan, så att det är möjligt att växla mellan olika kodlägen. Experimentella resultat visar förbättringar i kodning effektivitet på 3-4,5 dB över MPEG-4 FGS för videosekvenser med hög tids korrelation.
I REF antas ingen begränsning i kodare komplexitet och målet är att förbättra MPEG-4 finkornig skalbar (FGS) kodning RD prestanda, genom att utnyttja den tidsmässiga korrelationen vid dekoder i förstärkningsskiktet (EL) kodning av den nuvarande ramen (EL kodas som Intra i MPEG-4 FGS).
396,389
A framework for adaptive scalable video coding using Wyner–Ziv techniques
{'venue': 'Process., 2006, 42083. et al.: WZ SWITCHING SCHEME FOR MBR VIDEO STREAMING 581', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,967
Abstrakt. Att skaffa modeller som fångar bildmarkörer relevanta för sjukdomsprogression och behandling övervakning är utmanande. Modeller är vanligtvis baserade på stora mängder data med kommenterade exempel på kända markörer som syftar till att automatisera detektion. Stor anteckning ansträngning och begränsningen till en vokabulär av kända markörer begränsa kraften i sådana metoder. Här utför vi oövervakad inlärning för att identifiera avvikelser i avbildningsdata som kandidater för markörer. Vi föreslår AnoGAN, en djup konvolutionell generativ kontrarial nätverk för att lära sig en mångfald av normal anatomisk variabilitet, som åtföljer en ny anomali scoring schema baserat på kartläggning från bildutrymme till en latent utrymme. Tillämpas på nya data, modellen etiketter anomalier, och poäng bild patchar som visar deras passform i den lärda distributionen. Resultat på optisk sammanhållning tomografi bilder av näthinnan visar att metoden korrekt identifierar anomala bilder, såsom bilder som innehåller näthinnevätska eller hyperreflexiv foci.
Schlegl m.fl. REF använde en Generative Adversarial Network (GAN) för att lära sig en mångfald av normal anatomisk variabilitet, och anomalier upptäcktes som avvikelser från den.
17,427,022
Unsupervised Anomaly Detection with Generative Adversarial Networks to Guide Marker Discovery
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,968
Abstract-Evidence visar att nedladdning på begäran videor står för en dramatisk ökning av datatrafiken över cellulära nätverk. Caching populära videor i lagring av småcelliga basstationer (SBS), nämligen småcellig cachelagring, är en effektiv teknik för att minska överföringslatensen samtidigt minska överflödiga sändningar av populära videor över back-haul kanaler. I detta dokument anser vi att ett kommersialiserat cachesystem med små celler består av en nätverksleverantör (NSP), flera videoåterförsäljare (VR) och mobila användare (MU). NSP hyr ut sina SBS till VR:erna i syfte att göra vinster, och VR:erna kan, efter att ha lagrat populära videor i de hyrda SBS:erna, tillhandahålla snabbare lokala videoöverföringar till MU:erna och därigenom öka vinsten. Vi föreställer oss detta system inom ramen för Stackelberg spel genom att behandla SBS som en specifik typ av resurser. Vi modellerar först MUs och SBS som två oberoende Poisson peka processer, och utveckla, via stokastisk geometri teori, sannolikheten för den specifika händelsen att en MU får den video av sitt val direkt från minnet av en SBS. Sedan, baserat på den sannolikhet som härleds, formulerar vi ett Stackelbergspel för att tillsammans maximera den genomsnittliga vinsten för både NSP och VR. Dessutom undersöker vi jämvikten i Stackelberg genom att lösa ett icke-konvext optimeringsproblem. Med hjälp av detta spelteoretiska ramverk kastar vi ljus över förhållandet mellan fyra viktiga faktorer: den optimala prissättningen för att hyra en SBS, SBS-tilldelningen bland VR:erna, lagringsstorleken på SBS och popularitetsfördelningen av VR:erna. Monte-Carlo-simuleringar visar att våra stokastiska geometribaserade analysresultat nära motsvarar de empiriska. Numeriska resultat tillhandahålls också för att kvantifiera den föreslagna spelteoretiska ramen genom att visa dess effektivitet när det gäller prissättning och resursfördelning.
I ett nyligen utfört arbete REF, spelteori utnyttjas för caching populära videor på små cell basstationer (SBS).
123,618
Pricing and Resource Allocation via Game Theory for a Small-Cell Video Caching System
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,969
Klinisk medicin Bakgrund: Den utbredda tillgången på nya beräkningsmetoder och verktyg för dataanalys och prediktiv modellering kräver medicinska informatik forskare och läkare att systematiskt välja den lämpligaste strategin för att hantera kliniska förutsägelser problem. Särskilt insamlingen av metoder som kallas "data mining" erbjuder metodologiska och tekniska lösningar för att hantera analys av medicinska data och konstruktion av prediktiva modeller. En stor variation av dessa metoder kräver allmänna och enkla riktlinjer som kan hjälpa praktiker i ett lämpligt urval av data mining verktyg, konstruktion och validering av prediktiva modeller, tillsammans med spridning av prediktiva modeller i kliniska miljöer. Syfte: Syftet med denna översyn är att diskutera forskningsområdets omfattning och roll inom prediktiv datautvinning och att föreslå en ram för att hantera problemen med att bygga, bedöma och utnyttja datautvinningsmodeller inom klinisk medicin. Vi går igenom det aktuella relevanta arbetet som publicerats inom området prediktiv datautvinning inom klinisk medicin, lyfter fram kritiska frågor och sammanfattar tillvägagångssätten i en rad lärdomar. Papperet ger en omfattande genomgång av det senaste inom prediktiv datautvinning inom klinisk medicin och ger riktlinjer för att genomföra data mining studier inom detta område. Slutsatser: Förutsägande datautvinning blir ett viktigt instrument för forskare och läkare inom medicin. Att förstå de viktigaste frågor som ligger till grund för dessa metoder och tillämpningen av överenskomna och standardiserade förfaranden är obligatoriskt för deras införande och spridning av resultat. Tack vare integreringen av molekylära och kliniska data inom genommedicinen har området på senare tid inte bara fått en ny impuls utan också en ny uppsättning komplexa problem som det behöver ta itu med.
REF ger en översikt över datautvinning inom klinisk medicin och föreslår en ram för att hantera eventuella problem med att konstruera, bedöma och utnyttja modeller.
1,358,050
Predictive data mining in clinical medicine: Current issues and guidelines
{'venue': 'International journal of medical informatics', 'journal': 'International journal of medical informatics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
81,970
Abstrakt. Grafik Processing Units (GPU) från ledande leverantörer använder predikerad (eller bevakad) utförande för att eliminera grenning och öka prestanda. På samma sätt använder en ny GPU-verifieringsteknik predikering för att minska verifieringen av GPU-kärnor (de massiva parallella program som körs på GPU) till verifiering av ett sekventiellt program. Tidigare arbete med formella semantik av lock-steg predikerad exekvering för kärnor fokuserade på strukturerade program, där kontroll organiseras med hjälp av om- och underutgåvor. Vi tillhandahåller lock-steg exekvering semantik för GPU-kärnor som representeras av godtyckliga reducerbara kontrollflödesgrafer. Vi presenterar en traditionell interleaving semantik och en ny lock-steg semantik baserad på predikering, och visar att för att avsluta kärnor antingen båda semantik beräkna identiska resultat eller båda beter sig felaktigt. Metoden gör det möjligt att reducera GPU-kärnverifiering till verifiering av ett sekventiellt lås-steg-program som ska appliceras på GPU-kärnor med godtyckligt reducerbart kontrollflöde. Vi har implementerat metoden i GPUVerifiera verktyget, och presentera en utvärdering med hjälp av en uppsättning 163 öppna källkod och kommersiella GPU-kärnor. Bland dessa kärnor uppvisar 42 ostrukturerat kontrollflöde som vår nya lock-steg predikeringsteknik kan hantera helt automatiskt. Denna generalitet kommer till ett blygsamt pris: verifieringen över vårt referensvärde var i genomsnitt 2,25 gånger långsammare än med hjälp av en befintlig metod som specifikt riktar sig till strukturerade kärnor.
I REF har ett lockstegsemantik för GPU-kärnor föreslagits för att hantera ostrukturerade GPU-kärnor.
17,382,289
Interleaving and Lock-Step Semantics for Analysis and Verification of GPU Kernels
{'venue': 'ESOP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,971
I den här artikeln utforskar vi de grundläggande gränserna för sensornätverkens livstid som alla algoritmer kan uppnå. Specifikt, under antagandena att noderna är utplacerade som en Poisson punkt process med densitet λ i en fyrkantig region med sidlängd och varje sensor kan täcka en enhet-area disk, vi först härleda det nödvändiga och tillräckliga tillståndet av noden densitet för att upprätthålla fullständig k-täckning med sannolikhet närmar sig 1. Med detta resultat, får vi att om λ = log 2 + (k + 2) log log log 2 + c( ), c( ) → −∞, som → +∞, sensorn nätverkets livslängd (för att upprätthålla fullständig täckning) är övre begränsas av kT med sannolikhet närmar sig 1 som → +∞, där T är livslängden för varje sensor. För det andra, vi härleder, med tanke på en fast nodtäthet i en ändlig (men ganska stor) region, de övre gränserna för livstid när endast α-portion av regionen krävs för att täckas när som helst. Vi utför också simuleringar för att validera de härledda resultaten. Simuleringsresultaten visar att de härledda övre gränserna inte bara gäller nätverk i stora områden utan även för nät i små områden.
I REF definieras α-livslängden för ett trådlöst sensornätverk som det intervall under vilket minst α-delen av sensorområdet täcks av minst en sensornod.
15,284,954
On deriving the upper bound of α-lifetime for large sensor networks
{'venue': "MobiHoc '04", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,972
Vi presenterar ett interaktivt program som gör det möjligt för användare att förbättra den visuella estetiken av sina digitala fotografier med hjälp av rumslig recomposition. Till skillnad från tidigare arbete som fokuserar antingen på fotokvalitetsbedömning eller interaktiva verktyg för fotoredigering, gör vi det möjligt för användaren att fatta välgrundade beslut om att förbättra sammansättningen av ett fotografi och att genomföra dem inom en enda ram. Specifikt väljer användaren interaktivt ett förgrundsobjekt och systemet presenterar rekommendationer för var det kan flyttas på ett sätt som optimerar en inlärd estetisk metriska samtidigt lyda semantiska begränsningar. För fotografiska kompositioner som saknar en tydlig förgrundsobjekt, vårt verktyg ger användaren med beskärning eller expanderande rekommendationer som förbättrar dess estetiska kvalitet. Vi lär oss en stödvektor regressionsmodell för att fånga bildestetik från användardata och försöker optimera denna metriska under recomposition. I stället för att förskriva en helt automatiserad lösning tillåter vi användarstyrd objektsegmentering och målning för att säkerställa att det slutliga fotografiet matchar användarens kriterier. Vår strategi uppnår 86% noggrannhet i att förutsäga attraktiviteten av ovärderade bilder, jämfört med deras respektive mänskliga ranking. Dessutom rankas 73% av de bilder som återkomponeras med hjälp av vårt verktyg mer attraktiva än deras ursprungliga motsvarigheter av mänskliga taxare.
Bhattacharya m.fl. REF använde en interaktiv applikation, baserad på användarstyrd objektsegmentering och inpainting för att extrahera estetiska funktioner som därefter användes för utbildning av en modell för Support Vector Reggression (SVR).
1,408,109
A framework for photo-quality assessment and enhancement based on visual aesthetics
{'venue': 'ACM Multimedia', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,973
I denna uppsats studerar vi den metriska förvrängningen av deterministiska sociala valregler som väljer en vinnande kandidat från en uppsättning kandidater baserat på väljarnas preferenser. Väljare och kandidater finns i ett underliggande metriska utrymme. En väljare har en kostnad som motsvarar hennes avstånd till den vinnande kandidaten. Ordinella sociala valregler har endast tillgång till väljarnas vanliga preferenser som antas stämma överens med de metriska avstånden. Vårt mål är att utforma en ordinal social valregel med minimal förvrängning, vilket är det värsta-fallet förhållandet, över alla konsekventa mått, mellan den sociala kostnaden för regeln och den optimala allvetande regeln med kunskap om det underliggande metriska rummet. Förvrängningen av den bästa deterministiska regeln för socialt val var känd för att vara mellan 3 och 5. Det hade förmodats att någon regel som bara tittar på den viktade turnering grafen på kandidaterna inte kan ha distorsion bättre än 5. I vår tidning motbevisar vi den genom att presentera en viktad turneringsregel med snedvridning av 4.236. Vi utformar denna regel genom att generalisera den klassiska uppfattningen om avtäckta uppsättningar, och ytterligare visa att denna klass av regler inte kan ha snedvridning bättre än 4.236. Vi föreslår sedan en ny omröstningsregel, genom en alternativ generalisering av otäckta uppsättningar. Vi visar att om en kandidat som uppfyller kriteriet i denna omröstningsregel finns, ger valet av en sådan kandidat en snedvridning på 3 som motsvarar den nedre gränsen. Vi presenterar en kombinatorisk gissning som innebär förvrängning av 3, och verifiera det för ett litet antal kandidater och väljare genom datorexperiment. Med hjälp av vårt ramverk, visar vi också att välja en kandidat garanterar snedvridning av högst 3 när den viktade turneringen graf är cykliskt symmetrisk.
Mycket nyligen har Munagala och Wang REF lagt fram en (deterministisk) social valregel med förvrängning på högst 2 + 5 och 4,23 som är det första steget mot att överbrygga klyftan.
146,120,605
Improved Metric Distortion for Deterministic Social Choice Rules
{'venue': "EC '19", 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,974
Neurala sekvens-till-sekvens modeller har gett en livskraftig ny metod för abstrakt textsammanfattning (vilket innebär att de inte är begränsade till att helt enkelt välja och omgruppera passager från den ursprungliga texten). Dessa modeller har dock två brister: de kan komma att återge faktauppgifter felaktigt, och de tenderar att upprepa sig. I detta arbete föreslår vi en ny arkitektur som förstärker standardsekvens-till-sekvens uppmärksamhetsmodell på två ortogonala sätt. För det första använder vi ett hybridpekare-generator-nätverk som kan kopiera ord från källtexten via pekande, vilket underlättar korrekt reproduktion av information, samtidigt som förmågan att producera nya ord genom generatorn bibehålls. För det andra använder vi täckning för att hålla reda på vad som har sammanfattats, vilket avskräcker upprepningar. Vi tillämpar vår modell på CNN / Daily Mail summering uppgift, överträffar den nuvarande abstrakta state-of-the-art med minst 2 ROUGE poäng.
I forskningen om abstrakt textsammanfattning har den genererade pointer-nätverksmodellen REF uppnått den senaste effekten.
8,314,118
Get To The Point: Summarization with Pointer-Generator Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,975
Trots genombrotten i noggrannhet och hastighet av enkelbild super-upplösning med hjälp av snabbare och djupare konvolutionella neurala nätverk, återstår ett centralt problem i stort sett olöst: hur kan vi återställa de finare textur detaljer när vi super-löser på stora uppskalningsfaktorer? Uppförandet av optimeringsbaserade superupplösningsmetoder drivs främst av valet av den objektiva funktionen. Den senaste tidens arbete har till stor del fokuserat på att minimera det genomsnittliga kvadratrekonstruktionsfelet. De resulterande uppskattningarna har hög signal-till-brusförhållande, men de saknar ofta högfrekvensdetaljer och är perceptuellt otillfredsställande i den meningen att de inte matchar den trohet som förväntas vid den högre upplösningen. I denna artikel presenterar vi SRGAN, ett generativt kontradiktoriskt nätverk (GAN) för bildsuperupplösning (SR). Till vår kunskap är det den första ramen som kan sluta sig till fotorealistiska naturliga bilder för 4× upscaling faktorer. För att uppnå detta föreslår vi en perceptuell förlustfunktion som består av en kontradiktorisk förlust och en innehållsförlust. Den kontradiktoriska förlusten driver vår lösning till det naturliga bildgrenröret med hjälp av ett discriminatornätverk som är tränat för att skilja mellan de superupplösta bilderna och de ursprungliga fotorealistiska bilderna. Dessutom använder vi en innehållsförlust som motiveras av perceptuell likhet istället för likhet i pixelutrymme. Vårt djupa resterande nätverk kan återställa fotorealistiska texturer från kraftigt nedplockade bilder på offentliga riktmärken. En omfattande medel-opinion-score (MOS) test visar enormt betydande vinster i perceptuell kvalitet med hjälp av SRGAN. MOS poäng som erhållits med SRGAN är närmare de ursprungliga högupplösta bilder än de som erhållits med någon toppmodern metod.
Under 2017, Ledig m.fl. föreslagna SRGAN som använder en perceptuell förlustfunktion som består av en kontradiktorisk förlust och en innehållsförlust REF.
211,227
Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,976
Moderna flerkärniga processorer har lättillgängliga temperaturgivare som ger användbar information för dynamisk värmehantering. Dessa sensorer har nyligen visat sig vara ett potentiellt säkerhetshot, eftersom isolerade applikationer annars kan utnyttja dem för att etablera en termisk dold kanal och läcka begränsad information. Tidigare forskning visade experiment som dokumenterar genomförbarheten av (låg) kommunikation över denna kanal, men inte ytterligare analysera dess grundläggande egenskaper. Av detta skäl är de viktiga frågorna om kvantifiering av kanalkapacitet och uppnåeliga nivåer fortfarande obesvarade. För att ta itu med dessa frågor utformar och utnyttjar vi en ny metodik som utnyttjar både teoretiska resultat från informationsteori och experimentella data för att studera dessa termiska hemliga kanaler på moderna multicores. Vi använder spektralteknik för att analysera data från två representativa plattformar och uppskatta kapaciteten hos kanalerna från en källa applikation till temperaturgivare på samma eller olika kärnor. Vi uppskattar kapaciteten att vara i storleksordningen 300 bits per sekund (bps) för samma-kärna kanal, d.v.s. när du läser temperaturen på samma kärna där källapplikationen körs, och i storleksordningen 50 bps för 1-hop-kanalen, dvs. när du läser temperaturen på kärnan fysiskt bredvid den där källkodsapplikationen körs. Dessutom visar vi ett kommunikationssystem som uppnår en hastighet på mer än 45 räntepunkter på samma kanal och mer än 5 räntepunkter på 1-hopskanalen, med mindre än 1 procents sannolikhet för fel. Den högsta siffran som visades i tidigare arbeten var 1,33 bps på 1-hopskanalen med 11% sannolikhet för fel.
Bartolini m.fl. REF studerade kapaciteten hos en termisk förtäckt kanal i multicores 2016.
11,548,534
On the capacity of thermal covert channels in multicores
{'venue': "EuroSys '16", 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,977
Vid resursförsörjning för molntjänster är en viktig fråga hur resurser kan fördelas till en applikationsmix så att servicenivåavtal (SLA) för alla applikationer uppfylls. En prestandamodell med två interaktiva arbetsklasser används för att bestämma det minsta antal servrar som krävs för att uppfylla SLA för båda klasserna. För varje klass anges SLA av förhållandet: Prob [svarstid ≤ x] ≥ y. Två strategier för tilldelning av servrar beaktas: delad tilldelning (SA) och särskild tilldelning (DA). För FCFS-schemaläggning används analytiska resultat för responstidsfördelning för att utveckla en heuristisk algoritm som bestämmer en fördelningsstrategi (SA eller DA) som kräver det minsta antalet servrar. Effekten av denna algoritm utvärderas under en rad olika driftsförhållanden. SA:s resultat med icke-FCFS-schemaläggning undersöks också. Bland de schemaläggning discipliner som övervägs, en ny disciplin som kallas sannolikhetsberoende prioritet anses ha den bästa prestandan när det gäller att kräva det minsta antalet servrar.
Hu m.fl. REF införde en modell med två interaktiva jobbklasser för att fastställa det minsta antal servrar som krävs för att uppfylla servicenivåavtalen för två klasser av anlända jobb.
15,067,371
Resource provisioning for cloud computing
{'venue': 'CASCON', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,978
Många befintliga metoder för tvåspråkig lexicon inlärning från jämförbara corpora bygger på likheter i sammanhang vektorer. Dessa metoder lider av bullriga vektorer som i hög grad påverkar deras noggrannhet. Vi introducerar en metod för att filtrera detta buller som möjliggör mycket exakt inlärning av tvåspråkiga lexikon. Vår metod bygger på begreppet in-domäntermer som kan ses som de viktigaste sammanhangsmässigt relevanta orden. Vi tillhandahåller en metod för att identifiera sådana termer. Vår utvärdering visar att den föreslagna metoden kan lära sig mycket exakt tvåspråkiga lexikon utan att använda ortografiska funktioner eller ett stort första frölexikon. Dessutom inför vi en metod för att mäta likheten mellan två ord på olika språk utan att kräva någon inledande ordbok.
I REF föreslås också att sammanhangsvektorer ska baseras på de viktigaste sammanhangsrelevanta orden (indomäner) och därmed föreslå en metod för att filtrera bullret från sammanhangsvektorerna.
1,175,680
Bilingual lexicon extraction from comparable corpora using in-domain terms
{'venue': 'COLING - POSTERS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,979
Abstract-djupa neurala nätverk (DNNs) möjliggör innovativa tillämpningar av maskininlärning som bildigenkänning, maskinöversättning, eller malware upptäckt. Men djupt lärande kritiseras ofta för dess brist på robusthet i kontradiktoriska miljöer (t.ex. sårbarhet för kontradiktoriska ingångar) och allmän oförmåga att rationalisera sina förutsägelser. I detta arbete utnyttjar vi strukturen för djupt lärande för att möjliggöra nya lärandebaserade slutsatser och beslutsstrategier som uppnår önskvärda egenskaper såsom robusthet och tolkningsbarhet. Vi tar ett första steg i denna riktning och introducerar Deep k-Nearest Grannarna (DkNN). Denna hybrid classifier kombinerar k-nearest grannar algoritm med representationer av de data som lärts av varje skikt av DNN: en testingång jämförs med dess angränsande träningspunkter enligt det avstånd som skiljer dem i representationerna. Vi visar etiketterna på dessa närliggande punkter ger förtroende uppskattningar för indata utanför modellens utbildningsgrenrör, inklusive på skadliga indata som kontradiktoriska exempel och däri ger skydd mot indata som är utanför modellerna förståelse. Detta beror på att de närmaste grannarna kan användas för att uppskatta den bristande överensstämmelsen av, dvs. bristen på stöd för, en förutsägelse i träningsdata. Grannarna utgör också mänskliga-tolkbara förklaringar av förutsägelser. Vi utvärderar DkNN-algoritmen på flera datauppsättningar, och visar förtroendeuppskattningarna exakt identifiera indata utanför modellen, och att de förklaringar som ges av närmaste grannar är intuitiva och användbara för att förstå modellfel.
Djup k-Nearest Grannarna (DkNN) är en metod baserad på konforma förutsägelser för klassificeringsproblem som använder aktiveringar från alla dolda lager i ett neuralt nätverk REF.
3,882,460
Deep k-Nearest Neighbors: Towards Confident, Interpretable and Robust Deep Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,980
Vi anser att det klassiska problemet med att minimera den totala viktade flödestiden för icke-relaterade maskiner i online-non-clairvoyant inställning. I detta problem, en uppsättning jobb J anländer över tid för att schemaläggas på en uppsättning M maskiner. Varje jobb j har bearbetningslängd pj, vikt wj, och bearbetas med en hastighet av ij när schemalagd på maskin i. Online schemaläggaren vet värdet av wj och ij vid ankomsten av jobbet, men är inte medveten om mängden pj. Vi presenterar den första online-algoritmen som är skalbar (1 + )-hastighet O( 1 2 )-konkurrenskraftig för alla konstanter > 0) för det totala viktade flödestidsmålet. Inga icke-triviala resultat var kända för denna inställning, förutom för det mest grundläggande fallet av identiska maskiner. Vårt resultat löser ett stort öppet problem i online schemaläggning teori. Dessutom visar vi att inget arbete behöver mer än ett logaritmiskt antal flyttningar. Vi utökar ytterligare vårt resultat och ger en skalbar algoritm för målet att minimera total vägd flödestid plus energikostnad för icke-relaterade maskiner. I detta problem, varje maskin kan påskyndas av en faktor f −1 i (P ) när man konsumerar power P, där fi är en godtycklig strikt konvex effekt funktion. I synnerhet får vi en O (γ 2 )-konkurrenskraftig algoritm när alla effektfunktioner är av form s γ. Dessa är de första icke-triviala icke-klairvoyant resultat i någon miljö med heterogena maskiner. Den viktigaste algoritmiska idén är att låta jobb migrera själviskt tills de konvergerar till jämvikt. I detta syfte definierar vi ett spel där varje jobbs nytta som är nära knuten till den momentana ökningen av det mål som jobbet är ansvarigt för, och varje maskin förklarar en politik som ger prioritet åt jobb baserade på när de migrerar till det, och utförandet hastigheter. Detta har en anda som liknar samordningsmekanismer som försöker uppnå nära optimal välfärd i närvaro av själviska agenter (jobb). Så vitt vi vet är detta det första arbetet som visar nyttan av idéer från samordningsmekanismer och Nash equilibria för att designa och analysera online-algoritmer.
För den allmänna bedömningen av icke-klairvoyant vägd flödestid på icke-närstående maskiner, Im et al. REF visade att viktat round-robin med en lämplig migrationspolitik ger en (2 + ε) konkurrenskraftig algoritm med (1 + ε) hastighetsförstärkning.
896,530
SelfishMigrate: A Scalable Algorithm for Non-clairvoyantly Scheduling Heterogeneous Processors
{'venue': '2014 IEEE 55th Annual Symposium on Foundations of Computer Science', 'journal': '2014 IEEE 55th Annual Symposium on Foundations of Computer Science', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,981
Abstract-Utbildning en djup konvolutional neurala nätverk (CNN) från grunden är svårt eftersom det kräver en stor mängd märkta träningsdata och en hel del expertis för att säkerställa korrekt konvergens. Ett lovande alternativ är att finjustera ett CNN som har förtränats med till exempel en stor uppsättning märkta naturliga bilder. De stora skillnaderna mellan naturliga och medicinska bilder kan dock avråda från sådan kunskapsöverföring. I detta dokument försöker vi besvara följande centrala fråga i samband med medicinsk bildanalys: Kan användningen av förträngda djupa CNN med tillräcklig finjustering eliminera behovet av att utbilda ett djupt CNN från grunden? För att ta itu med denna fråga övervägde vi 4 olika medicinska avbildningstillämpningar i 3 specialiteter (radiologi, kardiologi och gastroenterologi) som innefattar klassificering, detektion och segmentering från 3 olika avbildningsmetoder, och undersökte hur prestandan hos djupa CNNs tränade från grunden jämfört med de förtränade CNNs finjusterade på ett skiktmässigt sätt. Våra experiment har genomgående visat att (1) användningen av ett förtränat CNN med lämplig finjusteringsutformning eller, i värsta fall, utfört såväl som ett CNN utbildat från grunden; (2) finjusterade CNN:er var mer robusta än CNN:er utbildade från grunden; (3) varken ytlig inställning eller djup inställning var det optimala valet för en viss applikation; och (4) vårt lagermässigt finjusterande system kunde erbjuda ett praktiskt sätt att uppnå bästa möjliga prestanda för den applikation som finns tillgänglig baserat på mängden tillgängliga data.
REF ger en fördjupad diskussion och jämförande resultat av utbildning från grunden jämfört med finjustering i vissa medicinska tillämpningar.
32,710
Convolutional Neural Networks for Medical Image Analysis: Full Training or Fine Tuning?
{'venue': 'IEEE Transactions on Medical Imaging. 35(5):1299-1312 (2016)', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine', 'Mathematics']}
81,982
Sammanfattning av denna webbsida: Prognos om byggnadsenergiförbrukning spelar en viktig roll för att förbättra energiutnyttjandet genom att hjälpa byggherrar att fatta bättre beslut. Men som ett resultat av slumpmässighet och bullriga störningar, är det inte en lätt uppgift att inse exakt förutsägelse av byggnadsenergiförbrukningen. För att uppnå bättre exakthet i prognoserna om energiförbrukningen presenteras i detta dokument ett extremt djupt lärande. Det föreslagna tillvägagångssättet kombinerar staplade autokodrar (SAEs) med den extrema inlärningsmaskinen (ELM) för att dra nytta av sina respektive egenskaper. I detta föreslagna tillvägagångssätt används SAE för att extrahera egenskaperna byggnadsenergiförbrukning, medan ELM används som en prediktor för att få korrekta förutsägelseresultat. För att bestämma indatavariablerna i den extrema djupt lärande modellen, den partiella autokorrelationsanalysmetoden används. Dessutom, för att undersöka resultaten av den föreslagna metoden, det jämförs med några populära maskininlärningsmetoder, såsom den bakåtutbredande neurala nätverket (BPN), stödja vektor regression (SVR), den generaliserade radial bas funktion neurala nätverket (GRBFNN) och multipel linjär regression (MLR). Experimentella resultat visar att den föreslagna metoden har bästa förutsägelseprestanda i olika fall av byggnadsenergiförbrukning.
Prognosen för byggnadsenergiförbrukning tillämpades också i REF.
43,337,949
Building Energy Consumption Prediction: An Extreme Deep Learning Approach
{'venue': None, 'journal': 'Energies', 'mag_field_of_study': ['Engineering']}
81,983
I detta dokument föreslår och demonstrerar vi ett nytt trådlöst kameranätverkssystem, CITRIC. Kärnkomponenten i detta system är en ny maskinvaruplattform som integrerar en kamera, en frekvensskalbar (upp till 624 MHz) CPU, 16 MB FLASH och 64 MB RAM på en enda enhet. Apparaten ansluts sedan med en standard sensornätverksram för att bilda en kameraram. Designen gör det möjligt att i nätverk bearbeta bilder för att minska kommunikationskraven, som traditionellt har varit hög i befintliga kameranätverk med centraliserad bearbetning. Vi föreslår också en back-end klient/server arkitektur för att ge ett användargränssnitt till systemet och stödja ytterligare centraliserad bearbetning för applikationer på högre nivå. Vår kameraram möjliggör ett bredare utbud av distribuerade mönsterigenkänningsapplikationer än traditionella plattformar eftersom den ger mer datorkraft och en stramare integration av fysiska komponenter samtidigt som den fortfarande förbrukar relativt lite ström. Moten integreras dessutom enkelt med befintliga sensornätverk med låg bandbredd eftersom den kan kommunicera via IEEE 802.15.4-protokollet med andra sensornätverksplattformar. Vi demonstrerar vårt system på tre applikationer: bildkomprimering, målspårning och kameralokalisering.
Chen och Al. REF, föreslog och demonstrerade CITRIC, som är ett kamerabaserat trådlöst nätverk.
8,160,059
CITRIC: A low-bandwidth wireless camera network platform
{'venue': '2008 Second ACM/IEEE International Conference on Distributed Smart Cameras', 'journal': '2008 Second ACM/IEEE International Conference on Distributed Smart Cameras', 'mag_field_of_study': ['Computer Science']}
81,984
Ungefärlig sökning på närmaste granne (ANN) i högdimensionellt utrymme har blivit ett grundläggande paradigm i många tillämpningar. Nyligen har Locality Sensitive Hashing (LSH) och dess varianter erkänts som de mest lovande lösningarna på ANN-sökning. De senaste LSH-metoderna har dock en nackdel: tillgången till kandidatobjekt kräver ett stort antal slumpmässiga I/O-operationer. För att garantera kvaliteten på returnerade resultat bör tillräckliga föremål kontrolleras, vilket skulle innebära en enorm I/O-kostnad. För att ta itu med detta föreslår vi en ny metod, som heter Sorting Keys-LSH (SK-LSH), som minskar antalet sidåtkomster genom att lokalt arrangera kandidatobjekt. Vi definierar först en ny åtgärd för att utvärdera avståndet mellan den sammansatta hashtangenterna på två punkter. Därefter skapas en linjär ordningsrelation på uppsättningen sammansatta hashtangenter, och motsvarande datapunkter kan sorteras därefter. Därför kan datapunkter som ligger nära varandra enligt avståndsmåttet lagras lokalt i en indexfil. Under ANN-sökningen är endast ett begränsat antal disksidor bland få indexfiler nödvändiga för att få tillgång till tillräcklig kandidatgenerering och verifiering, vilket inte bara avsevärt minskar svarstiden utan också förbättrar riktigheten av de returnerade resultaten. Vår uttömmande empiriska studie över flera verkliga datauppsättningar visar den överlägsna effektiviteten och noggrannheten hos SK-LSH för ANN-sökningen, jämfört med toppmoderna metoder, inklusive LSB, C2LSH och CK-Means.
I SK-LSH REF, författarna föreslår en linjär beställning på Compound Hash Keys sådan att närliggande Compound Hash Keys lagras på samma (eller närliggande) sida på disken, vilket minskar det totala antalet I/Os.
11,901,196
SK-LSH: An Efficient Index Structure for Approximate Nearest Neighbor Search
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
81,985
Att bestämma graden av tjocktarmscancer från vävnadsrutschbanor är en rutinmässig del av den patologiska analysen. När det gäller kolorektal adenocarcinom (CRA) bestäms klassificeringen delvis av morfologi och graden av bildning av glandulära strukturer. Att uppnå överensstämmelse mellan patologer är svårt på grund av den subjektiva karaktären av klassificeringsbedömning. En objektiv klassificering med hjälp av datoralgoritmer kommer att vara mer konsekvent, och kommer att kunna analysera bilder mer i detalj. I detta papper mäter vi formen av körtlar med en ny metriska som vi kallar den Bästa Alignment Metric (BAM). Vi visar ett starkt samband mellan ett nytt mått på glandulär form och tumörens grad. Vi använde formspecifika parametrar för att utföra en tvåklassig klassificering av bilder i normal eller cancerartad vävnad och en treklass klassificering i normal, låggradig cancer, och höggradig cancer. Uppgiften att upptäcka körtelgränser, som är en förutsättning för formbaserad analys, utfördes med hjälp av ett djupt konvolutionellt neuralt nätverk utformat för segmentering av körtelstrukturer. En stödvektor maskin (SVM) klassificerare utbildades med hjälp av form funktioner som härrör från BAM. Genom korsvalidering uppnådde vi en noggrannhet på 97% för klass två och 91% för klass tre. Colorectal cancer är en av de vanligaste cancerfallen och den fjärde vanligaste orsaken till cancerrelaterade dödsfall 1. År 2012 stod den för cirka 10 % av de cancerfall som registrerats över hela världen och var den tredje respektive näst vanligaste cancern hos män respektive kvinnor 1. Adenokarcinom kommer från epitelceller 2 och står för över 90% av de kolorektala tumörerna. Bestämning av graden av cancer från kolorektala vävnadsrutschbanor är en rutinmässig del av den patologiska analysen och är en av de potentiellt användbara parametrarna för att bestämma behandlingsplanen. Gradering sker för närvarande på grundval av graden av glandulär differentiering/formation som en tumör visar. Till exempel är väldifferentierade tumörer huvudsakligen glandulära (se bild. 1 d och e) medan de epitelceller som bildar körtelgränsen i dåligt differentierade tumörer sprider sig ojämnt, vilket gör det svårt att lokalisera enskilda körtlars gräns (se bild). 1 f och g). Strukturen på en normal körtel visas i bild. 1 c............................................................................. Glands, även kallade tubuli eller kryptor i litteraturen, är tredimensionella teströrsliknande strukturer. Normala körtlar förekommer på ett välorganiserat sätt, vars utseende, efter skärning genom röret för att få en vävnadssektion, är elliptisk, eller möjligen cirkulär, beroende på den vinkel som sektionen gör till röret. Höggradig adenocarcinom visar dock stora variationer i graden av körtelbildning samt i morfologi av dessa körtlar. Att uppnå överensstämmelse mellan patologer är svårt på grund av den subjektiva karaktären av klassificeringsbedömning och det faktum att många tumörer uppvisar olika mönster av differentiering. Förutom skillnader mellan och intra-observer, är denna process tidskrävande för patologer. Trots denna variation har tumörgrad visat sig ha klinisk och prognostisk signifikans 2-5. För närvarande finns det inget godkänt standardklassificeringssystem. De flesta system stratifierar dock tumörer i fyra grader (eller kombinationer av dem): grad 1 (väl differentierad), grad 2 (måttligt differentierad), grad 3 (dåligt differentierad) och grad 4 (odifferentierad). I de flesta studier som fokuserar på den prognostiska betydelsen av gradering har flera betyg slagits samman för att bilda ett tvåstegssystem enligt följande: kombinationen av väl differentierade och måttligt differentierade (graderna 1 och 2) definieras som
I Awan et al., en DCNN användes för att markera körtlar gränser och baserat på den glandulära formen, en två-klassig och tre-klass klassificering modell för colorectal adenocarcinom med hjälp av histologi bild utformades REF.
3,314,968
Glandular Morphometrics for Objective Grading of Colorectal Adenocarcinoma Histology Images
{'venue': 'Scientific Reports', 'journal': 'Scientific Reports', 'mag_field_of_study': ['Computer Science', 'Medicine']}
81,986
Konversationell modellering är en viktig uppgift i naturligt språkförståelse och maskinintelligens. Även om tidigare metoder finns, är de ofta begränsade till specifika domäner (t.ex. bokning av en flygbiljett) och kräver handgjorda regler. I detta dokument presenterar vi ett enkelt tillvägagångssätt för denna uppgift som använder den nyligen föreslagna sekvensen till sekvensramar. Vår modell samtalar genom att förutsäga nästa mening med tanke på den föregående meningen eller meningarna i ett samtal. Styrkan i vår modell är att den kan tränas från början till slut och därför kräver mycket färre handgjorda regler. Vi finner att denna enkla modell kan generera enkla konversationer med tanke på en stor konversationsträning dataset. Våra preliminära resultat tyder på att modellen, trots att den optimerar fel objektiv funktion, kan samtala väl. Det kan extrahera kunskap från både en domän specifika dataset, och från en stor, bullriga, och allmänna domän dataset av filmtexter. På en domänspecifik IT helpdesk dataset kan modellen hitta en lösning på ett tekniskt problem via konversationer. På en bullrig open-domain film utskrift dataset, kan modellen utföra enkla former av sunt förnuft resonemang. Som väntat finner vi också att bristen på konsekvens är ett vanligt misslyckande i vår modell.
En av de första studien med sekvens till sekvens modell för att bygga konversationsmodeller beskrivs i REF.
12,300,158
A Neural Conversational Model
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
81,987
Gait är ett attraktivt biometriskt kännetecken för synbaserad mänsklig identifiering. Tidigare arbete med befintliga offentliga datauppsättningar har visat att formsignaler ger bättre igenkänningshastigheter jämfört med rena rörelser. Form cutes är dock sköra till grova utseende variationer av en individ, till exempel promenader när du bär en boll eller en ryggsäck. Vi introducerar en roman, spatiotemporal Shape Variation-Based Frieze Mönster (SVB frieze mönster) representation för gång, som fångar rörelseinformation över tiden. SVB frieze-mönstret representerar normaliserad ramskillnad över gångcykler. Rader/kolumner av det vertikala/horisontella SVB frieze-mönstret innehåller rörelsevariationsinformation förstärkt av viktig raminformation med kroppsform. En tidssymmetrikarta över gångmönster är också konstruerad och kombinerad med vertikala/horisontella SVB frieze-mönster för mätning av olikhet mellan gångsekvenser. Experimentella resultat visar att vår algoritm förbättrar gångigenkänningsprestandan på sekvenser med och utan stora skillnader i siluettform. Vi demonstrerar överlägsen prestanda av denna beräkningsram över tidigare algoritmer med hjälp av form cues ensam på både CMU MoBo och UoS HumanID gait databaser.
Lee och Al. I REF föreslogs en formvariationsbaserad fris.
12,684,746
Shape Variation-Based Frieze Pattern for Robust Gait Recognition
{'venue': '2007 IEEE Conference on Computer Vision and Pattern Recognition', 'journal': '2007 IEEE Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
81,988
Abstract-Internet of Things (IoT) är ett framväxande system som omfattar många tekniker från olika områden. I detta dokument presenterar vi genomförandet av sakernas internet i en jordbruksindustri, särskilt när det gäller övervakning av ett automatiserat bevattningssystem. Övervakningssystemet består av ett webbaserat system, ett automatiskt bevattningssystem och ett kommunikationsnät. Huvudfokus för detta dokument ligger på det webbaserade systemet där data från SQLite-databasen används i web-GUI för att visa parametrar som status för vattennivån, flödeskonditionen för ventiler och rör samt den övergripande driften av automatiserat fertigationssystem. I tidningen beskrivs också hur jordbrukare kan komma åt webbplatsen, ställa in gödslingsschemat och bestämma gödningsmedlets formulering. Detta system skiljer sig från andra system och är utrustat med nödläge för att stoppa besprutningssystemet som kan styras direkt från webbplatsen. Vår metod använder en mikroprocessor för att hantera databaserna, webb-GUI och styra kommunikationen mellan fertigeringssystemet och det webbaserade systemet. Detta system kommer att göra det lättare för jordbrukarna att hantera sina automatiserade gödslingssystem praktiskt taget med hjälp av sina mobila enheter.
Abidin och Ibrahim Ref presenterade en webbaserad övervakning av ett automatiserat bevattningssystem.
35,499,054
Web-based monitoring of an automated fertigation system: An IoT application
{'venue': '2015 IEEE 12th Malaysia International Conference on Communications (MICC)', 'journal': '2015 IEEE 12th Malaysia International Conference on Communications (MICC)', 'mag_field_of_study': ['Computer Science']}
81,989
Abstract-WiFi-avlastning betraktas som en av de mest lovande teknikerna för att hantera den explosiva dataökning i cellulära nätverk på grund av dess höga dataöverföringshastighet och låga krav på enheter. I det här dokumentet undersöker vi problemet med avlastning av mobildata genom en tredje parts Wi-Fi-åtkomstpunkt (AP) för ett mobilt mobilt system. Ur mobiloperatörens perspektiv, genom att anta en användningsbaserad laddningsmodell, formulerar vi problemet som ett nyttomaximeringsproblem. I synnerhet tar vi hänsyn till tre scenarier: i) successiv indragning av interferens (SIC) som finns på både basstationen (BS) och AP, ii) SIC som varken finns på BS eller AP, iii) SIC som endast finns på BS. För (i) vi visar att nyttan maximering problem kan lösas genom att överväga dess avslappning problem, och vi visar att vår föreslagna data offloading systemet är nära optimal när antalet användare är stort. För (ii) bevisar vi att den optimala lösningen med stor sannolikhet är OneOne-Association, dvs. en användare ansluter till BS och en användare ansluter till AP. För (iii) visar vi att det med stor sannolikhet finns högst en användare som ansluter till AP, och alla andra användare ansluter till BS. Genom att jämföra dessa tre scenarier, bevisar vi att SIC decoders hjälper celloperatören maximera dess nytta. För att minska den beräknade bördan av BS föreslår vi en tröskelbaserad distribuerad data offloading system. Vi visar att det föreslagna distribuerade systemet fungerar bra om tröskelvärdet väljs på rätt sätt.
Dessutom studerar arbetet REF hur den successiva störningsavstängningen (SIC)-tekniken kan påverka mobila användares optimala val av nätverk när SIC används på de cellulära BS- eller WiFi-åtkomstpunkterna.
18,395,548
Mobile Data Offloading through A Third-Party WiFi Access Point: An Operator's Perspective
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,990
Att göra en affärsprocess mer dynamisk är en öppen fråga, och vi tror att det är möjligt om vi bryter ner affärsprocessstrukturen i en uppsättning regler, som ECA (Event Condition Action), regler, var och en av dem representerar en övergång av affärsprocessen, dvs... En kant i affärsprocessens grafstruktur. Som en följd av detta kan affärsprocessen motorn realiseras genom att återanvända och integrera en befintlig Regelmotor. Vi föreslår ett sätt att representera dynamisk affärsprocess när det gäller regler baserade på mönsteridentifiering. Med detta tillvägagångssätt är det lätt att tillämpa på en affärsprocess instans både användarbaserade personaliseringsregler och automatiska regler som härleds av ett underliggande sammanhang-medveten system.
I REF har författarna formulerat strukturen för en affärsprocess som en uppsättning regler i form av "Event - Condition -Action" (ECA).
12,720,533
Dynamic context-aware business process: a rule-based approach supported by pattern identification
{'venue': "SAC '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,991
Vi introducerar en allmän konditioneringsmetod för neurala nätverk som heter FiLM: Feature-wise Linear Modulation. FiLM-lager påverkar neurala nätverksberäkningar via en enkel, funktionsmässigt affin transformation baserad på konditioneringsinformation. Vi visar att FiLM-lager är mycket effektiva för visuellt resonemang - svar bildrelaterade frågor som kräver en process i flera steg, hög nivå - en uppgift som har visat sig svår för vanliga djupinlärningsmetoder som inte uttryckligen modellerar resonemang. Specifikt visar vi på visuella resonemang uppgifter som FiLM lager 1) halvera tillstånd-av-hjärta fel för CLEVR-riktmärket, 2) modulera funktioner på ett sammanhängande sätt, 3) är robusta till ablationer och arkitektoniska modifieringar, och 4) generalisera väl till utmanande, nya data från några exempel eller till och med noll-shot. Index termer: Djupt lärande, språk och vision 1. FiLM modeller uppnå state-of-the-art över en mängd olika visuella resonemang uppgifter, ofta med betydande marginaler. 2. Utgångspunkten är följande: FiLM verkar på ett enhetligt sätt. Den lär sig en komplex, underliggande struktur och manipulerar det konditionerade nätverkets funktioner på ett selektivt sätt. Det gör det också möjligt för CNN att korrekt lokalisera frågor-referenterade objekt. 3. Vad är det som händer? FiLM är robust; många FiLM modell ablations fortfarande outper-arXiv:1709.07871v1 [cs.CV]
Perez och Al. I REF infördes ett villkorat lager för visuellt resonemang.
19,119,291
FiLM: Visual Reasoning with a General Conditioning Layer
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,992
Abstract-Den algoritmiska utmaningen att maximera informationsspridning genom word-of-mouth processer i sociala nätverk har studerats kraftigt under det senaste årtiondet. Även om det har gjorts enorma framsteg och en imponerande arsenal av tekniker har utvecklats, algoritmiska ramar gör idealiserade antaganden om tillgång till nätverket som ofta kan resultera i dålig prestanda av state-of-the-art tekniker. I detta dokument introducerar vi ett nytt ramverk som vi kallar Adaptive Seeding. Ramverket är en två-stegs stokastisk optimering modell utformad för att utnyttja den potential som normalt ligger i angränsande noder av godtyckliga prover av sociala nätverk. Vårt huvudsakliga resultat är en algoritm som ger en konstant faktor approximation till den optimala adaptiva policyn för eventuell påverkansfunktion i Triggering-modellen.
REF använder stokastiska optimeringsmodeller för att maximera informationsspridningen i sociala nätverk.
7,956,595
Adaptive Seeding in Social Networks
{'venue': '2013 IEEE 54th Annual Symposium on Foundations of Computer Science', 'journal': '2013 IEEE 54th Annual Symposium on Foundations of Computer Science', 'mag_field_of_study': ['Computer Science']}
81,993
I detta arbete presenterar vi ämnesdiversifiering, en ny metod för att balansera och diversifiera personliga rekommendationslistor för att återspegla användarens fullständiga spektrum av intressen. Även om den är skadlig för genomsnittlig noggrannhet, visar vi att vår metod förbättrar användarnöjdheten med rekommendationslistor, särskilt för listor som genereras med hjälp av den gemensamma objektbaserade filtreringsalgoritmen. Vårt arbete bygger på tidigare forskning om recommendator systems, att titta på egenskaper rekommendationslistor som enheter i sin egen rätt snarare än att specifikt fokusera på noggrannheten hos enskilda rekommendationer. Vi introducerar den intra-lista likhet metriska för att bedöma den aktuella mångfalden av rekommendationslistor och ämnesdiversifiering metod för att minska den intra-lista likhet. Vi utvärderar vår metod med hjälp av bokrecommend data, inklusive offline analys på 361, 349 betyg och en online studie som omfattar mer än 2, 100 försökspersoner.
I REF, Ziegler et al. först föreslå en ny metriska, intra-lista likhet, för att representera den aktuella mångfalden av rekommendationslistor, och sedan en ny metod som kallas ämnesdiversifiering föreslås för att minska den intra-lista likheten av listor.
655,375
Improving recommendation lists through topic diversification
{'venue': "WWW '05", 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,994
Abstract-This paper beskriver prestandagränser för komprimerad avkänning (CS) där den underliggande glesa eller kompresserbara (parsely approximerbara) signalen är en vektor av icke-negativa intensiteter vars mätningar korrumperas av Poisson brus. I detta sammanhang kan standard CS-teknik inte tillämpas direkt av flera skäl. För det första gäller de vanliga signaloberoende och/eller bundna bullermodellerna inte Poissonbrus, som är icke-additivt och signalberoende. För det andra är de CS-matriser som vanligen anses inte genomförbara i verkliga optiska system eftersom de inte följer viktiga begränsningar, såsom icke-negativitet och fotonflödesbevarande. För det tredje leder den typiska minimeringen 2-1 till överbemanning i högintensiva regioner och övermod i lågintensiva områden. I den här artikeln beskriver vi hur en genomförbar positivitets- och flödesbevarande sensormatris kan konstrueras, och sedan analysera resultatet av en CS-rekonstruktionsstrategi för Poisson-data som minimerar en objektiv funktion som består av en negativ Poisson logsannolikhet och en straffterm som mäter signal gleshet. Vi visar att när den underliggande signalens totala intensitet ökar, sönderfaller en övre gräns på rekonstruktionsfelet i lämplig takt (beroende på signalens sammanpressbarhet), men att för en fast signalintensitet ökar den signalberoende delen av felbandet med antalet mätningar eller sensorer. Detta överraskande faktum är både teoretiskt bevisat och motiverat baserat på fysisk intuition.
REF har dock olika antaganden om signal- och sensormatrisen.
2,020,223
Compressed sensing performance bounds under Poisson noise
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
81,995
Vi beskriver sekventiella och parallella algoritmer som ungefär löser linjära program utan negativa koefficienter (alias. Blandade förpacknings- och täckproblem). För uttryckligen givna problem, vår snabbaste sekventiella algoritm returnerar en lösning som uppfyller alla begränsningar inom en 1 ± på en faktor i O (md log(m)/ på 2 ) tid, där m är antalet begränsningar och d är det maximala antalet begränsningar någon variabel visas i. Det viktigaste bidraget är att algoritmerna löser problem med blandad packning och täckning (till skillnad från problem med ren packning eller ren beläggning, som bara har "≤" eller bara " på" ojämlikheter, men inte båda) och körs i tid oberoende av den så kallade bredden av problemet.
För uttryckligen angivna packning och täckning, den snabbaste tidigare Lagrangian-relaxation algoritm som vi känner till körningar i tid O(r + c)c log(n) /ε 2 ), varc är det maximala antalet kolumner där någon variabel visas REF.
15,465,261
Sequential and Parallel Algorithms for Mixed Packing and Covering
{'venue': 'IEEE Symposium on Foundations of Computer Science (2001)', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
81,996
I detta dokument definierar vi formellt problemet med ämnesmodellering med nätverksstruktur (TMN). Vi föreslår en ny lösning på detta problem, som legaliserar en statistisk ämnesmodell med en harmonisk regularizer baserad på en grafstruktur i data. Den föreslagna metoden kombinerar ämnesmodellering och social nätverksanalys, och utnyttjar kraften i både statistiska ämnesmodeller och diskret legalisering. Utgången av denna modell kan sammanfatta bra ämnen i text, kartlägga ett ämne på nätverket, och upptäcka aktuella samhällen. Med lämpliga momentiationer av ämnesmodellen och den grafbaserade regularizern kan vår modell appliceras på ett brett spektrum av textbrytningsproblem såsom författaretopisk analys, samhällsupptäckt och rumslig textbrytning. Empiriska experiment på två datauppsättningar med olika genrer visar att vårt arbetssätt är effektivt och överträffar både textorienterade metoder och nätverksorienterade metoder. Den föreslagna modellen är allmän; den kan tillämpas på alla textsamlingar med en blandning av ämnen och en tillhörande nätverksstruktur.
REF legaliserar PLSA-ämnesmodellen med nätverksstrukturen som är kopplad till datan.
3,364,065
Topic modeling with network regularization
{'venue': 'In Proceedings of the 17th international conference on World Wide Web, WWW ’08', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,997
Abstract-Med början av extrem skala dator, I/O begränsningar gör det allt svårare för forskare att spara en tillräcklig mängd rå simuleringsdata till ihållande lagring. En potentiell lösning är att ändra dataanalys pipeline från en post-process centrerad till en samtidig metod baserad på antingen in-situ eller in-transit bearbetning. I detta sammanhang betraktas beräkningar in-situ om de använder de primära beräkna resurser, medan in-transit bearbetning avser avlastning beräkningar till en uppsättning sekundära resurser med asynkrona dataöverföringar. I denna uppsats utforskar vi utformningen och genomförandet av tre gemensamma analystekniker som vanligtvis utförs på storskaliga vetenskapliga simuleringar: topologisk analys, beskrivande statistik och visualisering. Vi sammanfattar algoritmisk utveckling, beskriver ett resursschemaläggningssystem för att samordna genomförandet av olika analysarbetsflöden, och diskuterar vårt genomförande med hjälp av ramverken DataSpaces och ADIOS som stöder effektiv datarörelse mellan in-situ och in-transit beräkningar. Vi demonstrerar effektiviteten i vårt lätta, flexibla ramverk genom att distribuera det på Jaguar XK6 för att analysera data som genereras av S3D, en massivt parallell turbulent förbränningskod. Vårt ramverk gör det möjligt för forskare som arbetar med datadjupet i extrem skala att utföra analyser vid ökade tidsupplösningar, minska I/O-kostnader och avsevärt förbättra tiden till insikt.
Bennett m.fl. REF använder både in-line och in-transit tekniker för analys och visualisering av en turbulent förbränningskod.
6,604,126
Combining in-situ and in-transit processing to enable extreme-scale scientific analysis
{'venue': '2012 International Conference for High Performance Computing, Networking, Storage and Analysis', 'journal': '2012 International Conference for High Performance Computing, Networking, Storage and Analysis', 'mag_field_of_study': ['Computer Science']}
81,998
Binär kod återanvändning är processen för att automatiskt identifiera gränssnittet och extrahera instruktioner och data beroenden av en kod fragment från ett körbart program, så att det är fristående och kan återanvändas av extern kod. Binär kod återanvändning är användbart för ett antal säkerhetsprogram, inklusive återanvändning av de egenutvecklade kryptografiska eller uppackande funktioner från ett malware prov och för att skriva om en nätverksdialogruta. I detta dokument genomför vi den första systematiska studien av automatiserad binär kod återanvändning och dess säkerhetsapplikationer. Den största utmaningen i binär kod återanvändning är att förstå kodfragmentets gränssnitt. Vi föreslår en ny teknik för att identifiera prototypen av en odokumenterad kodfragment direkt från programmets binära, utan tillgång till källkod eller symbolinformation. Vidare måste vi också extrahera koden själv från binären så att den är fristående och lätt kan återanvändas i ett annat program. Vi designar och implementerar ett verktyg som använder en kombination av dynamisk och statisk analys för att automatiskt identifiera prototypen och extrahera instruktionerna för en monteringsfunktion till en form som kan återanvändas av annan C-kod. Den extraherade funktionen kan köras oberoende av resten av programmets funktionalitet och delas med andra användare. Vi tillämpar vår strategi för scenarier som inkluderar extrahera kryptering och dekryptering rutiner från malware prover, och visar att dessa rutiner kan återanvändas av en nätverksproxy för att dekryptera krypterad trafik på nätverket. Detta gör det möjligt för nätverksproxyn att skriva om malwares krypterade trafik genom att kombinera extraherade krypterings- och dekrypteringsfunktioner med sessionsnycklarna och protokoll grammatiken. Vi visar också att vi kan återanvända ett kodfragment från en uppackningsfunktion för uppackningsrutinen för ett annat prov av samma familj, även om kodfragmentet inte är en komplett funktion.
Caballero m.fl. I REF föreslogs en blandad dynamisk och statisk metod som bestod av hybriddemontering och dataflödesanalys för att extrahera fristående omvandlingsfunktioner, identifiera kod- och databeroenden och extrahera funktionsgränssnittet (inflödes- och utflödesparametrar) för att återanvända det för uppackning av provet.
13,177,007
Binary Code Extraction and Interface Identification for Security Applications
{'venue': 'NDSS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
81,999
Sammanfattning av denna webbsida: I tidningen behandlas problemet med den uppkopplade måltäckningen (CTC) i trådlösa heterogena sensornätverk (WHSN) med flera avkänningsenheter, som kallas MU-CTC-problem. MU-CTC problem kan reduceras till en ansluten uppsättning täcka problem och ytterligare formuleras som ett heltal linjär programmering (ILP) problem. ILP-problemet är dock ett NP-komplett problem. Därför föreslås två distribuerade heuristiska system, REFS (återstående energi först system) och EEFS (energieffektivitet första system). I REFS tar varje sensor hänsyn till sin återstående energi och sina grannars beslut för att möjliggöra dess avkänningsenheter och kommunikationsenhet så att alla mål kan täckas för de egenskaper som krävs och de sensed data kan levereras till diskhon. Fördelarna med REFS är dess enkelhet och minskad kommunikation overhead. För att använda sensorernas energi på ett effektivt sätt föreslås dock EEFS. En sensor i EEFS anser att den bidrar till täckningen och uppkopplingen för att fatta ett bättre beslut. Till vår bästa kunskap är detta dokument det första att överväga måltäckning och konnektivitet gemensamt för WHSNs med flera avkänningsenheter. Simuleringsresultat visar att REFS och EEFS båda kan förlänga nätverkets livslängd effektivt. EEFS överträffar REFS i nätverkets livstid, men REFS är enklare.
I REF, Shih et al. beaktade problemet med den uppkopplade måltäckningen med flera avkänningsenheter, som skulle kunna reduceras till ett uppkopplat problem med täckningen och ytterligare formuleras som ett problem med linjär programmering (ILP).
10,732,774
On Connected Target Coverage for Wireless Heterogeneous Sensor Networks with Multiple Sensing Units
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Medicine', 'Computer Science']}
82,000
Den ökande mängden nätverksbaserade attacker utvecklades till en av de främsta frågorna som ansvarar för nätinfrastruktur och tjänsteavbrott. För att motverka dessa hot övervakas datornätverk för att upptäcka skadlig trafik och initiera lämpliga reaktioner. Att inleda en lämplig reaktion är dock en process för att välja ett lämpligt svar i samband med den identifierade nätverksbaserade attacken. Processen för att välja ett svar kräver att man tar hänsyn till ekonomin i en reaktion t.ex. risker och fördelar. Litteraturen beskriver flera svarsmodeller, men de är inte allmänt accepterade. Dessutom är dessa modeller och deras utvärdering ofta inte reproducerbara på grund av slutna testdata. I detta dokument introducerar vi en ny responsurvalsmodell, REASSESS, som gör det möjligt att minska nätverksbaserade attacker genom att införliva en intuitiv svarsurvalsprocess som utvärderar negativa och positiva effekter i samband med varje motåtgärd. Vi jämför REASSESS med modellerna för responsurval av IE-IRS, ADEPTS, CS-IRS och TVA och visar att REASSESS kan välja det lämpligaste svaret på en attack med tanke på de positiva och negativa effekterna och därmed minska effekterna av en nätverksbaserad attack. Dessutom visar vi att REASSESS är i linje med NIST-incidenten livscykel. Vi förväntar oss att REASSESS hjälper organisationer att välja den lämpligaste åtgärd mot en upptäckt nätverksbaserad attack, och därmed bidra till att mildra dem.
Ossenbuhl m.fl. REF, införa en response selection-modell som gör det möjligt att minska nätverksbaserade attacker baserat på en intuitiv svarsvalsprocess som utvärderar negativa och positiva effekter i samband med varje motåtgärd.
10,438,188
Towards Automated Incident Handling: How to Select an Appropriate Response against a Network-Based Attack?
{'venue': '2015 Ninth International Conference on IT Security Incident Management & IT Forensics', 'journal': '2015 Ninth International Conference on IT Security Incident Management & IT Forensics', 'mag_field_of_study': ['Engineering', 'Computer Science']}
82,001
Vi beskriver hur den kraftfulla "Divide and Concur" algoritmen för begränsningstillfredsställelse kan härledas som ett specialfall av en meddelande-passing version av Alternating Direction Method of Multipliers (ADMM) algoritm för konvex optimering, och införa en förbättrad meddelande-passing algoritm baserad på ADMM/DC genom att införa tre distinkta vikter för meddelanden, med "vissa" och "ingen åsikt" vikter, samt standardvikten som används i ADMM/DC. De "vissa" meddelandena gör att vår förbättrade algoritm att genomföra begränsning utbredning som ett specialfall, medan "no opinion" meddelanden hastighet konvergens för vissa problem genom att göra algoritmen fokusera endast på aktiva begränsningar. Vi beskriver hur vår tre-viktiga version av ADMM/DC kan ge avsevärt förbättrad prestanda för icke-konvexa problem som cirkelpackning och lösa stora Sudoku pussel, samtidigt som man behåller den exakta prestandan för ADMM för konvexa problem. Vi beskriver också fördelarna med vår algoritm jämfört med andra messagepassing-algoritmer baserade på trosutbredning.
REF studerar Divide and Concur algoritm som ett specialfall av en meddelande-passing version av ADMM, och införa en tre-viktig version av denna algoritm som avsevärt förbättrar prestandan för vissa icke konvexa problem som cirkelpackning och Sudoku pussel.
3,032,454
An Improved Three-Weight Message-Passing Algorithm
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Physics']}
82,002
En vanlig typ av fråga i rumsliga nätverk (t.ex. vägnätverk) är att hitta K närmaste grannar (KN) för ett givet frågeobjekt. Med dessa nätverk beror avstånden mellan objekten på deras nätverksanslutning och det är beräknings dyrt att beräkna avstånden (t.ex. kortaste vägar) mellan objekt. I detta dokument föreslår vi ett nytt tillvägagångssätt för att effektivt och korrekt utvärdera KNN-frågor i rumsliga nätverksdatabaser med hjälp av första ordningens Voronoi-diagram. Detta tillvägagångssätt bygger på att dela upp ett stort nätverk till små Voronoi-regioner och sedan förhandsberäkna avstånd både inom och över regionerna. Genom att lokalisera precomputationen inom regionerna sparar vi både på lagring och beräkning och genom att utföra beräkning över hela nätverket endast för gränspunkterna i de angränsande regionerna, undviker vi global pre-computation mellan varje node-par. Våra empiriska experiment med flera verkliga datauppsättningar visar att vår föreslagna lösning överträffar metoder som bygger på on-line avståndsberäkning med upp till en storleksordning, och ger en faktor av fyra förbättring av selektiviteten av filtersteget jämfört med indexbaserade metoder.
I vårt tidigare arbete REF föreslog vi en lösning för NN frågor i vägnätsdatabaser som bygger på att använda nätverk Voronoi diagram.
52,800,053
Voronoi-based k nearest neighbor search for spatial network databases
{'venue': 'In VLDB', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,004
Abstract-Topology kontroll i ett sensornätverk balanserar belastningen på sensornoder och ökar nätverkets skalbarhet och livslängd. Klustersensorn noder är en effektiv topologi kontroll metod. I detta dokument föreslår vi en ny distribuerad klusterstrategi för långlivade ad hoc-sensornätverk. Vårt föreslagna tillvägagångssätt gör inga antaganden om förekomsten av infrastruktur eller om nodkapacitet, förutom tillgängligheten av flera effektnivåer i sensornoder. Vi presenterar ett protokoll, HEED (Hybrid Energy-Efficient Distribuated clustering), som periodiskt väljer klusterhuvuden enligt en hybrid av noden restenergi och en sekundär parameter, såsom nod närhet till sina grannar eller nod grad. HEED avslutas i Oð1 ska iterationer, ådrar sig låga budskap overhead, och uppnår ganska enhetlig kluster huvud distribution över nätverket. Vi bevisar att, med lämpliga gränser på nodtäthet och intrakluster och intercluster överföringsintervall, kan HEED asymptotiskt säkert garantera anslutning av klustererade nätverk. Simuleringsresultat visar att vårt föreslagna tillvägagångssätt är effektivt för att förlänga nätverkets livslängd och stödja skalbar dataaggregation.
Inom dessa begränsningar Younis och Fahmy föreslog en distribuerad klustering strategi, HEED, för att maximera livslängden för ad hoc-sensornätverk REF.
2,012,679
HEED: a hybrid, energy-efficient, distributed clustering approach for ad hoc sensor networks
{'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']}
82,005
Abstract-Vi anser att ett statusuppdateringssystem i realtid består av ett källdestinationsnätverk. En stokastisk process observeras vid källan, och prover, så kallade statusuppdateringar, extraheras vid slumpmässiga tillfällen, och levereras till destinationen. I detta dokument utökar vi begreppet åldrande av information genom att införa metriska kostnader för uppdateringsförsening (CoUD) för att karakterisera kostnaden för att ha gammal information på destinationen. Vi introducerar Value of Information of Update (VoIU) metrisk som fångar minskningen av CoUD vid mottagandet av en uppdatering. Betydelsen av VoIU metrisk ligger i dess dragbarhet som möjliggör ett alternativt prestandakriterium i statusuppdateringssystem.
I REF föreslogs värdet av uppdateringar av information (VoIU) för att mäta minskningen av förseningskostnaderna vid mottagandet av en ny uppdatering.
12,160,015
Age and value of information: Non-linear age case
{'venue': '2017 IEEE International Symposium on Information Theory (ISIT)', 'journal': '2017 IEEE International Symposium on Information Theory (ISIT)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,006
Abstract-Vi anser energieffektiv nätkodning design i trådlösa nätverk med flera unicast sessioner. Vår strategi dekomponerar flera unicast sessioner i en superposition av multicast och unicast sessioner, med kodning som endast sker inom varje session. Vi ger en optimeringsmetod som är mer generell än den befintliga giftfri optimering formulering. När det gäller trådlös, vi överväga XOR kodning och ge en uppnåelig hastighet region för en primär interferens modell. För att förenkla nätverksdriften ger vi en oöverträffad backpressurealgoritm som inte optimerar hörseln på överföringarna, och ett praktiskt protokoll som kallas COPR baserat på den omedvetna backpressurealgoritmen. Simuleringsförsök visar att COPR i stor utsträckning minskar näteffektförbrukningen över befintliga algoritmer. I detta dokument anser vi att energieffektiv cross-layer optimering för trådlösa nätverk genom att utnyttja nätverkskodning och flera-reception vinst. Vi fokuserar på nätverkskodning över flera unicast sessioner, eller intersession nätverk kodning. Optimal intersession nätverk kodning design är ett öppet problem; olika suboptimala algoritmer har föreslagits, t.ex. Vår strategi dekomponerar flera unicast sessioner i en superposition av multicast och unicast sessioner, med kodning som endast sker inom varje session. När det gäller trådlösa nätverk anser vi att enkel one-hop XOR kodning som i COPE [1], där varje nod använder kunskap om vad dess grannar har hört för att utföra opportunistiska nätverk kodning så att varje kodat paket kan avkodas omedelbart vid nästa hop. Referens [1] visade betydande genomströmningsvinster för nätkodning som ökar med trängselnivån. I detta dokument överväger vi fördelarna med nätkodning för energibesparing i energibelastade miljöer med mindre trafikstockningar. På så sätt utvecklar vi generella tekniker som även gäller för optimering av genomströmning och kontroll av överbelastning i trådlösa nätverk. För att utnyttja multi-reception vinst, vi modellerar nätverket som en riktad hypergraf. Den möjliga hastighetsregionen för en Hop XOR-kodning bestäms enligt en primär interferensmodell. Det är svårt och komplicerat att utforma dynamiska schemaläggnings- och kodningsalgoritmer för att uppnå hela hastighetsregionen eftersom det normalt kräver optimering över hörda flöden. För att förenkla nätverksdriften föreslås en oöverträffad backpressurealgoritm som inte optimerar avlyssnade flöden. Länk schemaläggning problem anses vara en maximal viktad hypergraph matchning problem, som kan lösas distribuerat av
I REF uppnås energieffektiv kommunikation i trådlösa nätverk genom att nätkodningssessionerna dekomponeras till multicast och unicast.
7,200,429
Energy Efficient Opportunistic Network Coding for Wireless Networks
{'venue': 'IEEE INFOCOM 2008 - The 27th Conference on Computer Communications', 'journal': 'IEEE INFOCOM 2008 - The 27th Conference on Computer Communications', 'mag_field_of_study': ['Computer Science']}
82,007
Trots inlärningsbaserade metoder som visar lovande resultat i single view djupuppskattning och visuell odometri, de flesta befintliga metoder behandlar uppgifterna på ett övervakat sätt. Nya metoder för bedömning av djup i en enda vy utforskar möjligheten att lära sig utan full övervakning via minimering av fotometriska fel. I detta papper undersöker vi användningen av stereosekvenser för att lära djup och visuell odometri. Användningen av stereosekvenser gör det möjligt att använda både rumsliga (mellan vänster-höger par) och temporal (framåt) fotometriska warpfel, och begränsar scenens djup och kamerans rörelse att vara i en gemensam, realworld skala. Vid provtillfället kan vårt ramverk uppskatta single view djup och två-vy odometri från en monocular sekvens. Vi visar också hur vi kan förbättra en standard fotometrisk warpförlust genom att överväga en warp av djupa funktioner. Vi visar genom omfattande experiment att: (i) gemensam utbildning för single view djup och visuell odometri förbättrar djupförutsägelse på grund av den ytterligare begränsning som åläggs på djup och uppnår konkurrenskraftiga resultat för visuell odometri; (ii) djup funktionsbaserad warpförlust förbättrar vid enkel fotometrisk warpförlust för både enkelseende djupuppskattning och visuell odometri. Vår metod överträffar befintliga inlärningsbaserade metoder på KITTI-kördatauppsättningen i båda uppgifterna. Källkoden finns tillgänglig på https://github.com/Huangying-Zhan/ Deph-VO-Feat.
Zhan m.fl. REF föreslog en oövervakad djupuppskattningsarkitektur som använder stereosekvenser för att möjliggöra användning av både rumsliga och tidsmässiga fotometriska warpfel och begränsningar.
4,578,162
Unsupervised Learning of Monocular Depth Estimation and Visual Odometry with Deep Feature Reconstruction
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
82,008
I detta arbete tar vi upp uppgiften att semantisk bildsegmentering med Deep Learning och gör tre huvudsakliga bidrag som experimentellt visas ha betydande praktiska meriter. För det första lyfter vi fram convolution med uppsamlade filter, eller "atreous convolution", som ett kraftfullt verktyg i täta förutsägelser uppgifter. Atrous convolution tillåter oss att uttryckligen kontrollera den upplösning vid vilken funktionssvar beräknas inom Deep Convolutional Neural Networks. Det gör det också möjligt för oss att effektivt utvidga synfältet för filter för att införliva större sammanhang utan att öka antalet parametrar eller mängden beräkning. För det andra föreslår vi upphetsande rumslig pyramidpooling (ASPP) för att på ett robust sätt segmentera objekt på flera skalor. ASPP sonderar ett inkommande konvolutionellt funktionsskikt med filter med flera provtagningshastigheter och effektiva synfält, vilket fångar föremål såväl som bildkontext i flera skalor. För det tredje förbättrar vi lokaliseringen av objektgränser genom att kombinera metoder från DCNN och probabilistiska grafiska modeller. Den ofta använda kombinationen av max-pooling och downsampling i DCNNs uppnår Invariance men har en vägtull på localization noggrannhet. Vi övervinner detta genom att kombinera svaren på det slutliga DCNN-skiktet med ett helt uppkopplat villkorligt Random Field (CRF), som visas både kvalitativt och kvantitativt för att förbättra lokaliseringsprestandan. Vårt föreslagna "DeepLab" system sätter den nya state-of-art vid PASCAL VOC-2012 semantiska bildsegmentering uppgift, nå 79,7 procent mIOU i testuppsättningen, och avancerar resultaten på tre andra datauppsättningar: PASCAL-Context, PASCAL-Person-Part, och Cityscapes. Alla våra koder görs allmänt tillgängliga på nätet.
State-of-the-art metoder, såsom DeepLab REF, förfina resultaten av ett djupt konvolutionsnätverk med en fullt ansluten villkorlig slumpmässig fält för att förbättra lokalisering noggrannheten av objektgränser.
3,429,309
DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
82,009
Objektsegmentering på institutionsnivå är en viktig men underexploaterad uppgift. De flesta av de senaste metoderna bygger på regionala förslagsmetoder för att extrahera kandidatsegment och sedan använda objektklassificering för att producera slutliga resultat. Att skapa tillförlitliga regionförslag i sig är dock en ganska utmanande och olöst uppgift. I detta arbete, föreslår vi ett förslag-fri nätverk (PFN) för att ta itu med instans-nivå objekt segmentering problem, som ger antalet fall av olika kategorier och pixel-nivå information om i) koordinaterna för instans avgränsande rutan varje pixel tillhör, och ii) förtroenden för olika kategorier för varje pixel, baserat på pixel-till-pixel djupa konvolutionella neurala nätverk. Alla utgångar tillsammans, genom att använda någon off-the-shälf klustering metod för enkel efterbehandling, kan naturligt generera den ultimata instans-nivå objekt segmentering resultat. Hela PFN kan enkelt tränas utan krav på en förslagsgenereringsfas. Omfattande utvärderingar av det utmanande riktmärket PASCAL VOC 2012 för semantisk segmentering visar hur effektiv den föreslagna PFN-lösningen är utan att förlita sig på några förslagsgenereringsmetoder.
Liang m.fl. REF förutsäger antalet instanser i en bild och instans plats för varje pixel tillsammans med semantisk mask.
206,768,798
Proposal-Free Network for Instance-Level Object Segmentation
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
82,010
Clustering är en viktig uppgift när det gäller att utvinna dataströmmar som utvecklas. Förutom de begränsade minnes- och enpass-begränsningarna innebär de evolverande dataströmmarnas karaktär följande krav för strömhopning: inget antagande om antalet kluster, upptäckt av kluster med godtycklig form och förmåga att hantera avvikelser. Medan många klusteralgoritmer för dataströmmar har föreslagits, erbjuder de ingen lösning på kombinationen av dessa krav. I detta dokument presenterar vi DenStream, ett nytt tillvägagångssätt för att upptäcka kluster i en framväxande dataström. Mikroklustret "dense" (som kallas kärnmikrokluster) introduceras för att sammanfatta kluster med godtycklig form, medan de potentiella mikrokluster-kluster- och avvikande mikroklusterstrukturer föreslås för att upprätthålla och särskilja de potentiella klustren och utflytarna. En ny beskärningsstrategi är utformad utifrån dessa begrepp, vilket garanterar precisionen hos mikroklustrens vikter med begränsat minne. Vår prestandastudie över ett antal verkliga och syntetiska datauppsättningar visar hur effektiv och effektiv vår metod är.
DenStream REF är en densitetsmikroklustersalgoritm för utveckling av dataström.
5,939,988
Density-based clustering over an evolving data stream with noise
{'venue': 'In 2006 SIAM Conference on Data Mining', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,011
Abstrakt. Vi presenterar ett allmänt krypteringsprogram med följande egenskaper. Med tanke på ett förgreningsprogram P och en kryptering c av en ingång x, är det möjligt att effektivt beräkna en koncis chiffertext c från vilken P (x) effektivt kan avkodas med hjälp av den hemliga nyckeln. Storleken på c beror polynomiellt på storleken på x och längden på P, men beror inte ytterligare på storleken på P. Som intressanta specialfall, kan man effektivt utvärdera ändliga automata, beslut träd, och OBDDs på krypterade data, där storleken på den resulterande chiffertext c inte beror på storleken på det objekt som utvärderas. Dessa är de första allmänna representationsmodeller för vilka ett sådant genomförbarhetsresultat visas. Vår huvudsakliga konstruktion generaliserar tillvägagångssättet av Kushilevitz och Ostrovsky (FOCS 1997) för att bygga enserver Privat Information Retrieval protokoll. Vi visar också hur man stärker ovanstående så att c inte innehåller ytterligare information om P (annat än P (x) för vissa x) även om den offentliga nyckeln och chiffertext c är illvilligt bildas. Detta ger en två-meddelande säker protokoll för att utvärdera en längd bundna grenningsprogram P som innehas av en server på en ingång x hålls av en klient. Ett utmärkande drag för detta protokoll är att det döljer storleken på serverns indata P från klienten. Framför allt är kundens arbete oberoende av storleken på P.
Av särskild betydelse, dock, är ett protokoll på grund av Ishai och Paskin REF att utvärdera en grenningsprogram (som kan användas för att koda en DFA) på krypterad data.
7,654,741
Evaluating branching programs on encrypted data
{'venue': 'In TCC 2007', 'journal': None, 'mag_field_of_study': ['Computer Science']}
82,012
Abstract-BitTorrent (BT) har genomfört en betydande och ständigt ökande del av Internettrafiken. Flera konstruktioner har nyligen föreslagits och genomförts för att förbättra resursutnyttjandet genom att överbrygga applikationsskiktet (overlay) och nätskiktet (underlay), men dessa konstruktioner är till stor del beroende av Internetinfrastrukturer, såsom Internetleverantörer och CDN. Dessutom kräver de också en omfattande utbyggnad av sina system för att fungera effektivt. Följaktligen kräver de flera insatser som går långt utöver enskilda användares förmåga att i stor utsträckning använda sig av Internet. I detta dokument, som syftar till att bygga en infrastrukturoberoende anläggning på användarnivå, presenterar vi vår design, implementering och utvärdering av ett topologi-medvetet BT-system, kallat TopBT, för att avsevärt förbättra det totala utnyttjandet av Internetresurser utan att försämra användarens nedladdningsprestanda. Den unika egenskapen hos TopBT-klienten ligger i att en TopBT-klient aktivt upptäcker nätverksproximiteter (till anslutna deltagare) och använder både närhet och överföringshastighet för att upprätthålla snabb nedladdning samtidigt som man minskar sändningsavståndet för BT-trafiken och därmed Internettrafiken. Som ett resultat, en TopBT-klient varken kräver flöden från stora Internetinfrastrukturer, såsom Internetleverantörer eller CDNs, eller kräver storskalig spridning av andra TopBT-klienter på Internet för att fungera effektivt. Vi har implementerat TopBT baserat på allmänt använda öppen källkod BT-klientens kodbas, och gjort programvaran allmänt tillgänglig. Genom att distribuera TopBT och andra BitTorrent-klienter på hundratals Internet-värdar, visar vi att i genomsnitt TopBT kan minska cirka 25% nedladdningstrafik samtidigt uppnå en 15% snabbare nedladdningshastighet jämfört med flera vanliga BT-klienter. TopBT har använts i stor utsträckning på Internet av många användare över hela världen.
Ren Ref presenterade ett topologi-medvetet BT-system, som upptäcker nätverksproximat (till anslutna kamrater) aktivt och det använder både proximate och överföringshastigheter för att upprätthålla snabb nedladdning samtidigt minska sändningsavståndet för BT-trafiken och Internettrafiken, experiment visade att den föreslagna metoden skulle kunna minska cirka 25 % nedladdningstrafik samtidigt som en 15 % snabbare nedladdningshastighet uppnås jämfört med flera vanliga BT-klienter i genomsnitt.
7,719,622
TopBT: A Topology-Aware and Infrastructure-Independent BitTorrent Client
{'venue': '2010 Proceedings IEEE INFOCOM', 'journal': '2010 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Computer Science']}
82,013
Abstract-The research community har börjat leta efter IP trafik klassificering tekniker som inte är beroende av "kända" TCP eller UDP port nummer, eller tolka innehållet i paket nyttolaster. Nytt arbete håller på att utvecklas när det gäller användningen av statistiska trafikkarakteristika för att underlätta identifierings- och klassificeringsprocessen. Detta undersökningspapper undersöker framväxande forskning om tillämpningen av maskininlärning (ML) tekniker för IP-trafik klassificering - en tvärvetenskaplig blandning av IP-nätverk och data mining tekniker. Vi tillhandahåller sammanhang och motivation för tillämpning av ML-teknik på IP-trafikklassificering, och ser över 18 betydande arbeten som omfattar den dominerande perioden från 2004 till början av 2007. Dessa verk kategoriseras och granskas enligt deras val av ML-strategier och primära bidrag till litteraturen. Vi diskuterar också ett antal centrala krav för anställning av ML-baserade trafikklassare i operativa IP-nätverk, och kritiserar kvalitativt i vilken utsträckning de granskade arbetena uppfyller dessa krav. Även öppna frågor och utmaningar på området diskuteras.
Nguyen m.fl. REF gav sammanhang och motiv för tillämpning av ML-teknik på IP-trafikklassificering, och gick igenom några viktiga arbeten.
13,172,512
A survey of techniques for internet traffic classification using machine learning
{'venue': 'IEEE Communications Surveys & Tutorials', 'journal': 'IEEE Communications Surveys & Tutorials', 'mag_field_of_study': ['Computer Science']}
82,014
Icke-ortogonal multipel åtkomst (NOMA) har nyligen ansetts som en viktig möjliggörande teknik för 5G cellulära system. I NOMA, genom att utnyttja kanalen vinna skillnader, flera användare multiplexas in i överföring makt domän och sedan icke-ortogoniskt planerad för överföring på samma spektrumresurser. Successiv störningsavstängning (SIC) tillämpas sedan vid mottagarna för att avkoda meddelandesignalerna. I detta dokument beskriver vi i korthet skillnaderna i arbetsprinciperna för upplänk och nedlänkning av NOMA-överföringar i ett cellulärt trådlöst system. Sedan, för både upplänk och nedlänk NOMAs, vi formulerar en summer-throughput maximization problem i en cell så att användaren kluster (dvs. att gruppera användare i en enda kluster eller flera kluster) och makt tilldelningar i NOMA kluster kan optimeras under begränsningar överföring effekt, minimal hastighet krav på användarna, och SIC begränsningar. På grund av den kombinatoriska karaktären av den formulerade blandade heltal icke-linjär programmering problem, löser vi problemet i två steg, dvs. genom att först gruppera användare i kluster och sedan optimera sina respektive makt tilldelningar. Vi föreslår i synnerhet ett system med icke-optimala användargrupperingar med låg komplexitet. Det föreslagna systemet utnyttjar kanalen för att få skillnader mellan användare i ett NOMA-kluster och grupperar dem i ett enda kluster eller flera kluster för att förbättra systemets totala genomströmning. För en given uppsättning NOMA-kluster får vi sedan fram den optimala maktfördelningspolicyn som maximerar det totala genomflödet per NOMA-kluster och i sin tur maximerar det totala systemgenomströmningen. Med hjälp av Karush-Kuhn-Tucker optimala förhållanden härleds slutna lösningar för optimal effekttilldelning för alla klusterstorlekar, med tanke på både upplänk och nedlänk NOMA-system. Numeriska resultat jämför NOMA:s och OMA:s resultat och illustrerar betydelsen av NOMA i olika nätverksscenarier. INDEX TERMS 5G cellulär, icke-ortogonal multipel åtkomst (NOMA), ortogonal multipel åtkomst (OMA), makt allokering, dataflöde maximering, användargruppering. Nyligen har ett stort antal forskningsinsatser inletts för att identifiera de potentiella vinsterna med NOMA i både downlink VOLUME 4, 2016 2169-3536
Författarna i REF undersökte dynamisk användarklustring och effektallokering för både nedlänk och upplänk NOMA genom att formulera ett totalgenomströmningsmaximeringsproblem.
2,012,722
Dynamic User Clustering and Power Allocation for Uplink and Downlink Non-Orthogonal Multiple Access (NOMA) Systems
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
82,015