src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
Situationen blir dock lite mer komplex när vi börjar bygga och interagera med maskiner eller robotar som antingen ser ut som människor eller har mänskliga funktioner och förmågor. Då kan människor mycket väl interagera med sina mänskliga maskiner på ett sätt som efterliknar mänsklig kommunikation. Till exempel, om en robot har ett ansikte, kan en människa interagera med det på liknande sätt som hur människor interagerar med andra varelser med ansikten. Särskilt skulle en människa kunna tala med den, ge den en gest, le åt den och så vidare. Om en människa interagerar med en dator eller en maskin som förstår talade kommandon, kan människan samtala med maskinen och förvänta sig att den har kompetens i det talade språket. I vår forskning om ett multimodalt gränssnitt mot mobila robotar har vi antagit en modell för kommunikation och interaktion som på sätt och vis efterliknar hur människor kommunicerar. Vårt gränssnitt innehåller därför både naturlig språkförståelse och gestigenkänning som kommunikationssätt. Vi begränsade gränssnittet till dessa två lägen för att förenkla att integrera dem i gränssnittet och för att göra vår forskning mer lätthanterlig. Vi tror att med ett integrerat system är användaren mindre intresserad av hur man kommunicerar (vilket interaktivt läge att använda för en uppgift) och därför är fri att koncentrera sig på de uppgifter och mål som finns. Eftersom vi integrerar alla våra systems komponenter kan användarna välja vilken kombination av våra gränssnitts modaliteter som helst. Onus är på vårt gränssnitt för att integrera inmatningen, bearbeta den, och producera de önskade resultaten. Som utvecklare av taligenkänning och naturligt språk-förståelse system utan tvekan vet, människor förväntar sig en ganska sofistikerad nivå av erkännande, förståelse och interaktion. Talsystem som begränsar människan till enkla uttalanden, föreskrivna formeliska uttryck- | Perzanowski m.fl. REF argumenterar för ett multimodalt gränssnitt mellan människa och robot, i ett system som ger justerbar autonomi. | 18,150,671 | Building a Multimodal Human-Robot Interface | {'venue': 'IEEE Intell. Syst.', 'journal': 'IEEE Intell. Syst.', 'mag_field_of_study': ['Computer Science']} | 9,260 |
Tidig klassificering av tidsseriedata har visat sig vara mycket användbar i ett fåtal viktiga tillämpningar, t.ex. medicin- och hälsoinformatik, produktionsledning inom industrin, säkerhets- och säkerhetshantering. Vissa klassificeringar har föreslagits för att uppnå god hörbarhet i klassificeringen, men tolkningen av den tidiga klassificeringen är fortfarande till stor del ett öppet problem. Utan tolkningsbara egenskaper kan experter på tillämpningsområden, till exempel läkare, vara ovilliga att anta en tidig klassificering. I detta dokument tar vi itu med problemet med att extrahera tolkningsbara funktioner i tidsserier för tidig klassificering. Specifikt förespråkar vi lokala formlets som funktioner, som är segment av tidsserier kvar i samma utrymme av inmatningsdata och därmed är mycket tolkningsbara. Vi extraherar lokala formlets tydligt manifesterar en målgrupp lokalt och tidigt så att de är effektiva för tidig klassificering. Våra experimentella resultat på sju referensdatauppsättningar visar tydligt att de lokala formler som extraheras genom våra metoder är mycket tolkningsbara och kan uppnå effektiv tidig klassificering. | Detta problem har tagits upp genom att extrahera formler för tidig klassificering REF. | 17,089,577 | Extracting interpretable features for early classification on time series | {'venue': 'In the Proceedings of SDM', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,261 |
Batch normalization (BN) är mycket effektivt för att påskynda konvergensen av en neural nätverk utbildning fas att det har blivit en vanlig praxis. Vi föreslår en generalisering av BN, den minskande batch normalization (DBN) algoritm. Vi tillhandahåller en analys av konvergensen av DBN algoritm som konvergerar till en stationär punkt med avseende på utbildningsbara parametrar. Vi analyserar en tvåskiktsmodell med linjär aktivering. Den största utmaningen med analysen är att vissa parametrar uppdateras efter gradient medan andra inte är det. I de numeriska experimenten använder vi modeller med fler lager och ReLU-aktivering. Vi observerar att DBN överträffar den ursprungliga BN algoritmen på MNIST, NI och CIFAR-10 dataset med rimliga komplexa FNN och CNN modeller. | Nya teoretiska studier av BN inkluderar REF, där författarna föreslog en variant av BN, den minskande batch normalization (DBN) algoritm och analyserade konvergensen av DBN algoritm, visar att det konvergerar till en stationär punkt av förlustfunktionen. | 42,580,438 | Convergence Analysis of Batch Normalization for Deep Neural Nets | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 9,262 |
Abstract-JavaScript är ett populärt språk för att utveckla webbapplikationer och används i allt högre grad för både klient- och serversidans applikationslogik. JavaScript-runtime är till sin natur händelsestyrd och callbacks är en viktig språkfunktion. Tyvärr framkallar callbacks ett icke-linjärt kontrollflöde och kan skjutas upp för att utföra asynkront, deklareras anonymt, och kan bo i godtyckliga nivåer. Alla dessa funktioner gör callbacks svåra att förstå och underhålla. Vi utför en empirisk studie för att karakterisera JavaScript callback-användning över en representativ corpus av 138 JavaScript-program, med över 5 miljoner rader JavaScript-kod. Vi finner att i genomsnitt varje tionde funktion definition kräver en callback argument, och att över 43% av alla callback-accepterande funktion callites är anonyma. Dessutom är majoriteten av callbacks inbäddade, mer än hälften av alla callbacks är asynkrona, och asynkrona callbacks, i genomsnitt, visas oftare i klient-side-kod (72%) än server-sida (55%). Vi studerar också tre välkända lösningar som är utformade för att hjälpa till med komplexiteten i samband med callbacks, inklusive felet första callback convention, Async.js bibliotek, och Promises. Våra resultat informerar om designen av framtida JavaScript-analys- och kodförståelseverktyg. | En annan empirisk studie gjordes för att analysera JavaScript callback användning som callbacks inducerar icke-linjärt kontrollflöde av program och kan orsaka asynkron körning REF. | 11,920,106 | Don't Call Us, We'll Call You: Characterizing Callbacks in Javascript | {'venue': '2015 ACM/IEEE International Symposium on Empirical Software Engineering and Measurement (ESEM)', 'journal': '2015 ACM/IEEE International Symposium on Empirical Software Engineering and Measurement (ESEM)', 'mag_field_of_study': ['Computer Science']} | 9,263 |
Stack Resource Policy (SRP) är en resursfördelningspolicy som gör det möjligt för processer med olika prioriteringar att dela en enda runtime stack. Det är en förfining av protokollet om prioritetstak (PCP) från Sha, Rajkumar och Lehoczky, som strikt begränsar prioritetsinversion och tillåter enkla schegulerbara tester. Med eller utan stackdelning erbjuder SRP förbättringar över PCP, genom att 1) förena behandlingen av stackar, läsare och flera enheter resurser, och binära semaforer, 2) tillämpa direkt på vissa dynamiska schemaläggning politik, inklusive EDF, samt statiska prioriterade policyer, 3) med EDF schemaläggning, stödja en starkare schemaläggning test, 4) minska det maximala antalet sammanhangsbyten för en begäran om jobb utförande med en faktor av två. Det är minst lika bra som PCP att minska maximal prioritet inversion. | Baker föreslog stack resurspolicy (srp) REF, som fungerar bra med dynamiska prioritet schemaläggning algoritmer. | 8,318,319 | A stack-based resource allocation policy for realtime processes | {'venue': '[1990] Proceedings 11th Real-Time Systems Symposium', 'journal': '[1990] Proceedings 11th Real-Time Systems Symposium', 'mag_field_of_study': ['Computer Science']} | 9,264 |
En chefsbaserad parallelliseringsalgoritm för Quantum Monte Carlo (QMC-MW) presenteras och jämförs med den rena iterativa parallelliseringsalgoritmen, som är i allmänt bruk. Den nya manager-worker algoritmen utför automatisk lastbalansering, vilket gör det möjligt att utföra nära den teoretiska maximal hastighet även på heterogena parallella datorer. Dessutom utför den nya algoritmen såväl som den rena iterativa algoritmen på homogena parallella datorer. I kombination med den dynamiska distribuerbara dekorrelationsalgoritmen (DDDA) [Feldmann et al., J Comput Chem 28, 2309 (2007) gör den nya algoritmen att QMC-beräkningar kan avslutas på en förspecificerad konvergensnivå snarare än på ett förspecificerat antal steg (vanlig praxis). Detta möjliggör en garanterad precisionsnivå till minsta möjliga kostnad. Dessutom visar vi (genom både analytisk härledning och experimentell verifiering) att vanliga QMC-implementationer inte är "perfekt parallella" som ofta påstås. | En chef-arbetsbaserad parallelliseringsalgoritm för Quantum Monte Carlo (QMC-MW) presenteras på REF på heterogena parallella datorer och de jämförs med den rena iterativa parallelliseringsalgoritmen (QMC-PI). | 1,005,507 | Manager-worker-based model for the parallelization of quantum Monte Carlo on heterogeneous and homogeneous networks. | {'venue': 'Journal of computational chemistry', 'journal': 'Journal of computational chemistry', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 9,265 |
Att göra det möjligt för en dator att förstå ett dokument så att den kan svara på frågor om fattningsförmåga är ett centralt, men ändå olöst mål för NLP. En viktig faktor som hindrar dess lösning genom maskininlärda system är den begränsade tillgången på människoannoterade data. Hermann m.fl. (2015) försöka lösa detta problem genom att skapa över en miljon träningsexempel genom att para ihop CNN- och Daily Mail-nyheter med deras summerade kulspetspunkter, och visa att ett neuralt nätverk sedan kan tränas för att ge goda resultat på denna uppgift. I detta dokument genomför vi en grundlig granskning av denna nya läsförståelseuppgift. Vårt främsta mål är att förstå vilket djup av språkförståelse som krävs för att göra bra ifrån sig på denna uppgift. Vi närmar oss detta från den ena sidan genom att göra en noggrann handanalys av en liten delmängd av problemen och från den andra genom att visa att enkla, noggrant utformade system kan få en noggrannhet på 72,4 % och 75,8 % på dessa två datauppsättningar, som överskrider nuvarande toppresultat med mer än 5 % och närmar sig vad vi tror är taket för prestanda för denna uppgift. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. | Mer specifikt visade de att en variant av neurala nätverk, RNN med uppmärksamhet mekanism, uppnått den toppmoderna prestanda REF. | 6,360,322 | A Thorough Examination of the CNN/Daily Mail Reading Comprehension Task | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 9,266 |
Abstrakt. Det starkaste standardsäkerhetsbegreppet för system för digitala signaturer är oförfalskadhet under valda meddelandeattacker. I praktiken kan detta begrepp dock vara otillräckligt på grund av "side-channel attacker" som utnyttjar läckage av information om den hemliga interna staten. I detta arbete lade vi fram begreppet "läckagetåliga signaturer", som stärker standardsäkerhetsbegreppet genom att ge motståndaren ytterligare makt att lära sig en begränsad mängd godtycklig information om den hemliga staten som var tillgänglig under varje signaturgeneration. Detta begrepp innebär naturligtvis säkerhet mot alla sidokanalsattacker så länge den mängd information som läcker ut på varje anrop begränsas och "endast beräkning läcker information". Huvudresultatet av detta dokument är en konstruktion som ger ett (trädbaserat, stateful) läckagetåligt signatursystem baserat på ett trefaldigt signatursystem. Mängden information som vårt system säkert kan läcka per signaturgenerering är 1/3 av den information som det underliggande trefaldiga signatursystemet kan läcka totalt. Signature system som förblir säkra även om en begränsad total mängd information läcker nyligen konstruerades, vilket omedelbart vår konstruktion med dessa system ger de första konstruktionerna av bevisligen säkra läckage-resilient signatursystem. Ovanstående konstruktion förutsätter att signeringsalgoritmen kan provsmaka verkligt slumpmässiga bitar, och därmed ett genomförande skulle behöva någon speciell hårdvara (randomness grindar). Att helt enkelt generera denna slumpmässighet med hjälp av ett läckageavvisande stream-chiffer kommer i allmänhet inte att fungera. Vårt andra bidrag är en sund allmän princip för att ersätta enhetliga slumpmässiga bitar i alla läckagetåliga konstruktioner med pseudorandom sådana: köra två läckage-resilient ström chiffers (med oberoende nycklar) parallellt och sedan tillämpa en två källa extraktor på sina utgångar. | Läckagetåliga signaturer i denna modell är konstruerade i REF. | 14,526,568 | Leakage-Resilient Signatures | {'venue': 'in International Colloquium on Automata, Languages and Programming', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,267 |
Eftersom forskare inte har lämpliga tensor-display tekniker, de nu visualisera många fysiska problem ofullständigt i termer av vektor eller skalär data. Forskare kunde utan tvekan få nya insikter i dessa problem om de hade en metod för att visualisera 3D andra-order tensor fält. Vi presenterar hyperstreamlines som ett sätt att visualisera dessa data. Andra ordningen tensor områden är grundläggande inom ingenjörsvetenskap och fysik. Stresser och påfrestningar i fasta ämnen är t.ex. tensorfält. I vätskeflöden, stressar" viskösa påfrestningar, hastighet av belastning, och momentum överföringar beskrivs alla i termer av tensor data. I själva verket, den steady-state Navier-Stb kes ekvationer beskriver gasflöden med endast en kvantitet-m,mentum flödestäthet-som i sig är ett tensor fält. Tabell 1 listor för referens några gemensamma tensor fält som vi analyserar mer i detalj senare. Det visar att tensordata innehåller en stor mängd information. De omfattar olika fysikaliska storheter såsom tryck, kinetisk energitäthet, masstäthet, hastighet och derivat av hastighetsfältet. Visualisera tensor fält korrelerar dessa mängder. (Mer information om tensorfält finns i Borisenko och Tarapovs bok. På grund av rikedomen av multivariat information i tensor fields, tensor visualisering är en utmaning. Faktum är att en 3D secondorder tensor fält T består av en 3 x 3 uppsättning av skalor funktioner (7,d, i, k = 1, 2, 3 definieras över en 3D domän. Oberoende visualisering av dessa nio funktioner är möjlig men meningslös. För att hjälpa forskare att visualisera 3D tensor data, har vi utvecklat en metodik baserad på begreppet hyperstreamline, den enklaste kontinuerliga tensor struktur som kan extraheras från en tensor fält (i motsats till många andra skalar eller vektor funktioner). Vi introducerar först hyperstreamlines för det speciella fallet av symmetriska tensorfält U = (U;d, vars enskilda komponenter är relaterade till varandra av U;k = Uk; för i, k = 1, 2, 3. (Som framgår av tabell 1 är symmetriska tensorfält mycket vanliga i vätskeflödesstudier.) Vi får senare en strukturell skildring av symmetriska tensorfält från representationen av många hyperströmslinjer. Och slutligen, Vi ger en metod för att visualisera un symmetric tensor data genom att koda en ytterligare vektor fält längs banan av hyperstreamlines. | Delmarcelle och Hesselink REF ger en omfattande studie om topologi av 2D symmetriska tensor fält och definiera hyperstreamlines, som de använder för att visualisera tensor fält. | 7,698,377 | Visualizing second-order tensor fields with hyperstreamlines | {'venue': 'IEEE Computer Graphics and Applications', 'journal': 'IEEE Computer Graphics and Applications', 'mag_field_of_study': ['Computer Science']} | 9,268 |
Känsligheten hos millimetervågssignaler (mmWave) för blockeringar är en grundläggande utmaning för mobila mmWave kommunikationssystem. Den plötsliga blockeringen av länken line-of-sight (LOS) mellan basstationen och den mobila användaren leder normalt till att kommunikationssessionen kopplas bort, vilket i hög grad påverkar systemets tillförlitlighet. Vidare, återansluta användaren till en annan LOS basstation medför hög strålutbildning overhead och kritiska latency problem. I detta dokument använder vi verktyg för maskininlärning och föreslår en ny lösning för dessa tillförlitlighets- och latensutmaningar i mmWave MIMO-system. I den utvecklade lösningen lär sig basstationerna att förutsäga att en viss länk kommer att uppleva blockering inom de närmaste tidsramarna med hjälp av sina observationer av antagna strålformande vektorer. Detta gör det möjligt för den serverande basstationen att proaktivt lämna över användaren till en annan basstation med mycket trolig LOS-länk. Simuleringsresultat visar att den utvecklade strategin för djupinlärning framgångsrikt förutspår blockering/avlämning i nära 95% av tiderna. Detta minskar sannolikheten för frånkoppling av kommunikationssessioner, vilket garanterar hög tillförlitlighet och låg latens i mobila mmWave-system. | I Ref föreslog författarna en överlämningsmekanism baserad på djupinlärning för att förbättra tillförlitligheten och latensen i mobila system för markbaserad millimetervåg. | 49,650,743 | MACHINE LEARNING FOR RELIABLE MMWAVE SYSTEMS: BLOCKAGE PREDICTION AND PROACTIVE HANDOFF | {'venue': '2018 IEEE Global Conference on Signal and Information Processing (GlobalSIP)', 'journal': '2018 IEEE Global Conference on Signal and Information Processing (GlobalSIP)', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 9,269 |
Batch Normalization (BN) är en milstolpe teknik i utvecklingen av djupt lärande, vilket gör det möjligt för olika nätverk att träna. Men normalisera längs batch dimension introducerar problem -BN fel ökar snabbt när batch storlek blir mindre, orsakas av felaktig batch statistik uppskattning. Detta begränsar BN:s användning för utbildning av större modeller och överföring av funktioner till datorseende uppgifter, inklusive upptäckt, segmentering och video, som kräver små partier som begränsas av minnesförbrukning. I detta dokument presenterar vi Group Normalization (GN) som ett enkelt alternativ till BN. GN delar upp kanalerna i grupper och beräknar inom varje grupp medelvärdet och variansen för normalisering. GN:s beräkning är oberoende av batchstorlekar, och dess noggrannhet är stabil i ett brett spektrum av batchstorlekar. På ResNet-50 tränas i ImageNet, GN har 10,6 % lägre fel än sin BN motsvarighet när man använder en satsstorlek på 2; när man använder typiska satsstorlekar, GN är jämförelsevis bra med BN och överträffar andra normaliseringsvarianter. Dessutom kan GN naturligt överföras från förutbildning till finjustering. GN kan överträffa sina BN-baserade motsvarigheter för objektdetektering och segmentering i COCO, 1 och för videoklassificering i Kinetics, vilket visar att GN effektivt kan ersätta den kraftfulla BN i en mängd olika uppgifter. GN kan enkelt implementeras med några rader kod i moderna bibliotek. | I syfte att eliminera beroendet av batchstorlekar och undvika batch statistik beräkning, Wu et al. Föreslagen gruppnormalisering (GN) som ett enkelt alternativ till BN REF. | 4,076,251 | Group Normalization | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 9,270 |
Abstract -Videoövervakning av kollektivtrafiken är ett användbart verktyg för att bekämpa antisocialt beteende som vandalism, trakasserier, graffiti och terrorism. Videoövervakning i realtid när det gäller kollektivtrafiken står inför allvarliga tekniska utmaningar, främst på grund av att den befintliga kommunikationstekniken har ett begränsat genomflöde vid höga hastigheter. Framgång med videoövervakning i realtid på kollektivtrafiken är starkt beroende av framtida kommunikationsteknik som WiMAX. WiMAX har vuxit fram som en spännande teknik med löften om att erbjuda hög genomströmning och förbättrad kvalitet på tjänster (QoS), centrala krav för videoövervakning på kollektivtrafiken. WiMAX erbjuder dock begränsad genomströmning vid höga vehicular hastigheter främst på grund av multipat blekning som orsakar hög bit felhastighet vid mottagaren vid vehicular hastigheter. I våra tidigare arbeten visade vi att det är möjligt att uppskatta bitfelsfrekvensen vid mottagarens ände vid olika körhastigheter i WiMAX och därför kan vissa proaktiva åtgärder vidtas för att förbättra genomströmningen i viss utsträckning. Övergripande genomströmning kan dock fortfarande vara otillräcklig för att stödja strömmande videodata från alla kameror monterade på en kollektivtrafik vid höga fordonshastigheter. I detta dokument föreslår vi ett nytt system som uppskattar nyttan för olika kameror och sätter några låg allmännyttiga kameror offline och därmed upprätthåller hög nytta av videoövervakningssystemet när genomströmningen vid höga fordonshastigheter blir otillräcklig. Simuleringsresultaten bekräftar det föreslagna systemets effektivitet. | Författarna i REF föreslog en modell för att förbättra nyttan av en live video streaming från kameror monterade på en kollektivtrafik som rör sig i höga fordonshastigheter. | 2,586,014 | High Utility Video Surveillance System on Public Transport Using WiMAX Technology | {'venue': '2010 IEEE Wireless Communication and Networking Conference', 'journal': '2010 IEEE Wireless Communication and Networking Conference', 'mag_field_of_study': ['Computer Science']} | 9,271 |
För uppgiften implicita diskurs relation erkännande, traditionella modeller som använder manuella funktioner kan lida av data gleshet problem. Neural modeller ger en lösning med distribuerade representationer, som kan koda latent semantisk information, och är lämpliga för att känna igen semantiska relationer mellan argument par. Men konventionella vektor representationer antar oftast inbäddningar på ordnivå och kan inte väl hantera det sällsynta ordet problem utan att noggrant överväga morfologisk information på teckennivå. Dessutom är inbäddningar tilldelas enskilda ord självständigt, som saknar den avgörande kontextuella informationen. Detta papper föreslår en neural modell som utnyttjar sammanhang-medveten karaktär-förstärkta inbäddningar för att lindra nackdelarna med den nuvarande ordnivå representation. Våra experiment visar att de förbättrade inbäddningarna fungerar bra och att den föreslagna modellen får toppmoderna resultat. | REF förstärkte sitt system med karaktärsnivå och kontextualiserade inbäddningar. | 13,052,183 | Implicit Discourse Relation Recognition with Context-aware Character-enhanced Embeddings | {'venue': 'COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,272 |
Sammanfattning — När en grupp människor vill kommunicera säkert över ett öppet nätverk, de kör en konferens-nyckel protokoll för att upprätta en gemensam konferens nyckel K så att all deras kommunikation därefter krypteras med nyckeln K. I detta dokument, föreslår vi ett bevisligen säkert feltolerant konferens-nyckel avtal protokoll under den autentiserade kanalmodellen. Vi visar att en passiv motståndare får noll kunskap om den konferensnyckel som upprättats av de ärliga deltagarna under antagande av en variant av Diffie-Hellman beslutsproblem. Vi visar också att de ärliga deltagarna kan komma överens om en gemensam konferensnyckel oavsett hur många deltagare som är illvilliga. Dessutom visar vi att även om sändarkanalen inte är autentiserad, är vårt protokoll säkert mot imitatörer under den slumpmässiga orakelmodellen. | Bland dem, Tzeng REF presenterade en konferens nyckel avtal protokoll som bygger på diskret algoritm antagande med feltolerans. | 206,391,449 | A secure fault-tolerant conference-key agreement protocol | {'venue': 'IEEE Trans. Computers', 'journal': 'IEEE Trans. Computers', 'mag_field_of_study': ['Computer Science']} | 9,273 |
Bussresor är en viktig källa till data för tid på dagen partition av bussrutten. I praktiken kan dock en busschaufför avsiktligt påskynda eller sakta ner på rutten för att följa den förutbestämda tidtabellen. De råa GPS-data som samlas in av GPS-enheten som är utrustad på bussen kan därför inte återspegla de verkliga driftförhållandena. För att ta itu med detta problem utvecklar denna studie först en metod för att identifiera om det finns avsiktliga hastighets- eller slow-down-rörelser av en buss. Med utgångspunkt i förhållandet mellan förseningen i skärningspunkten, länka restiden och trafikflödet fastställs en återvinningsmetod för beräkning av den verkliga bussresetiden. Med användning av uppehållstiden vid varje stopp och den återvunna restiden mellan var och en av dem som divisionsindex, föreslås en sekventiell kluster-baserad tid på dagen partition metod. Effektiviteten hos den utvecklade metoden visas med hjälp av data från busslinje 63 i Harbin, Kina. Resultaten visar att uppdelningsmetoden kan hjälpa bussföretagen att utforma rimliga tidsintervall och avsevärt förbättra sin servicenivå. | I praktiken kan en bussförare avsiktligt påskynda eller sakta ner på rutten för att följa den förutbestämda tidtabellen, i REF föreslås en metod för att beräkna den verkliga bussresetiden. | 36,316,523 | Operating Time Division for a Bus Route Based on the Recovery of GPS Data | {'venue': 'J. Sensors', 'journal': 'J. Sensors', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 9,274 |
Abstract-Den tunna-klient modellen anses vara en bra passform för onlinespel. Eftersom moderna spel normalt kräver enorm databehandling och rendering makt hos spelklienten, kan distribuera spel med sådana modeller överföra bördan av hårdvara uppgraderingar från spelare till speloperatörer. Som ett resultat, Det finns en mängd olika lösningar som föreslås för tunn-klient spel idag. Man vet dock inte mycket om hur sådana tunna klientsystem fungerar i olika scenarier, och det finns ännu inga systematiska metoder för att genomföra en sådan analys. I detta dokument föreslår vi en metod för att kvantifiera prestandan hos tunna klienter på spel, även för tunna klienter som är nära källor. Med ett klassiskt spel, ms Pac-Man, och tre populära tunna-klienter, LogMeIn, TeamViewer och UltraVNC, som exempel, utför vi en demonstrationsstudie och bestämmer att 1) visa bildfrekvens och bildförvrängning är både kritiska för spel; och 2) olika tunn-klient implementationer kan ha mycket olika nivåer av robusthet mot nätverksnedsättningar. Generellt, LogMeIn presterar bäst när nätverksförhållandena är någorlunda bra, medan TeamViewer och UltraVNC är de bättre valen under vissa nätverksförhållanden. | Chang och Al. REF föreslår en metod för att studera tunna klientspel baserat på spelet som visas på servern jämfört med spelet som visas på klienten, kvantifierar bildhastighet och bildförvrängning. | 670,081 | Understanding the performance of thin-client gaming | {'venue': '2011 IEEE International Workshop Technical Committee on Communications Quality and Reliability (CQR)', 'journal': '2011 IEEE International Workshop Technical Committee on Communications Quality and Reliability (CQR)', 'mag_field_of_study': ['Computer Science']} | 9,275 |
Detta dokument motiveras av att många system måste underhållas kontinuerligt medan de underliggande kostnaderna förändras över tiden. Utmaningen är då att kontinuerligt upprätthålla nära-optimala lösningar på de underliggande optimeringsproblemen, utan att skapa för mycket curn i själva lösningen. Vi modellerar detta som ett flerstegskombinatoriskt optimeringsproblem där inmatningen är en sekvens av kostnadsfunktioner (en för varje steg); medan vi kan ändra lösningen från steg till steg, får vi en extra kostnad för varje sådan förändring. Vi studerar först flerstegs matroid underhållsproblem, där vi behöver behålla en bas av en matroid i varje gång steg under ändrade kostnadsfunktioner och anskaffningskostnader för att lägga till nya element. Online-versionen av detta problem generaliserar onine personsökning, och är ett välstrukturerat fall av de metriska uppgiftssystem. E.g., med tanke på en graf, vi måste upprätthålla en spännvidd träd Tt vid varje steg: vi betalar ct(Tt) för kostnaden för trädet vid tidpunkten t, och även till Tt\ Tt-1 till antalet kanter ändras vid detta steg. Vårt huvudsakliga resultat är en polynom tid O (log m log r)-tillnärmning till online flerstegs matroid underhållsproblem, där m är antalet element/kanter och r är rangen av matroiden. Detta förbättrar resultaten av Buchbinder et al. [7] som hanterade den delmässiga versionen av detta problem under enhetliga anskaffningskostnader, och Buchbinder, Chen och Naor [8] som studerade den delmässiga versionen av ett mer allmänt problem. Vi ger också en O(log m) approximation för offline-versionen av problemet. Dessa gränser håller när förvärvskostnaderna är icke-uniform, i vilket fall båda dessa resultat är det bästa möjliga om inte P=NP. Vi studerar också den perfekta matchande versionen av problemet, där vi måste upprätthålla en perfekt matchning vid varje steg under ändrade kostnadsfunktioner och kostnader för att lägga till nya element. Förvånansvärt nog ökar hårdheten drastiskt: för varje konstant ε > 0, det finns ingen O(n 1−ε )- tillnärmning till flerstegs matchande underhållsproblem, även i offline fallet. | Gupta m.fl. REF studerade flerstegs underhåll Matroid problem för både offline och online-inställningar. | 7,704,280 | Changing Bases: Multistage Optimization for Matroids and Matchings | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 9,276 |
Vi anser att den mobila anläggningen plats (MFL) problem. Vi får en uppsättning anläggningar och kunder belägna i ett gemensamt metriska utrymme G = (V, c). Målet är att flytta varje anläggning från sin ursprungliga plats till en destination (i V ) och tilldela varje kund till destinationen för vissa anläggningar för att minimera summan av rörelsekostnaderna för anläggningarna och kostnaderna kund-tilldelning. Detta abstracts facility-location inställningar där man har flexibiliteten att flytta anläggningar från sina nuvarande platser till andra destinationer för att tjäna kunderna mer effektivt genom att minska sina tilldelningskostnader. Vi ger den första lokala sökning baserad approximation algoritm för detta problem och uppnå den mest kända approximation garanti. Vårt huvudsakliga resultat är (3 + ) - approximation för detta problem för alla konstant > 0 med hjälp av lokal sökning. Den tidigare bästa garantin för MFL var en 8-approximationsalgoritm på grund av [13] baserad på LP-avrundning. Vår garanti matchar den mest kända approximationsgarantin för k-median-problemet. Eftersom det finns en approximation-bevarande minskning från k-median problemet till MFL, skulle varje förbättring av vårt resultat innebära en motsvarande förbättring av k-median problemet. Dessutom är vår analys stram (upp till O(1) faktorer) eftersom det tajta exemplet för den lokala sökbaserade 3- approximationsalgoritmen för k-median enkelt kan anpassas för att visa att vår lokala sökalgoritm har ett snävt approximationsförhållande på 3. En av de viktigaste nyheterna i analysen är att för att generera en lämplig samling av lokala sökande rörelser vars resulterande ojämlikhet ger den önskade bunden på kostnaden för en lokal-optimum, definierar vi en trädliknande struktur som (lösligt talat) fungerar som ett "återhämtning träd", med vilket vi leker av lokal-sök flyttar genom att utforska detta träd till ett konstant djup. Våra resultat sträcker sig till den viktade generaliseringen där i varje anläggning i har en icke-negativ vikt w i och rörelsekostnaden för i är w i gånger avståndet som transporteras av i. | En polynom (3 + ) - approximation algoritm visades i REF. | 6,236,310 | Local-Search based Approximation Algorithms for Mobile Facility Location Problems | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,277 |
De flesta tidigare arbeten på mode rekommendation fokuserar på att designa visuella funktioner för att förbättra rekommendationer. Befintligt arbete försummar användarkommentarer av modeartiklar, som har visat sig vara effektiva när det gäller att generera förklaringar tillsammans med bättre rekommendationsresultat. Vi föreslår en ny neural nätverk ram, neural mode rekommendation (NFR), som samtidigt ger mode rekommendationer och genererar abstrakta kommentarer. NFR består av två delar: outfit matchning och kommentar generation. För outfit matchning föreslår vi ett konvolutionellt neuralt nätverk med en ömsesidig uppmärksamhet mekanism för att extrahera visuella funktioner i outfits. De visuella funktionerna avkodas sedan till en betygspoäng för den matchande förutsägelsen. För abstrakt kommentargenerering, föreslår vi ett gated återkommande neurala nätverk med en cross-modality uppmärksamhetsmekanism för att omvandla visuella funktioner till en koncis mening. De två delarna utbildas gemensamt på grundval av ett ramverk för lärande med flera arbetsuppgifter i ett paradigm för end-to-end back-propagation. Omfattande experiment som utförs på en befintlig datauppsättning och en insamlad verklig datauppsättning visar att NFR uppnår betydande förbättringar jämfört med toppmoderna baslinjer för moderekommendationer. Samtidigt uppnår våra genererade kommentarer imponerande ROUGE och BLEU poäng i jämförelse med mänskliga-skrivna kommentarer. De kommentarer som genererats kan betraktas som förklaringar till rekommendationsresultaten. Vi släpper datasetet och kod för att underlätta framtida forskning. | Lin m.fl. Ref presenterade ett rekommendationssystem och använde de kommentarer som genererats som förklaringar. | 67,877,166 | Explainable Fashion Recommendation with Joint Outfit Matching and Comment Generation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 9,278 |
Abstract-Device autentisering är en viktig säkerhetsfunktion för Internet of Things (IoT). Många IoT-enheter är utplacerade på öppna och offentliga platser, vilket gör dem sårbara för fysiska och kloning attacker. Därför bör alla autentisering protokoll utformade för IoT-enheter vara robust även i fall när en IoT-enhet fångas av en motståndare. Dessutom har många av sakernas internet-enheter begränsade lagrings- och beräkningsmöjligheter. Därför är det önskvärt att säkerhetslösningarna för IoT-enheter bör vara beräkningseffektiva. För att uppfylla alla dessa krav, i detta dokument, presenterar vi ett lättviktigt och sekretessbevarande två-faktors autentiseringssystem för IoT-enheter, där fysiskt oanvändbara funktioner har ansetts vara en av autentiseringsfaktorerna. Säkerhets- och prestandaanalys visar att vårt föreslagna system inte bara är robust mot flera attacker, utan också mycket effektivt när det gäller beräkningseffektivitet. Index Terms-Fuzzy Extractor (FE), Internet of Things (IoT) enhet, ömsesidig autentisering, fysiskt uncloneable funktioner (PUFs), sekretessbevarande. | Och Gope et al. REF föreslog en lättviktig och integritetsbevarande tvåfaktors autentiseringsprotokoll för IoT-enheter där fysiskt oåtkomliga funktioner har ansetts vara en av autentiseringsfaktorerna. | 67,150,864 | Lightweight and Privacy-Preserving Two-Factor Authentication Scheme for IoT Devices | {'venue': 'IEEE Internet of Things Journal', 'journal': 'IEEE Internet of Things Journal', 'mag_field_of_study': ['Computer Science']} | 9,279 |
Abstract-The energiefterfrågan i företagssegmentet kräver ett utbudsformat som tillgodoser alla produktions- och lagringsalternativ med aktivt deltagande av slutanvändarna i efterfrågeflexibilitet. Med dagens högeffektiva datorsystem (HPC) kommer en mycket tillförlitlig, skalbar och kostnadseffektiv energilösning som tillgodoser energibehoven och förbättrar den miljömässiga hållbarheten att ha en bred acceptans. I ett typiskt företags datacenter är krafthantering en stor utmaning som påverkar servertätheten och den totala ägandekostnaden (COO). Lagringen använder en betydande del av energibudgeten och det finns inga allmänt utplacerade kraftsparlösningar för lagringssystem för företag. Detta arbete presenterar Data Center Networks (DCNs) för effektiv strömhantering inom ramen för SMART Grids. En SMART DCN är modellerad med OPNET 14.5 för nätverks-, process- och nodmodeller. Dessutom har en utökad SMART-integrationsmodul inom ramen för SMART DCN visat sig vara mer kostnadseffektiv än det traditionella distributionsnätet i DCN. Utmaningarna för genomförandet diskuteras också. I detta dokument föreslås att en smartisering av DCN:s nät kommer att garantera en hållbar energiframtid för företagssegmenten. | I detta sammanhang kan vi notera arbetet av REF som använde ett Data Center Networks DCN som en effektiv strömhantering av SMART Grids modellerade på OPNET 14.5 programvara. | 18,974,245 | Smart Grids: A New Framework for Efficient Power Management in Datacenter Networks | {'venue': None, 'journal': 'International Journal of Advanced Computer Science and Applications', 'mag_field_of_study': ['Computer Science']} | 9,280 |
Att söka tillförlitlig korrespondens mellan två funktionsuppsättningar är en grundläggande och viktig uppgift i datorseendet. Detta papper försöker ta bort missmatchningar från givna putativ bild funktionkorrespondenser. För att uppnå målet, en effektiv strategi, som kallas lokalitet bevara matchning (LPM), är utformad, vars princip är att upprätthålla de lokala stadsdelsstrukturerna i dessa potentiella sanna matcher. Vi formulerar problemet till en matematisk modell och härleder en sluten lösning med linearitmisk tid och linjär rymdkomplexitet. Mer specifikt, vår metod kan åstadkomma missmatchningen avlägsnande från tusentals putativ korrespondens på bara några millisekunder. Experiment på olika verkliga bildpar för allmän funktionsmatchning, samt för visuell homing och bildsökning visar hur generell vår metod är för att hantera olika typer av bilddeformationer, och det är mer än två storleksordningar snabbare än toppmoderna metoder i samma intervall av eller bättre noggrannhet. | Mamma och Al. REF gav ett effektivt sätt som kallas Locality Beserving Matching (LPM) för att filtrera bort falska matchningar genom att bevara de lokala kvartersstrukturerna för dessa potentiella sanna matchningar. | 39,923,327 | Locality Preserving Matching | {'venue': 'IJCAI', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,281 |
ABSTRACT I detta papper generaliseras fraktionerade Zernike moment (FrZMs) för komplexa signaler till fraktionerad quaternion Zernike moment (FrQZMs) för quaternion signalbehandling på ett holistiskt sätt av quaternion algebra. Vi presenterar först definitionen av FrQZMs och en effektiv implementeringsalgoritm för att påskynda beräkningen av FrQZMs genom FrZMs för varje komponent i quaternion signalen. Prestandan hos de föreslagna FrQZMs utvärderas genom att överväga robust färgbildskopiering-rörliga förfalskningsdetektering. Den föreslagna robusta kopia-move förfalskning-detektion algoritm anser FrQZMs som en funktion och en modifierad PatchMatch algoritm som en funktion matchande algoritm. Experimentella resultat på två allmänt tillgängliga datamängder (datauppsättningen FAU och GRIP) har visat att den föreslagna FrQZM-baserade algoritmen kan uppnå en övergripande bättre prestanda än de toppmoderna algoritmerna, särskilt i vissa ytterligare driftsfall. INDEX TERMS Quaternion, färgbild, fraktionerade Zernike ögonblick, bild förfalskning upptäckt. | Några nyare verk om bildförfalskning detektion öppnar också upp rättstekniska idéer för detektion av söm snidning, såsom en robust kopia-move forgery detektion algoritm som föreslagits av Chen et al. REF, som betraktar FrQZMs som en funktion, och en modifierad PatchMatch algoritm som en funktionsmatchning algoritm. | 53,044,585 | Fractional Quaternion Zernike Moments for Robust Color Image Copy-Move Forgery Detection | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 9,282 |
Neural maskinöversättning (NMT) är starkt beroende av ordnivå modellering för att lära semantiska representationer av inmatning meningar. Men för språk utan naturliga ordavgränsare (t.ex. kinesiska) där inmatning meningar måste tokenized först, konventionella NMT konfronteras med två frågor: 1) det är svårt att hitta en optimal tokenization granularity för käll mening modellering, och 2) fel i 1-bästa tokenizations kan propagera till kodaren av NMT. För att hantera dessa frågor föreslår vi word-lattice-baserade Recurrent Neural Network (RNN) kodare för NMT, som generaliserar standard RNN till word lattice topologi. De föreslagna kodarna tar som indata ett ord lattice som kompakt kodar flera tokenizations, och lära sig att generera nya dolda tillstånd från godtyckligt många ingångar och dolda tillstånd i föregående steg. Som sådan, de ord-lattice baserade kodare inte bara lindra den negativa effekten av tokenisering fel, men också är mer uttrycksfulla och flexibla att bädda in inmatning meningar. Experimentella resultat på kinesisk-engelska översättning visar överlägsenheterna av de föreslagna kodarna över den konventionella kodaren. | REF föreslog en lattice-baserad kodare som överväger flera tokeniseringsresultat medan indatameningen kodas. | 8,299,428 | Lattice-Based Recurrent Neural Network Encoders for Neural Machine Translation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 9,283 |
De peer-to-peer-protokollen spelar en allt viktigare roll i distributionen av innehåll via Internet. Det är därför viktigt att få en fullständig förståelse för hur dessa protokoll beter sig i praktiken och hur deras driftsparametrar påverkar systemets övergripande prestanda. I detta dokument presenteras den första detaljerade experimentella undersökningen av peer selection-strategin i det populära BitTorrent-protokollet. Genom att observera mer än 40 noder i instrumenterade privata dataflöden validerar vi tre protokollegenskaper som, även om de tros hålla, inte tidigare har visats experimentellt: klustereringen av liknande bandbreddskollegor, effektiviteten av BitTorrents delningsincitament och kamraternas höga upplänkutnyttjande. Dessutom observerar vi att BitTorrents modifierade kvävningsalgoritm i frötillstånd ger enhetlig service till alla kamrater, och att ett underprovisionerat första frö leder till avsaknad av peer clustering och mindre effektiva delningsincitament. Baserat på våra resultat, vi ger riktlinjer för sådd av innehållsleverantörer, och diskutera en tracker protokoll förlängning som behandlar en identifierad begränsning av protokollet. | Baserat på analysen av kvävningsalgoritmen, ger REF empiriska belägg för BitTorrents kluster och visar att kamrater med liknande bandbredder tenderar att bli klustrade. | 732,966 | Clustering and sharing incentives in BitTorrent systems | {'venue': "SIGMETRICS '07", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,284 |
Den ökande efterfrågan på storskaliga tillämpningar för datautvinning och dataanalys har lett till att både industrin och den akademiska världen designat nya typer av mycket skalbara dataintensiva datorplattformar. MapReduce och Dryad är två populära plattformar där dataflödet tar formen av en riktad acyklisk graf av operatörer. Dessa plattformar saknar inbyggt stöd för iterativa program, som uppstår naturligt i många tillämpningar inklusive datautvinning, webbrankning, grafanalys, modellmontering, och så vidare. Detta dokument presenterar HaLoop, en modifierad version av Hadoop MapReduce ramverk som är utformad för att tjäna dessa tillämpningar. HaLoop utökar inte bara MapReduce med programmeringsstöd för iterativa applikationer, det förbättrar också dramatiskt deras effektivitet genom att göra aktivitet schemaläggaren loop-aware och genom att lägga till olika caching mekanismer. Vi utvärderade HaLoop på verkliga frågor och verkliga datauppsättningar. Jämfört med Hadoop minskar HaLoop i genomsnitt frågetiderna med 1,85 och blandar endast 4 % av data mellan kartare och reducerare. | HaLoop REF, en modifierad version av Hadoop, förbättrar effektiviteten i iterativ beräkning genom att göra aktivitet schemaläggaren loop-aware och genom att använda caching mekanismer. | 1,172,674 | HaLoop: Efficient Iterative Data Processing on Large Clusters | {'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']} | 9,285 |
Under det senaste årtiondet har det visat sig att neuroimaging kan vara ett potentiellt verktyg för diagnos av Alzheimers sjukdom (AD) och dess prodromala stadium, Mild Cognitive Impairment (MCI), och även fusion av olika metoder kan ytterligare ge kompletterande information för att förbättra diagnostisk noggrannhet. Här fokuserar vi på problemen med både funktionsrepresentation och fusion av multimodal information från magnetisk resonanstomografi (MRT) och Positronemissionstomografi (PET). Till vår bästa kunskap använde de tidigare metoderna i litteraturen mestadels handgjorda funktioner som kortikal tjocklek, grå materia densiteter från MRT, eller voxel intensiteter från PET, och sedan kombinerade dessa multimodala funktioner genom att helt enkelt konkatenera till en lång vektor eller omvandla till en högre-dimensionell kärna utrymme. I detta dokument föreslår vi en ny metod för en latent och delad funktionsrepresentation på hög nivå från neuroimerande metoder genom djupt lärande. Specifikt använder vi Deep Boltzmann Machine (DBM) 2, ett djupt nätverk med en begränsad Boltzmann maskin som ett byggblock, för att hitta en latent hierarkisk funktion representation från en 3D-plåster, och sedan utforma en systematisk metod för en gemensam funktion representation från de parade fläckar av MRT och PET med en multimodal DBM. För att validera den föreslagna metodens effektivitet utförde vi experiment på ADNI-datauppsättningen och jämförde med de senaste metoderna. I tre binära klassificeringsproblem av AD vs. friska normal kontroll (NC), MCI vs. NC, och MCI Converter vs. MCI icke-konverter, fick vi maximal noggrannhet på 95,35%, 85,67%, respektive 74,58%, överträffar de konkurrerande metoderna. Genom visuell granskning av den utbildade modellen konstaterade vi att den föreslagna metoden hierarkiskt kunde upptäcka de komplexa latenta mönster som ingår i både MRT och PET. | Suk m.fl. föreslå en ny latent och delad funktion representation av neuroimaging data av hjärnan med hjälp av Deep Boltzmann Machine (DBM) för AD/MDC diagnos REF. | 207,190,844 | Hierarchical feature representation and multimodal fusion with deep learning for AD/MCI diagnosis | {'venue': 'NeuroImage', 'journal': 'NeuroImage', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 9,286 |
Abstrakt. Nyligen har ett brett införande av system för erkännande av ansikte och ansikte lett till att det uppstår problem med erkännande av intermodalitet. I detta problem, ansiktsbilder i databasen och de frågebilder fångas på plats förvärvas under helt olika förhållanden eller ens med hjälp av olika utrustningar. Konventionella metoder behandlar antingen proverna i en enhetlig modell eller inför ett mellanliggande omvandlingssteg, som båda skulle leda till allvarlig försämring av prestandan på grund av de stora skillnaderna mellan olika metoder. I detta dokument föreslår vi en ny algoritm som kallas Common Dicriminant Feature Extraction speciellt anpassad för intermodalitetsproblem. I algoritmen är två transformer samtidigt lärt sig att omvandla proverna i båda modaliteterna respektive till den gemensamma funktionen utrymme. Vi formulerar inlärningsmålet genom att införliva både den empiriska diskriminativa kraften och den lokala smidigheten i funktionsomvandlingen. Genom att uttryckligen kontrollera modellens komplexitet genom smidighetsbegränsningen kan vi effektivt minska risken för övermontering och förbättra generaliseringsförmågan. Dessutom, för att klara av den icke-gaussiska distributionen och olika variationer i provutrymmet, utvecklar vi två icke-linjära förlängningar av algoritmen: den ena är baserad på kärnorisering, medan den andra är ett flerstegsramverk. Dessa utvidgningar förbättrar i hög grad erkännandets prestanda i en komplex situation. Omfattande experiment genomförs för att testa våra algoritmer i två tillämpningsscenarier: optisk bildinfraröd bildigenkänning och foto-sketch-igenkänning. Våra algoritmer visar utmärkt prestanda i experimenten. | Det började med REF genom en gemensam discriminant dragextraktion (CDFE) metod. | 15,633,460 | Inter-modality Face Recognition | {'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,287 |
Peer review är en central del i den vetenskapliga publiceringsprocessen. Vi presenterar den första offentliga datauppsättningen av vetenskapliga peer reviews tillgängliga för forskningsändamål (PeerRead v1), 1 ger en möjlighet att studera denna viktiga artefakt. Datauppsättningen består av 14,7K pappersutkast och motsvarande godkända/avslagna beslut på toppnivå, inklusive ACL, NIPS och ICLR. Datasetet innehåller också 10.7K text peer reviews skrivna av experter för en delmängd av dokumenten. Vi beskriver datainsamlingsprocessen och rapporterar intressanta observerade fenomen i peer reviews. Vi föreslår också två nya NLP-uppgifter baserade på denna datauppsättning och tillhandahåller enkla baslinjemodeller. I den första uppgiften visar vi att enkla modeller kan förutsäga om ett dokument accepteras med upp till 21 procents felreduktion jämfört med majoritetens baslinje. I den andra uppgiften förutspår vi de numeriska poängen av granskningsaspekter och visar att enkla modeller kan överträffa medelvärdet för baslinje för aspekter med hög varians såsom "originalitet" och "konsekvens". | Mer nyligen, för att minska hindret för att studera peer reviews för forskarsamhället, har en offentlig datauppsättning av peer reviews släppts för forskningsändamål REF. | 13,746,581 | A Dataset of Peer Reviews (PeerRead): Collection, Insights and NLP Applications | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 9,288 |
Hittills har alla samtidiga sökstrukturer som kan stödja tidigare frågor haft djup logaritmiska i m, antalet element. Detta dokument introducerar SkipTree, en ny samtidig sökstruktur som stöder tidigare frågor i amorterade förväntade O(log log u + c) steg, tillägg och raderingar i O(c log u) och med O(m) utrymme, där u är storleken på nyckelutrymmet och c är innehållet under den senaste tiden. SkipTrie är en probabilistiskt balanserad version av en y-fast trie som består av en mycket ytlig skiplist från vilken slumpmässigt utvalda element sätts in i en hash-table baserad x-fast trie. Genom att infoga nycklar i x-snabb-trie probabilistically, eliminerar vi behovet av ombalansering, och kan ge en låsfri linjärizable implementation. Såvitt vi vet är vårt bevis på SkipTries avskrivna förväntade prestanda det första beviset för en trädbaserad datastruktur. | För samtidiga sökdatastrukturer som säkerställer tidigare frågor, det arbete som ligger närmast vårt är Skip-Tree REF, som tillåter föregångare frågor i amortized förväntade O(logglogg u + γ ) steg, och infogar och raderingar i O (γ log u) tid, där u är storleken på nyckeln utrymme, och γ är en övre gräns vid strid. | 14,555,195 | The SkipTrie: low-depth concurrent search without rebalancing | {'venue': "PODC '13", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,289 |
Tvåvägsrelä kan avsevärt förbättra spektral effektivitet i reläassisterad dubbelriktad kommunikation. Fördelarna och den flexibla strukturen hos multiplexing (OFDM)-baserade tvåvägsreläsystem utnyttjas dock mycket mindre. Dessutom har de flesta av de befintliga verken inte övervägt att tillhandahålla tjänster av hög kvalitet (QoS) för dubbelriktad återutläggning. I detta dokument anser vi att OFDM-baserad dubbelriktad överföring där ett par användare utbyter information via hjälp av ett dekod-och-framåt-relä (DF). Varje användare kan kommunicera med den andra via tre överföringslägen: direkt överföring, envägsrelä och tvåvägsrelä. Vi optimerar gemensamt överföringspolicyerna, inklusive elfördelning, val av överföringsläge och tilldelning av underbärare för att maximera den viktade summan av de två användarna med olika QoS-garantier. Detta är formulerat som ett blandat heltal programmering problem. Genom att använda den dubbla metoden löser vi effektivt problemet på ett asymptotiskt optimalt sätt. Simuleringsresultat visar att det föreslagna resursfördelningssystemet avsevärt kan förbättra systemets prestanda jämfört med konventionella system. Ett antal intressanta insikter erhålls också via omfattande simuleringar. Index Terms-Two-way reläing, avkoda-och-framåt (DF), resursfördelning, ortogonal frekvensdivision multiplexing (OFDM). | I REF optimerades överföringspolicyn, inklusive elfördelning, val av överföringsläge och tilldelning av underbärare, tillsammans med QoS-överväganden för dubbelriktade relänät. | 9,474,290 | QoS-Aware Transmission Policies for OFDM Bidirectional Decode-and-Forward Relaying | {'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,290 |
Abstract-Paketet par mekanism har visat sig vara en tillförlitlig metod för att mäta flaskhals länkkapacitet på en nätverksbana, men dess användning för att mäta tillgänglig bandbredd är mer utmanande. I det här dokumentet använder vi modellering, mätningar och simuleringar för att bättre karakterisera samspelet mellan provpaket och den konkurrerande nätverkstrafiken. Först konstruerar vi en enkel modell för att förstå hur konkurrerande trafik förändrar gapet mellan paketen för ett enda nätverk. gapmodellen visar att den initiala undersökningsklyftan är en kritisk parameter när man använder paketpar för att uppskatta tillgänglig bandbredd. Baserat på denna insikt presenterar vi två tillgängliga bandbreddsmätningsmetoder, den initiala gapökningsmetoden (IGI) och metoden för paketöverföringshastighet (PTR). Vi använder omfattande internetmätningar för att visa att dessa tekniker uppskattar tillgänglig bandbredd snabbare än befintliga tekniker som Pathload, med jämförbar noggrannhet. Slutligen, med hjälp av både Internet-mätningar och ns-simuleringar, undersöker vi hur mätnoggrannheten hos aktiv undersökning påverkas av faktorer som undersökning av paketstorlek, längden på undersökning av pakettåg och den konkurrerande trafiken på andra länkar än den täta länken. Index Terms-Active undersökning, tillgänglig bandbredd, Internet, nätverksmätning. | I REF Hu och Steenkiste rapporterade man om konstruktionen av en delay-gap-modell för att förstå hur korstrafik förändrar felsökningspaketets gap för en enkel-hop-väg. | 16,980,447 | Evaluation and Characterization of Available Bandwidth Probing Techniques | {'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,291 |
ABSTRACT e-hälsovård lovar att bli nästa stora våg inom hälso- och sjukvården. Det erbjuder alla de fördelar och fördelar som kan tänkas både patienten och användaren. De nuvarande e-hälsovårdssystemen är dock ännu inte fullt utvecklade och mogna och saknar därför den grad av sekretess, integritet, integritet och tillit som krävs för att kunna genomföras i stor utsträckning. Två huvudaspekter på alla operativa vårdföretag är kvaliteten på hälso- och sjukvården och patienternas förtroende för vårdföretaget. Förtroendet är sammanflätat med frågor som sekretess, integritet, ansvarsskyldighet, äkthet, identitet och datahantering, för att nämna några. Sekretess är fortfarande ett av de största hindren för att säkerställa framgången med e-hälsovårdslösningar för att vinna patienttillit eftersom det indirekt täcker de flesta säkerhetsfrågor. För att ta itu med integritetsproblem krävs att man tar itu med säkerhetsfrågor som åtkomstkontroll, autentisering, icke-avvisning och ansvarsskyldighet, utan vilka integritet från början till slut inte kan säkerställas. Att uppnå integritet från insamlingen av data i trådlösa sensornätverk, att införliva sakernas Internet, kommunikationslänkar, och datalagring och åtkomst, är ett stort företag och kräver omfattande arbete. Integritetsskyddet förstärks ytterligare av det faktum att de uppgifter som behandlas i ett företag är av extremt personlig och privat natur, och dess misshushållning, antingen avsiktligt eller oavsiktligt, kan allvarligt skada både patienten och framtida utsikter för ett e-hälsovårdsföretag. Forskning som genomförs för att ta itu med integritetsproblem är inte homogen till sin natur. Den fokuserar på att vissa delar av e-hälsovårdsföretaget misslyckas med att fullt ut ta itu med alla aspekter av privatlivet. I mitten av denna pågående forskning och implementering, har en gradvis förändring skett, flytta e-hälsovård företag kontrollerar bort från en organisatorisk nivå mot nivån av patienter. Syftet är att ge patienterna mer kontroll och auktoritet över beslutsfattandet när det gäller deras skyddade hälsoinformation/elektroniska hälsojournaler. En hel del arbete och insatser är nödvändiga för att bättre kunna bedöma genomförbarheten av denna stora förändring i e-hälsovårdsföretag. Befintlig forskning kan naturligtvis delas upp på grundval av de tekniker som används. Dessa inkluderar dataanonymisering/pseudonymisering och mekanismer för åtkomstkontroll främst för lagrad dataintegritet. Detta leder dock till att vissa integritetsskyddskrav (ansvar, integritet, icke-avvisning och identitetshantering) får en plats i baksätet. I detta dokument granskas forskning som genomförts i detta avseende och huruvida denna forskning erbjuder några möjliga lösningar på vare sig patientintegritetskrav för e-hälsovård eller möjligheter att ta itu med (tekniska och psykologiska) integritetsproblem hos användarna. INDEX TERMS e-hälsovård, integritet, anonymitet, åtkomstkontroll. | Sahi och al. REF granskade den senaste forskningen om integritetsbevarande inom e-hälsovård och undersökte om denna forskning erbjuder några möjliga lösningar på patienternas integritetskrav för e-hälsovård. | 3,279,960 | Privacy Preservation in e-Healthcare Environments: State of the Art and Future Directions | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 9,292 |
Abstrakt. Nyligen har det funnits en hel del intresse för kryptografiska applikationer baserade på fält GF (p m ), för p > 2. Detta bidrag presenterar GF (p m ) multiplikatorer arkitekturer, där p är udda. Vi presenterar konstruktioner som handel område för prestanda baserat på antalet koefficienter som multiplikator processer på en gång. Familjer med irreductible polynomials införs för att minska komplexiteten i modulo reduktion operation och därmed förbättra effektiviteten av multiplikatorn. Vi specialiserar oss därför på fälten GF (3 m ) och tillhandahåller den första kubikarkitekturen som presenteras i litteraturen. Vi syntetiserar våra arkitekturer för specialfallet GF (3 97 ) på XCV1000-8-FG1156 och XC2VP20-7-FF1156 FPGAs och tillhandahåller area/prestandanummer och jämförelser med tidigare GF (3 m ) och GF (2 m ) implementationer. Slutligen tillhandahåller vi tabeller över irreductucible polynomials över GF (3) av grad m med 2 ≤ m ≤ 255. | I REF beskrivs en siffrig seriemultiplikator över GF (3 m ). | 469,405 | Efficient GF(p m) Arithmetic Architectures for Cryptographic Applications | {'venue': 'IN TOPICS IN CRYPTOLOGY - CT RSA 2003', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,293 |
Abstract-In commercial-off-the-shelf (COTS) multi-core system kan en uppgift som körs på en kärna försenas av andra uppgifter som körs samtidigt på andra kärnor på grund av störningar i det delade DRAM huvudminnet. En sådan fördröjning av minnesstörningar kan vara stor och mycket varierande, vilket innebär en betydande utmaning för utformningen av förutsägbara realtidssystem. I detta dokument presenterar vi tekniker för att ge en snäv övre gräns för de värsta minnesstörningarna i ett COTS-baserat multikärnsystem. Vi modellerar uttryckligen de stora resurserna i DRAM-systemet, inklusive banker, bussar och minneskontroll. Genom att ta hänsyn till deras timingegenskaper analyserar vi den värsta minnesstörningsfördröjningen som påförts en uppgift av andra uppgifter som körs parallellt. Såvitt vi vet är detta det första arbetet som begränsar begäran om att ombeställa effekten av COTS-minnesregulatorer. Vårt arbete möjliggör också kvantifiering av i vilken utsträckning minnesstörningar kan minskas genom att dela upp DRAM-banker. Vi utvärderar vår strategi på en multikärnig råvaruplattform som kör Linux/RK. Experimentella resultat visar att vårt tillvägagångssätt ger en övre gräns som ligger mycket nära vår uppmätta värsta störning. | Kim och Al. REF presenterade en modell för övre gräns för fördröjningen av minnesstörningar orsakade av samtidig åtkomst till ett gemensamt huvudminne för DRAM. | 7,693,525 | Bounding memory interference delay in COTS-based multi-core systems | {'venue': '2014 IEEE 19th Real-Time and Embedded Technology and Applications Symposium (RTAS)', 'journal': '2014 IEEE 19th Real-Time and Embedded Technology and Applications Symposium (RTAS)', 'mag_field_of_study': ['Computer Science']} | 9,294 |
Vi presenterar ett experiment som visar intangling-förstärkt klassisk kommunikationskapacitet av en kvantkanal med korrelerat buller. Kanalen är modellerad av en fiberoptiklänk som uppvisar slumpmässig birefringens som fluktuerar på en tidsskala mycket längre än temporal separation mellan på varandra följande användningar av kanalen. I denna inställning, införa insnärjning mellan två fotoner som reser ner fibern gör det möjligt att koda tillförlitligt upp till en bit av information i deras gemensamma polarisering grad av frihet. När inga kvant korrelationer mellan två separata användningar av kanalen är tillåtna, minskas denna kapacitet med en faktor på mer än tre. Vi demonstrerade denna effekt med hjälp av en fiber-kopplad källa av entagled foton par baserat på spontan parametrisk nedkonversion, och en linjär-optik Bell tillstånd mätning. PAC-nummer: 03.67. Hk, 03.65.Yz, 42.50.Dv, 89.70.+c Kvantmekanik medger förekomsten av korrelationer som inte kan förklaras helt enkelt som statistisk osäkerhet vid tilldelning av bestämda realistiska egenskaper lokalt till varje delsystem. Denna egenskap hos kvantmekanik kvantifierades först i form av Bells ojämlikheter som diskriminerar den mot teorier baserade på antagandet om lokal realism [1]. Under de senaste åren har denna specifika kvantform av korrelationer, som vanligen kallas trassling, utnyttjats för att utveckla nya former av informationsbehandling som erbjuder fördelar som inte är tillgängliga genom den klassiska metoden [2]. De välkända exemplen inkluderar att lösa vissa beräkningsuppgifter via kollektiva enhetsoperationer på sammanhängande register över kvantpartiklar [3], eller att distribuera en kryptografisk nyckel med den säkerhet som verifieras genom upptäckt av insnärjning [4]. Intangling spelar också en icke-trivial roll i ett antal scenarier för att skicka både klassisk information och kvanttillstånd över bullriga kvantkanaler [5]. I detta brev visar vi experimentellt hur trassling kan användas för att förbättra klassisk kommunikation över en bullrig kanal. Vårt experiment följer nya teoretiska studier [6, 7, 8 ] som analyserade klassisk kommunikation över kvantkanaler där det buller som påverkar på varandra följande användningar korreleras. Det är då naturligt att överväga två typer av inmatningsensembler som används för kommunikation. Den första är begränsad till att införa klassiska korrelationer mellan separata användningar av kanalen, och den kan förberedas genom att individuellt justera kvanttillståndet för varje partikel som sänds genom kanalen i en enda användning. Den andra, helt allmänna ingångsensemblen inkluderar insnärjda tillstånd av många partiklar som sedan skickas genom kanalen en efter en. Teoretisk analys av modellsituationer visade att användningen av insnärjd input ensemble kan avsevärt förbättra den klassiska kapaciteten, och vårt arbete ger ett bevis på den experimentella principverifieringen av denna förutsägelse. Vårt experiment implementerar idén som beskrivs i Ref. [8] som vi nu kortfattat kommer att granska. Modellen av en bullrig kvantkanal som analyserades där var motiverad av fluktuerande birefringens av en standard optisk fiber, som förvränger polariseringen av en ingångsljuspuls till ett helt blandat tillstånd. Den karakteristiska tidsskalan för birefringensfluktuationer är dock vanligtvis mycket längre än den tidsmässiga separationen mellan på varandra följande ljuspulser. Det faktum att angränsande ljuspulser genomgår en slumpmässig men nästan identisk polariseringsomvandling öppnar för möjligheten att koda information i polariseringsgraden av det överförda ljusets frihet. Låt oss överväga ett enkelt scenario, när var och en av de två pulserna innehåller exakt en foton, vilket är den minsta mängd ljus som krävs för att utlösa en bestämd respons på en idealisk, ljudfri fotonräkningsdetektor. Om avsändaren inte har teknisk kapacitet att generera insnärjda fotonpar, allt hon kan göra är att tilldela en bestämd polarisering till var och en av fotonerna. I denna inställning, den optimala kodningen av information visar sig vara ett par fotoner med polarisationer som antingen är identiska eller ömsesidigt ortogonal, till exempel på. (Den diagonala polariseringsgrund som introduceras här kommer att vara naturlig i beskrivningen av vårt experiment.) Efter kollektiv polarisering kan dock inte dessa två stater diskrimineras otvetydigt, och den högsta möjliga överföringshastigheten är log 2 (5/4) på 0,322 bitar per två fotoner [8]. Fördelen med att använda insnärjda tillstånd i ovanstående scenario blir uppenbar när vi kommer ihåg att singelpolariseringstillståndet för två fotoner är invariantt under korrelerad depolarisering [9], och därför kan det diskrimineras otvetydigt mot den ortogonala triplet subrymden. Detta faktum gör att man troget kan koda in en hel del information i polariseringstillståndet för två fotoner genom att skicka antingen det singlet-tillståndet eller ett av trioltillstånden, vilket representerar mer än en trefaldig förbättring jämfört med det separerade fallet. En detaljerad beräkning baserad på Holevo bundet visar att detta är den optimala kapacitet som uppnås med två foton insnärjda tillstånd [8]. Den mätning som krävs på mottagarsidan för att maximera kapaciteten i både insnärjda och åtskilda fall har | I REF används insnärjda fotonpar för att förbättra kommunikationssystemets kapacitet genom att använda korrelationsbeteendet för att koda fler bitar med hjälp av optisk fiberkanal. | 42,057,890 | Experimental Demonstration of Entanglement-Enhanced Classical Communication over a Quantum Channel with Correlated Noise | {'venue': 'Phys. Rev. Lett. 92, 257901 (2004)', 'journal': None, 'mag_field_of_study': ['Physics', 'Medicine']} | 9,295 |
I detta dokument presenteras preliminära resultat av upptäckten av kulturella skillnader från människors erfarenheter i olika länder ur två perspektiv: turister och lokalbefolkningen. Vår strategi är att utveckla probabilistiska modeller som skulle ge en bra ram för sådana studier. Därför föreslår vi här en ny modell, ccLDA, som sträcker sig över Latent Dirichlet Allocation (LDA) (Blei et al., 2003) och tvärkollektiv blandning (ccMix) (Zhai et al., 2004 ) modeller på bloggar och forum. Vi tillhandahåller också en kvalitativ och kvantitativ analys av modellen på tvärkulturella data. | Vårt arbete är närmast relaterat till det genom REF, där de identifierar kulturella skillnader i människors erfarenheter i olika länder ur turisternas och lokalbefolkningens perspektiv. | 1,144,564 | Cross-Cultural Analysis of Blogs and Forums with Mixed-Collection Topic Models | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,296 |
: Detta papper föreslår en djup neural arkitektur för bit-wise planar djupkarta rekonstruktion från en enda RGB-bild. Från vänster till höger, en ingångsbild, en bitvis plansegmentering, en rekonstruerad djupkarta och en texturmappad 3D-modell. Detta dokument föreslår ett djupt neuralt nätverk (DNN) för bit-wise planar djupkarta rekonstruktion från en enda RGB-bild. Medan DNN har fört anmärkningsvärda framsteg till en-bild djup förutsägelse, bit-wise plana djupkarta rekonstruktion kräver en strukturerad geometri representation, och har varit en svår uppgift att bemästra även för DNNs. Den föreslagna end-to-end DNN lär sig att direkt dra en uppsättning planparametrar och motsvarande plansegmenteringsmasker från en enda RGB-bild. Vi har genererat mer än 50,000 bitvis plana djupkartor för utbildning och testning från ScanNet, en storskalig RGBD-videodatabas. Våra kvalitativa och kvantitativa utvärderingar visar att den föreslagna metoden överträffar baslinjemetoderna både när det gäller plansegmentering och noggrannhet för djupuppskattning. Såvitt vi vet presenterar detta dokument den första neurala arkitekturen för bitvis planrekonstruktion från en enda RGB-bild. Kod och data finns på https: //github.com/art-programmer/PlaneNet. Beräkningen av djupvärdet kräver kamerans inneboende parametrar, som t.ex. kan uppskattas genom analys av försvinnande punkter. I våra experiment, inneboende ges för varje bild genom databasen information. | Nyligen, PlaneNet REF på nytt den styckevisa planar djupkarta återuppbyggnad problem med en end-to-end lärande ramar från en enda inomhus RGB bild. | 4,563,271 | PlaneNet: Piece-Wise Planar Reconstruction from a Single RGB Image | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 9,297 |
Vi ser över arbetet med datadriven förståelse syntes och metoderna för provtagning och rankning kandidat grepp. Vi delar in tillvägagångssätten i tre grupper baserat på om de syntetiserar grepp för kända, bekanta eller okända objekt. Denna struktur gör att vi kan identifiera gemensamma objekt representationer och perceptuella processer som underlättar den använda datadrivna grepp syntesteknik. När det gäller kända objekt koncentrerar vi oss på de metoder som bygger på objektigenkänning och utgör uppskattning. När det gäller bekanta objekt, teknikerna använder någon form av en likhet som matchar en uppsättning av tidigare påträffade objekt. Slutligen för tillvägagångssätt som handlar om okända objekt, den centrala delen är utvinning av specifika egenskaper som är tecken på bra grepp. Vår enkät ger en översikt över de olika metoderna och diskuterar öppna problem inom robotgriparområdet. Vi drar också en parallell till de klassiska tillvägagångssätt som är beroende av analytiska formuleringar. | För en bredare översikt över gripa domänen se REF, där datadrivna förstå syntes av kända, bekanta och okända objekt undersöks ingående, inklusive en del av det arbete som nämns här. | 8,815,923 | Data-Driven Grasp Synthesis - A Survey | {'venue': 'Trans. Rob. 30, 2 (April 2014), 289-309', 'journal': None, 'mag_field_of_study': ['Engineering', 'Computer Science', 'Psychology']} | 9,298 |
I den högdimensionella regressionsmodellen är en responsvariabel linjärt relaterad till p-kovariater, men provstorleken n är mindre än p. Vi antar att endast en liten delmängd av kovariater är "aktiv" (dvs. motsvarande koefficienter är icke-noll), och anser att problemet med modellurval är att identifiera de aktiva kovariaterna. Ett populärt tillvägagångssätt är att uppskatta regressionskoefficienterna genom Lasso ( 1 -regulariserade minst kvadrater). Detta är känt för att korrekt identifiera den aktiva uppsättningen endast om de irrelevanta kovariaterna är grovt ortogonala till de relevanta, som kvantifieras genom den så kallade "isrepresenterbarhet" villkor. I detta papper studerar vi "Gauss-Lasso"-väljaren, en enkel tvåstegsmetod som först löser Lasso, och sedan utför vanliga minst kvadrater begränsade till Lasso aktiva uppsättning. Vi formulerar "generaliserat irrepresenterbarhetsvillkor" (GIC), ett antagande som är väsentligt svagare än irrepresenterbarhet. Vi bevisar att, under GIC, Gauss-Lasso korrekt återhämtar den aktiva uppsättningen. | Modell urvalsproblem undersöktes också under den svagare, generaliserade irrepresenterbarhet villkor, för Gauss-Lasso estimator REF. | 6,448,637 | Model Selection for High-Dimensional Regression under the Generalized Irrepresentability Condition | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 9,299 |
Vi anser att ROC historien kloze uppgift (Mostafazadeh et al., 2016) och presentera flera resultat. Vi utvecklar en modell som använder hierarkiska återkommande nätverk med fokus på att koda meningarna i berättelsen och poäng kandidatslut. Genom att kasta bort det stora träningssetet och endast utbildning på valideringssetet uppnår vi en noggrannhet på 74,7%. Även när vi kastar berättelserna (sentser före slutet) och bara tränar för att välja det bättre av två slut, kan vi fortfarande nå 72,5%. Vi analyserar sedan denna "end-only"-uppgiftsinställning. Vi uppskattar mänsklig noggrannhet till 78% och hittar flera typer av ledtrådar som leder till denna höga noggrannhet, inklusive de relaterade till känslor, negation, och allmänna slutsannolikhet oavsett berättelsen sammanhang. | REF utvecklade en modell som använder hierarkiska återkommande nätverk med avsikt att koda meningar och skapade en stark baslinje. | 2,325,074 | Pay Attention to the Ending:Strong Neural Baselines for the ROC Story Cloze Task | {'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,300 |
Abstract-This paper tar upp problemet med att maximera nätverket livslängden för uppladdningsbara trådlösa Sensor Networks (WSNs) samtidigt som alla mål övervakas kontinuerligt av minst en sensor nod. Målet är att bestämma en grupp av sensornoder, och deras uppvaknande schema så att inom ett tidsintervall, en delmängd av noder är aktiva medan andra går in i vilotillståndet för att spara energi samt ladda sitt batteri. Vi föreslår en linjär programmering (LP) baserad lösning för att bestämma aktiveringsschemat för sensornoder samtidigt ge dem laddningsmöjligheter och samtidigt säkerställer fullständig måltäckning. Resultaten visar att vår LP-lösning uppnår mer än dubbelt så hög prestanda när det gäller nätverkslivslängd jämfört med liknande algoritmer som utvecklats för ändliga WSN-batterier. Men det är beräknings dyrt. Vi föreslår därför Maximum Utility Algorithm (MUA), några order av magnitud snabbare strategi som uppnår 3/4 av nätverkets livslängd som erhålls genom vår LP-lösning. | I REF, författaren utarbetade problemet med att öka livslängden för trådlösa sensornätverk WSNs. | 20,193,995 | Novel Algorithms for Complete Targets Coverage in Energy Harvesting Wireless Sensor Networks | {'venue': 'IEEE Communications Letters', 'journal': 'IEEE Communications Letters', 'mag_field_of_study': ['Computer Science']} | 9,301 |
SharC är ett nyligen utvecklat system för att kontrollera datadelning i multitrådade program. Programmerare specificerar delningsregler (read only, skyddas av ett lås, etc.) för enskilda objekt, och SharC-kompilatorn tillämpar dessa regler med hjälp av statiska och dynamiska kontroller. Överträdelser av dessa regler tyder på oavsiktlig datadelning, vilket är den bakomliggande orsaken till skadliga data-spårningar. Dessutom tillåter SharC programmerare att ändra delningsreglerna för ett visst objekt med hjälp av ett delningskast, för att fånga det faktum att delningsregler för ett objekt ofta ändras under objektets livstid. SharC applicerades framgångsrikt på ett antal flertrådiga C-program. Men många program är inte lätt att kontrollera med SharC eftersom deras delningsregler, och ändringar av delningsregler, effektivt gäller för hela datastrukturer snarare än för enskilda objekt. Vi har utvecklat ett system som heter Shoal för att ta itu med denna brist. Förutom delningsregler och delning av SharC innehåller vårt system ett nytt koncept som vi kallar grupper. En grupp är en samling objekt som alla har samma delningsläge. Varje grupp har en framstående medlem som kallas gruppledaren. När gruppledarens delningsläge ändras genom en delning, ändras också delningsläget för alla medlemmar i gruppen. Denna operation görs sund genom att upprätthålla den invariant som vid tidpunkten för en sharing kast, den enda externa pekaren i gruppen är pekaren till gruppledaren. Tillägg av grupper gör det möjligt att kontrollera säker samstämmighet på nivån för datastrukturer snarare än på nivån för enskilda objekt. Vi visar nödvändigheten och praktiskheten av grupper genom att tillämpa Shoal på ett brett spektrum av samtidiga C-program (den största närmar sig en miljon rader kod). I alla referensvärden grupper medför låg notation börda och inga betydande ytterligare resultat overhead. | Detta är också relaterat till delnings gjutna kommentarer kontrolleras av en kombination av statisk och dynamisk analys i SharC-verktyget REF. | 6,736,071 | Lightweight annotations for controlling sharing in concurrent data structures | {'venue': "PLDI '09", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,302 |
Abstrakt. Networking Named Content (NNC) föreslogs nyligen som ett nytt nätverksparadigm för att förverkliga Content Centric Networks (CCNs). Det nya paradigmet förändrar mycket om det nuvarande Internet, från namngivning och upplösning av säkerhet och innehåll till cachelagring vid routrar och nya flödesmodeller. I detta dokument studerar vi den caching delen av det föreslagna nätverksparadigmet isolerat från resten av de föreslagna funktionerna. I CCNs, varje router cache paket av innehåll och återanvända de som fortfarande finns i cache, när senare begärt. Det är denna caching egenskap hos CCNs som vi modellerar och utvärderar i detta dokument. Vår modellering fortskrider både analytiskt och genom simulering. Inledningsvis utvecklar vi en matematisk modell för en enda router, baserad på kontinuerlig tid Markov-kedjor, som bedömer hur stor andel av tiden en viss del av innehållet är cachad. Denna modell är utökad till flera routrar med några enkla approximationer. Den matematiska modellen kompletteras av simuleringar som tittar på cachedynamiken, på paketnivå, isolerat från resten av flödet. | I REF har författarna presenterat modellering och utvärdering av cachepolitik baserad på Markovkedjor. | 2,150,081 | Modelling and Evaluation of CCN-caching Trees ⋆ | {'venue': 'Networking', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,303 |
Semantisk matchning, som syftar till att fastställa matchningsgraden mellan två texter, är ett grundläggande problem för många NLP-tillämpningar. På senare tid har man tillämpat en strategi för fördjupat lärande på detta problem, och betydande förbättringar har gjorts. I detta dokument föreslår vi att man ser skapandet av ett globalt samspel mellan två texter som en rekursiv process: d.v.s. samspelet mellan två texter vid varje position är en sammansättning av interaktionerna mellan deras prefix och ordnivåinteraktionen vid den aktuella positionen. Utifrån denna idé föreslår vi en ny djup arkitektur, nämligen Match-SRNN, för att modellera den rekursiva matchningsstrukturen. För det första är en tensor konstruerad för att fånga ordet nivå interaktioner. Därefter appliceras en rumslig RNN för att integrera de lokala interaktionerna rekursivt, med betydelse bestämd av fyra typer av grindar. Slutligen beräknas matchningspoängen baserat på den globala interaktionen. Vi visar att efter att ha degenererats till det exakta matchningsscenariot kan Match-SRNN approximera den dynamiska programmeringsprocessen av den längsta gemensamma undersekvensen. Det finns således en tydlig tolkning för Match-SRNN. Våra experiment på två semantiska matchningsuppgifter visade effektiviteten av Match-SRNN, och dess förmåga att visualisera den inlärda matchningsstrukturen. | I REF, Wan et al. introducerade Match-SRNN för att modellera den rekursiva matchningsstrukturen i de lokala interaktionerna så att fjärrberoendet mellan interaktionerna kan fångas upp. | 1,405,154 | Match-SRNN: Modeling the Recursive Matching Structure with Spatial RNN | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 9,304 |
Detta dokument ger en mer detaljerad analys av den föreslagna algoritmen för beräkning av länkstabilitet, utökar simuleringsresultaten och föreslår också att systemet för skattning av länkstabilitet tillämpas på routingprotokoll för mobila ad hoc-nät. MEDDELANDE: Detta är författarens version av ett verk som accepterades för publicering i Journal of Network and Computer Applications. Ändringar till följd av publiceringsprocessen, såsom peer review, redigering, korrigeringar, strukturformatering och andra mekanismer för kvalitetskontroll får inte återspeglas i detta dokument. Ändringar kan ha gjorts i detta arbete sedan det lämnades in för offentliggörande. Abstract -Länkstabilitetsfrågan är viktig i många avseenden, särskilt för vägvalsprocessen i mobila ad hoc-nät (MANETS). De flesta tidigare arbeten fokuserar på länkstabiliteten i statiska miljöer, med fasta provtagningsfönster som endast lämpar sig för vissa nättopologier. I detta dokument föreslår vi ett system för att uppskatta länkens stabilitet baserat på ändringar av länkanslutningen, som kan utföras på nätverksskiktet, utan behov av kringutrustning eller data med lågt lager. Vi antar ett urvalsfönster med varierande storlek och föreslår en metod för att uppskatta länkövergångstakten. Uppskattningssystemet är inte begränsat till specifika nättopologier eller rörlighetsmodeller. Därefter föreslår vi en routingmetod som justerar driftläget baserat på den uppskattade länkstabiliteten. Simuleringsresultat visar att det föreslagna systemet kan ge korrekt uppskattning i både stationära och icke-stationära scenarier, och det framlagda routingprotokollet överträffar konventionella routingsystem utan kopplingsstabilitetsberäkning. | I Ref lägger författarna fram en routingstrategi genom att anta ett urvalsfönster med varierande storlek för att beräkna länkövergångshastigheter och därmed uppskatta länkstabiliteten på grundval av ändringar i länkanslutningen. | 19,011,489 | Link stability estimation based on link connectivity changes in mobile ad-hoc networks | {'venue': 'J. Netw. Comput. Appl.', 'journal': 'J. Netw. Comput. Appl.', 'mag_field_of_study': ['Computer Science']} | 9,305 |
Vi presenterar en snabb teknik för att hämta videoklipp med hjälp av fri-hand skissade frågor. Visuella keypoints i varje video detekteras och spåras för att bilda korta banor, som är grupperade för att bilda en uppsättning rymdtid tokens som sammanfattar videoinnehåll. En Viterbi-process matchar en tidsrymdsgraf av polletter med en beskrivning av färg och rörelse som extraherats från frågeskissen. Oegentligheter i den skissade frågan förbättras genom att datorbana kostar med hjälp av ett Levenshtein (redigera) avstånd. Vi utvärderar över datauppsättningar av sportfilmer. | - Ja, det gör jag. Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. REF spår SIFT nyckelpunkter för att bilda korta banor som är grupperade för att bilda en uppsättning rum-tid polletter. | 16,025,524 | Motion-sketch Based Video Retrieval Using a Trellis Levenshtein Distance | {'venue': '2010 20th International Conference on Pattern Recognition', 'journal': '2010 20th International Conference on Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 9,306 |
Abstrakt. Detta dokument tar upp problemet med att probabilistiskt modellera 3D-människans rörelse för syntes och spårning. Med tanke på den mänskliga rörelsens höga dimension är det för närvarande opraktiskt att lära sig en explicit probabilistisk modell från tillgängliga utbildningsdata. Istället utnyttjar vi metoder från textursyntes som behandlar bilder som en implicit empirisk distribution. Dessa metoder ersätter problemet med att representera sannolikheten för ett texturmönster med att söka träningsdata för liknande fall av detta mönster. Vi utvidgar denna idé till tidsdata som representerar 3D-människors rörelse med en stor databas med exempelrörelser. För att göra metoden användbar i praktiken måste vi ta itu med problemet med effektiv sökning i en stor utbildningssats. Effektivitet är särskilt viktigt för spårning. I detta syfte lär vi oss en lågdimensionell linjär modell av mänsklig rörelse som används för att strukturera exemplet rörelsedatabas i ett binärt träd. En ungefärlig probabilistisk trädsökningsmetod utnyttjar koefficienterna för denna lågdimensionella representation och löper i sublinjär tid. Detta probabilistiska träd sökande returnerar ett visst prov mänsklig rörelse med sannolikhet ungefärlig fördelning av mänskliga rörelser i databasen. Denna provtagningsmetod är lämplig för användning med partikelfiltreringsteknik och tillämpas på ledad 3D-spårning av människor inom ett Bayesianskt ramverk. Framgångsrika spårningsresultat presenteras, tillsammans med exempel på syntetisering av mänsklig rörelse med hjälp av modellen. | I REF föreslås också ett tillvägagångssätt för att probabilistiskt modellera 3D-människans rörelse för karaktärssyntes och -spårning. | 6,017,383 | Implicit Probabilistic Models of Human Motion for Synthesis and Tracking | {'venue': 'IN EUROPEAN CONFERENCE ON COMPUTER VISION', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,307 |
Abstract-Cellular operatörer vänder i allt högre grad mot förnybar energi (RE) som ett alternativ till att använda traditionell el för att minska driftskostnader och koldioxidavtryck. På grund av slumpmässigheten i både RE-generering och mobil trafik vid varje basstation (BS), kan ett överskott eller brist på energi uppstå vid varje given tidpunkt. För att öka energiselfance och minimera nätets energikostnader, måste operatören effektivt utnyttja den RE som genereras i alla BS. I detta dokument föreslås en ram för hybridenergidelning för cellulära nät, där en kombination av fysiska kraftledningar och energihandel med andra BS som använder smarta nät används. Algoritmer för fysisk kraftledningar utbyggnad mellan BS, baserat på genomsnittlig och fullständig statistik över den tillgängliga netto RE, utvecklas. Därefter utarbetas en ram för energihantering för att på bästa sätt fastställa de mängder el och förnybar energi som ska upphandlas och utbytas mellan BS, samtidigt som man beaktar batterikapacitet och energiprissättning i realtid. Tre fall undersöks där RE-generationen är okänd, fullständigt känd och delvis känd i förväg. Resultaten undersöker tiden med varierande energihantering för BS och visar en avsevärd minskning av den genomsnittliga energikostnaden tack vare hybridenergidelningssystemet. | En ram för energihantering är formulerad i REF för att fastställa mängden konventionell och förnybar energi som ska utbytas mellan BS med viss batterikapacitet och med beaktande av energipriser i realtid där den förnybara energiproduktionen är okänd, fullständigt känd och delvis känd i förväg. | 12,248,514 | A Hybrid Energy Sharing Framework for Green Cellular Networks | {'venue': 'IEEE Transactions on Communications 2017', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 9,308 |
Vi tar upp problemet med att förutsäga ett ord från tidigare ord i ett textprov. I synnerhet diskuterar vi n-grammodeller baserade på ordklasser. Vi diskuterar också flera statistiska algoritmer för att tilldela ord till klasser baserat på frekvensen av deras samtidiga förekomst med andra ord. Vi finner att vi kan extrahera klasser som har smaken av antingen syntaktiskt baserade grupperingar eller semantiskt baserade grupperingar, beroende på arten av den underliggande statistiken. | Bruna ordkluster är hierarkiska kluster inducerad av frekvensen av samtidiga förekomster med andra ord REF. | 10,986,188 | Class-Based N-Gram Models Of Natural Language | {'venue': 'Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,309 |
Detektion av förändringar är ett av de centrala problemen vid jordobservation och undersöktes ingående under de senaste årtiondena. I detta dokument föreslår vi en ny återkommande konvolutionell neurala nätverk (ReCNN) arkitektur, som är tränad att lära sig en gemensam spektral-spatial-temporal funktion representation i en enhetlig ram för förändring upptäckt i multispektral bilder. I detta syfte för vi samman ett konvolutionellt neuralt nätverk och ett återkommande neuralt nätverk till ett end-to-end-nätverk. Den förra kan generera rika spektral-spatiala funktioner representationer, medan den senare effektivt analyserar temporal beroende i bitamporal bilder. Jämfört med tidigare metoder för att ändra detektion, har den föreslagna nätverksarkitekturen tre distinkta egenskaper: 1) den är end-to-end trailing, i motsats till de flesta befintliga metoder vars komponenter är separat utbildade eller datoriserade; 2) den utnyttjar naturligt rumslig information som har visat sig vara till nytta för att ändra detektionsuppgift; och 3) den är kapabel att anpassa sig till det tidsmässiga beroendet mellan multitemporala bilder, till skillnad från de flesta algoritmer som använder ganska enkel operation som bilddifferencing eller stapling. Så vitt vi vet är detta första gången som en återkommande konvolutionell nätverksarkitektur har föreslagits för multitemporell fjärranalys av bilder. Det föreslagna nätverket valideras för verkliga multispektraldatamängder. Både visuella och kvantitativa analyser av de experimentella resultaten visar konkurrenskraft i det föreslagna läget. Index Terms-Change detektion, lång korttidsminne (LSTM), multitemporal bildanalys, återkommande konvolutionella neurala nätverk (ReCNN). | Referensreferensreferensen föreslog en ny nätverksarkitektur, som är utbildad för att lära sig en gemensam spektral-spatialtemporal funktion representation i en enhetlig ram för förändring upptäckt av multispektral bilder. | 3,714,780 | Learning Spectral-Spatial-Temporal Features via a Recurrent Convolutional Neural Network for Change Detection in Multispectral Imagery | {'venue': 'IEEE Transactions on Geoscience and Remote Sensing', 'journal': 'IEEE Transactions on Geoscience and Remote Sensing', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,310 |
I avsaknad av platsfel, geografiska routing - med hjälp av en kombination av girig spedition och ansikts routing - har visat sig fungera korrekt och effektivt. Effekterna av platsfel på geografisk routing har inte studerats tidigare. I detta arbete ger vi en detaljerad analys av effekterna av lokaliseringsfel på korrektheten och prestandan hos geografisk routing i statiska sensornätverk. Först utför vi en mikro-nivå beteendeanalys för att identifiera möjliga protokollfel scenarier och deras villkor och gränser. Därefter presenterar vi resultat från en omfattande simuleringsstudie av GPSR och GHT för att kvantifiera prestandanedbrytningen på grund av platsfel. Våra resultat visar att även små platsfel (av 10% av radioområdet eller mindre) i själva verket kan leda till felaktig (icke återvinningsbar) geografisk routing med märkbar prestandanedbrytning. Vi introducerar sedan en enkel modifiering för ansikte routing som eliminerar sannolika fel och leder till nästan perfekt prestanda. | I REF studerar författarna effekten av localization fel på ansikte routing. | 9,387,096 | On the effect of localization errors on geographic face routing in sensor networks | {'venue': "IPSN '04", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,311 |
Abstrakt. Under de senaste åren har CNL (Kontrollerat naturligt språk) fått stor uppmärksamhet när det gäller ontologibaserade kunskapsinhämtningssystem. CNL:er, som undergrupper av naturliga språk, kan vara användbara för både människor och datorer genom att eliminera tvetydighet i naturliga språk. Vårt tidigare arbete, OntoPath [10], föreslog att redigera naturliga språkliknande berättelser som är strukturerade i RDF (Resource Description Framework) tredubblar med hjälp av en domänspecifik ontologi som deras språkbeståndsdelar. Vårt tidigare arbete och andra system som använder CFG för grammatikdefinition har dock svårt att utöka uttryckskapaciteten. En nyutvecklad redaktör, som vi föreslår i denna uppsats, tillåter grammatikdefinitioner genom CFG-LD (Contextfri Grammatik med Lexical Dependency) som inkluderar sekventiella och semantiska strukturer av grammatiken. Med CFG som beskriver grammatikens sekventiella struktur kan lexiska beroenden mellan meningselement anges i definitionssystemet. Genom den definierade grammatiken guidar den implementerade redaktören användarnas berättelser i mer bekanta uttryck med en domänspecifik ontologi och översätter innehållet till RDF-tripplar. | Slutligen, REF presentera en Ontology baserad Controlled Natural Language Editor, liknande GINO, som använder CFG (Context-free grammatik) och lexical beroenden -CFG-DL för att generera RDF triples. | 133,198 | Ontology-based Controlled Natural Language Editor Using CFG with Lexical Dependency | {'venue': 'ISWC/ASWC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,312 |
Överför lärande, där ett nätverk utbildas på en uppgift och används på en annan, används ofta för att producera neurala nätverk klassificerare när data är knapp eller fullskalig utbildning är för kostsamt. När målet är att ta fram en modell som inte bara är korrekt utan också tvärtemot robust blir databrist och beräkningsbegränsningar ännu mer besvärliga. Vi anser robust överföringsutbildning, där vi överför inte bara prestanda utan också robusthet från en källmodell till en måldomän. Vi börjar med att observera att robusta nätverk innehåller robusta funktionsextraktorer. Genom att träna klassificerare på dessa funktionsextraktorer producerar vi nya modeller som ärver robustheten i deras föräldranätverk. Vi betraktar sedan fallet med "fin inställning" ett nätverk genom att omskola end-to-end i måldomänen. När man använder strategier för livslångt lärande bevarar denna process källnätverkets robusthet samtidigt som man uppnår hög noggrannhet. Genom att använda sådana strategier är det möjligt att producera exakta och robusta modeller med lite data, och utan kostnaden för kontradiktorisk träning. | Eller där modellen är motsträvigt tränad på källdatasetet och naturligt tränad på måldatasetet REF. | 159,041,190 | Adversarially robust transfer learning | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 9,313 |
När multicoreprocessorer blir standard letar forskarna aggressivt efter programutförandemodeller som gör det lättare att använda tillgängliga resurser. Multitrådade programmeringsmodeller som förlitar sig på statiskt parallella program har vunnit prevalens. Merparten av den befintliga forskningen syftar till att anpassa och förbättra sådana modeller, lindra deras nackdelar och förenkla användningen av dem. Detta dokument tar ett annat tillvägagångssätt och föreslår en ny utförandemodell för att uppnå parallellt utförande av statiskt-sekvensprogram. Den parallelliserar dynamiskt utförandet av lämpligt skrivna sekventiella program, på ett dataflöde sätt, på flera processkärnor. Det är betecknande att avrättningen är rasfri och beslutsam. Modellen underlättar alltså programutvecklingen och utnyttjar ändå tillgänglig parallellism. Detta dokument beskriver genomförandet av ett programruntime-bibliotek som implementerar den föreslagna exekveringsmodellen på befintliga kommersiella multicore-maskiner. Vi presenterar resultat från experiment som kör referensprogram, med både den föreslagna tekniken och traditionell parallellprogrammering, på tre olika system. Vi finner att utöver att underlätta utvecklingen av riktmärken, metoden är resurseffektiv och uppnår prestanda som liknar den traditionella metoden, med hjälp av lager kompilatorer, operativsystem och hårdvara, trots overheads av en all-programvara genomförande av modellen. | REF har också producerat ett programvarusystem som implementerat dataflöde exekvering av sekventiella tvingande program på flerkärniga system. | 2,141,792 | Dataflow execution of sequential imperative programs on multicore architectures | {'venue': 'MICRO-44', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,314 |
Vi anser att problemet med Bayesian lärande på känsliga dataset och presentera två enkla men något överraskande resultat som kopplar Bayesian lärande till "differentiell integritet", en kryptografisk strategi för att skydda individ-nivå integritet samtidigt tillåta databas-nivå verktyg. Särskilt visar vi att enligt standardantaganden, att få ett enda prov från en bakre fördelning är differentialt privat "fritt". Vi kommer att se att estimator är statistiskt konsekvent, nära optimal och beräkningsbart när Bayesian modellen av intresse är konsekvent, optimal och dragbar. På samma sätt men separat, visar vi att en ny rad av verk som använder stokastisk lutning för Hybrid Monte Carlo (HMC) provtagning också bevara differentially integritet med mindre eller inga ändringar av algoritmiska förfarandet alls, dessa observationer leder till en "när som helst" algoritm för Bayesian lärande under integritetsbegränsning. Vi visar att det presterar mycket bättre än den senaste differential privata metoder på syntetiska och verkliga dataset. | REF visar att Bayesian bakre provtagning erbjuder olika integritetsgarantier. | 7,409,485 | Privacy for Free: Posterior Sampling and Stochastic Gradient Monte Carlo | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,315 |
: Med tanke på en godtycklig ofullständig scen (vänster bild), den föreslagna kontexten kodare producerar en rimlig strukturell komplettering (medelstor bild), som senare kan förfinas med en patch-baserad inpainting metod (höger bild). Scen-agnostiska visuella inpainting är fortfarande mycket utmanande trots framsteg i patch-baserade metoder. Nyligen, Pathak m.fl. [26] har infört konvolutionella "kontextkodare" (CE) för oövervakad funktionsinlärning genom bildbehandling. Med ytterligare hjälp av kontradiktorisk utbildning visade sig CEs vara ett lovande verktyg för att slutföra komplexa strukturer i verkliga målarproblem. I detta dokument föreslår vi att denna nyckelförmåga ska främjas ytterligare genom att man förlitar sig på perceptuella förluster av återuppbyggnad vid utbildningstidpunkten. Vi visar på ett brett utbud av visuella scener förtjänsten av att närma sig för strukturinmålning, och bekräfta det genom en användarstudie. I kombination med den optimeringsbaserade förfiningen av [32] med neurala fläckar öppnar vår sammanhangskodare nya möjligheter för tidigare fri visuell målning. | Strukturell inpainting REF, som är CE-baserad metod, använde en ytterligare förlust term kallas perceptuell återuppbyggnad förlust för bild inpainting. | 4,380,747 | Structural inpainting | {'venue': "MM '18", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,316 |
Abstrakt. Säkerhet kränks ständigt av oavsiktlig förlust av hemliga nycklar, och som en lösning föreslog Dodis, Katz, Xu och Yung [11], i Eurocrypt 2002, ett nytt paradigm som kallas nyckelisolerad säkerhet som ger tolerans mot viktiga exponeringar. Deras system introducerar en "hjälpnyckel" som används för att regelbundet uppdatera dekrypteringsnyckeln. Den mest attraktiva delen av detta system är att även om en dekrypteringsnyckel för en tidsperiod exponeras, säkerheten för resten av perioderna påverkas inte. Men hur klarar sig den här hjälparnyckeln? Kan det göras effektivt? För att lindra de skador som orsakas av viktiga exponeringar måste dekrypteringsnyckeln uppdateras med mycket korta intervaller, även om frekvent uppdatering i stället kommer att öka risken för hjälpcentralexponering. I detta dokument föreslår vi parallell nyckelisolerad kryptering med öppen nyckel där två olika hjälptangenter alternativt uppdaterar en dekrypteringsnyckel. Hjälparnyckeln i det ena systemet är oberoende av det andra. Det minskar inte bara risken för att hjälpa viktiga exponeringar, det tillåter också frekvent uppdatering av dekrypteringsnyckeln, och över allt, ökar säkerheten i systemet. | Hanaoka m.fl. REF använde två hjälpare för att uppdatera den hemliga nyckeln och förbättra systemets säkerhet. | 2,635,687 | Parallel key-insulated public key encryption | {'venue': 'Public Key Cryptography, volume 3958 of Lecture Notes in Computer Science', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,317 |
Vårt mål är att ta fram svar från tidigare fällda meningar för frågesvar (QA). Vi konstruerar en linjär kedja Villkorligt Random Field baserat på par av frågor och deras möjliga svar meningar, lära sig sambandet mellan frågor och svar typer. Detta kastar svar extrahering som ett svar sekvens taggning problem för första gången, där kunskap om delad struktur mellan fråga och käll mening införlivas genom funktioner baserade på Tree Redigera Avstånd (TED). Vår modell är fri från manuellt skapade fråge- och svarsmallar, snabba att köra (bearbetning 200 QA par per sekund exklusive tolkningstid), och ger en F1 på 63,3% på en ny offentlig datauppsättning baserat på tidigare TREC QA utvärderingar. Det utvecklade systemet är öppen källkod och inkluderar en implementering av TED-modellen som är toppmodern i uppgiften att ranka QA-par. | Till exempel har REF utbildat ett villkorligt slumpmässigt fält baserat på en uppsättning kraftfulla funktioner, t.ex. trädredigerat avstånd mellan frågeträd och svarsträd: dessa gör det också möjligt att ta fram svar från tidigare inhämtade meningar. | 14,644,892 | Answer Extraction as Sequence Tagging with Tree Edit Distance | {'venue': 'NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,318 |
ABSTRACT Hadoop är den mest populära implementeringsramen för MapReduce-programmeringsmodellen, och den har ett antal prestandakritiska konfigurationsparametrar. Att manuellt ställa in dessa parametrar till sina optimala värden kräver dock inte bara fördjupade kunskaper om Hadoop såväl som själva jobbet, utan kräver också en stor mängd tid och ansträngningar. Man har därför föreslagit automatiska tillvägagångssätt. Deras användning, dock, är fortfarande ganska begränsad på grund av den oacceptabelt långa sökande tid. I detta dokument introducerar vi MapreducE Self-Tuning (MEST), ett ramverk som påskyndar sökprocessen för optimal konfiguration av en given Hadoop-applikation. Vi har utvecklat en ny mekanism genom att integrera modellträdens algoritmer med den genetiska algoritmen. Som sådan minskar MEST avsevärt söktiden genom att ta bort onödig profilering, modellering och söksteg, som är obligatoriska för befintliga tillvägagångssätt. Våra experiment med fem riktmärken, var och en med två indatamängder (DS1 och 2×DS1) visar att MEST förbättrar sökeffektiviteten (SE) genom faktorer på 1,37× och 2,18× i genomsnitt respektive över state-of-the-art metoden. | MEST REF påskyndar sökningsprocessen för optimal konfiguration genom profilering och ackumulativ modellering vid behov. | 24,519,510 | MEST: A Model-Driven Efficient Searching Approach for MapReduce Self-Tuning | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 9,319 |
De flesta algoritmer [3, 7, 10,11] som hittills föreslagits för att posera invarianta ansiktsigenkänning behöver flera bilder av varje ämne. Vi föreslår en strategi som kan känna igen ansikten i en mängd olika poser även om en galleri databas innehåller bilder av bara en pose per person. Metoden fungerar enligt följande. När en sondbild ges, upptäcks ansiktsregionen i bilden och dess landmärken, till exempel ögonen, lokaliseras. Den resulterande sond ansikte regionen registreras med ansiktet i galleriet. Ansiktsregionen är uppdelad i ett antal små delregioner, och varje delregion jämförs med motsvarande delregion i åhörarläktaren. För att jämföra de två, ett likhetsvärde för varje delregion, definieras av summan av squared difference (SSD) efter normalisering av bilden (så effektivt samma som normaliserad korrelation), beräknas efter fmer justering görs för att kompensera för potentiella fel i registrering och den lokala deformation på grund av pose och andra variationer. Det totala likhetsvärdet mellan sonden ansikte och galleriet ansikte erhålls sedan genom att kombinera likhetsvärdena för alla delregioner. Den viktigaste idén med OUT-metoden är att när vi kombinerar dessa likhetsvärden i delregioner tar vi hänsyn till hur likhetsvärdet för varje delregion, och därmed dess nytta, förändras i form av ansiktsförändringar. Vi har utvecklat en probabilistisk modell av denna förändring genom att använda en stor uppsättning utbildningsbilder från CMU PIE-databasen [4], som består av ansiktsbilder av en uppsättning människor från många olika synvinklar. I ett ansikte erkännande uppgift av olika poser, visades det att vår algoritm överträffade en basal algoritm (PCA) och en kommersiell produkt för ansiktsigenkänning. | I REF föreslår författarna ett probabilistiskt tillvägagångssätt för att hantera förändringar i visningsvinkeln genom att formulera likheten mellan ett bildpar som summan av likheter mellan olika delregioner. | 17,740,611 | Multi-subregion based probabilistic approach toward pose-invariant face recognition | {'venue': 'Proceedings 2003 IEEE International Symposium on Computational Intelligence in Robotics and Automation. Computational Intelligence in Robotics and Automation for the New Millennium (Cat. No.03EX694)', 'journal': 'Proceedings 2003 IEEE International Symposium on Computational Intelligence in Robotics and Automation. Computational Intelligence in Robotics and Automation for the New Millennium (Cat. No.03EX694)', 'mag_field_of_study': ['Computer Science']} | 9,320 |
Förmågan att hantera mycket stora mängder bilddata är viktig för bildanalys, indexering och hämtning. Tyvärr ignoreras eller förbises ofta skalbarhetsaspekter i litteraturen, särskilt när det gäller de invecklade detaljerna i det faktiska genomförandet. I detta dokument presenterar vi en fallstudie som visar hur en vanlig bildindexeringsrörledning kan skalas över ett distribuerat kluster av maskiner. För att uppnå skalbarhet undersöker vi den optimala kombinationen av hybridiseringar av MapReduce distribuerade beräkningsramar som gör det möjligt att effektivt kartlägga och köra komponenterna i analys- och indexeringsrörledningen på modern serverhårdvara. Vi visar sedan skalbarheten av tillvägagångssättet praktiskt med en uppsättning bildanalys och indexering verktyg som bygger på Apache Hadoop MapReduce ram. Verktygen som används för våra experiment är fritt tillgängliga som programvara med öppen källkod, och pappret beskriver helt och hållet nyanserna i deras implementering. | I REF skalas en standard pipeline för bildindexering av påse-av-visuella ord över hadoop-kluster. | 14,111,017 | Practical scalable image analysis and indexing using Hadoop | {'venue': 'Multimedia Tools and Applications', 'journal': 'Multimedia Tools and Applications', 'mag_field_of_study': ['Computer Science']} | 9,321 |
....................................... Flerdomän-bild-till-bild-översättningsresultat på CelebA-datasetetet via överföring av kunskap som inhämtats från RaFD-datasetet. De första och sjätte kolumnerna visar indatabilder medan de återstående kolumnerna är bilder som genereras av StarGAN. Observera att bilderna genereras av en enda generator nätverk, och ansiktsuttryck etiketter som arg, glad, och rädd är från RaFD, inte CelebA. Nya studier har visat anmärkningsvärd framgång i bild-till-bild översättning för två domäner. Befintliga metoder har dock begränsad skalbarhet och robusthet i hanteringen av mer än två domäner, eftersom olika modeller bör byggas oberoende av varje par av bilddomäner. För att ta itu med denna begränsning föreslår vi StarGAN, en ny och skalbar metod som kan utföra bild-till-bild översättningar för flera domäner med endast en modell. En sådan enhetlig modellarkitektur av StarGAN möjliggör samtidig utbildning av flera datauppsättningar med olika domäner inom ett enda nätverk. Detta leder till StarGAN's överlägsna kvalitet av översatta bilder jämfört med befintliga modeller samt den nya förmågan att flexibelt översätta en ingångsbild till någon önskad måldomän. Vi demonstrerar empiriskt effektiviteten av vår strategi på en ansiktsattribut överföring och en ansiktsuttryck syntes uppgifter. | Choi m.fl. REF introducerar StarGAN, som kan utföra bild-till-bild översättning för flera domäner. | 9,417,016 | StarGAN: Unified Generative Adversarial Networks for Multi-Domain Image-to-Image Translation | {'venue': 'IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2018, pp. 8789-8797', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,322 |
Vi presenterar en strategi för modellbaserad hi erarchisk klustring genom att formulera en objektiv funktion baserad på en Bayesian anal ysis. Denna modell organiserar data i en klusterhierarki samtidigt som den anger en komplex partitionering med funktioner som är en viktig del av vår modell. Funktioner kan ha antingen en unik distribution i varje kluster eller en gemensam distribution över vissa (eller till och med alla) av kluster. De undergrupper av kluster över vilka dessa funktioner har en sådan gemensam spridning motsvarar noderna (kluster) i trädet som representerar hierarkin. Vi tillämpar denna allmänna modell på problemet med dokumentkluster för vilka vi använder en multino mial sannolikhetsfunktion och Dirichlet priors. Vår algoritm består av en tvåstegs process där vi först utför en platt klusterering följt av en modifierad hierarkisk agglom erativ sammanslagningsprocess som inkluderar motverka gruvdrift de funktioner som kommer att ha gemensamma distributioner över de sammanslagna kluster. Den legalisering som framkallas genom att använda marginalsannolikheten bestämmer automatiskt op timalmodellens struktur inklusive antal kluster, trädets djup och delmängd av funktioner som ska modelleras som att ha en gemensam fördelning vid varje nod. Vi presenterar experimentella resultat på både syntetiska data och en verklig dokumentsamling. Dessutom har en modellbaserad HAC-algoritm baserad på en multinomisk blandningsmodell utvecklats [9]. I resten av tidningen kommer våra hänvisningar till HAC att vara till den version av HAC som används i en sannolikhetsinställning som beskrivs ovan. I synnerhet kommer vi att koncentrera oss på multinomala blandningsmodeller. Andra hierarkiska kluster algoritmer i litera ture inkluderar [8], som beskriver ett system för att charac terize textsamlingar hierarkiskt baserat på en avskräckande ministisk glödgning algoritm. I denna modell, förutom de latenta variabler som används för att samla dokumenten i basen av hierarkin, används ytterligare latenta variabler för att definiera mellanliggande noder. Dessa ytterligare latenta variabler (kallade abstraction noder) modellerar de villkorliga sannolikheterna för orden. Reglering uppnås genom att maximera sannolikheten för en separat valideringsdatauppsättning. Som kommer att ses skiljer sig vår modell avsevärt från det arbete som beskrivs i [8]. För det första är endast en del av funktionen uppsättningen modelleras vid de mellanliggande noderna i hierarkin (valet av dessa funktioner är en del av modellvalet). Detta kan dramatiskt minska antalet justerbara pa rameter i modellen, särskilt i samband med mycket högdimensionella data. För det andra, legalisering uppnås genom att integrera över parametervärden på ett Bayesiskt sätt. Detta gör det möjligt för modellen att utnyttja hela datauppsättningen i modellbyggnaden (dvs. Ingen validering krävs. Dessutom använder den tvåstegsalgoritm som beskrivs i detta dokument endast den tillräckliga statistik som beräknas i det första steget under sammanslagningsprocessen och kan därför vara beräkningsmässigt billigare. Den probabilistiska modell som utvecklats i detta papper orga- | Bland dessa föreslog REF en metod inom ramen för Bayesian analys. | 2,155,333 | Model-Based Hierarchical Clustering | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,323 |
Sammanfattning av denna webbsida: För övervakning av sprängningshändelser i en typ av reaktiva trådlösa sensornätverk (WSNs) föreslås ett multipatroutingprotokoll (MRP) baserat på dynamisk kluster- och myrkolonioptimering (ACO). Ett sådant tillvägagångssätt kan maximera nätverkets livslängd och minska energiförbrukningen. Ett viktigt attribut för WSN:er är deras begränsade strömförsörjning, och därför ansågs vissa mått (såsom energiförbrukning för kommunikation mellan noder, restenergi, banlängd) vara mycket viktiga kriterier vid utformningen av routing i MRP. För det första väljs ett klusterhuvud (CH) bland noder som ligger i händelseområdet enligt vissa parametrar, t.ex. restenergi. För det andra tillämpas en förbättrad ACO-algoritm i sökandet efter flera sökvägar mellan CH och diskbänksnoden. Slutligen väljer CH dynamiskt en rutt för att överföra data med en sannolikhet som beror på många vägmått, såsom energiförbrukning. Simuleringsresultaten visar att MRP kan förlänga nätverkets livslängd, samt balansera energiförbrukningen mellan noderna och minska den genomsnittliga energiförbrukningen effektivt. | En myrkolonioptimering (ACO)-baserad multipat routing algoritm presenteras i REF. | 11,504,982 | A Multipath Routing Protocol Based on Clustering and Ant Colony Optimization for Wireless Sensor Networks | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']} | 9,324 |
Detta dokument handlar om problemet med att återställa en okänd matris från en liten del av dess poster. Detta är känt som matrisen slutföra problem, och kommer upp i ett stort antal program, inklusive den berömda Netflix Prize och andra liknande frågor i samarbete filtrering. I allmänhet, exakt återhämtning av en matris från ett litet antal poster är omöjligt, men vetskapen om att den okända matrisen har låg rang radikalt ändrar denna premiss, vilket gör sökandet efter lösningar meningsfullt. I detta dokument presenteras optimala resultat som kvantifierar det minsta antal poster som krävs för att återställa en matris av rank r exakt med någon metod som helst (informationsteoretisk gräns). Ännu viktigare, tidningen visar att, under vissa osammanhängande antaganden om de singular vektorer av matrisen, återhämtning är möjligt genom att lösa en bekväm konvex program så snart antalet poster är på ordningen av informationen teoretiska gränsen (upp till logaritmiska faktorer). Detta konvexa program finner helt enkelt, bland alla matriser som överensstämmer med de observerade posterna, att med minsta nukleär norm. Som ett exempel, Vi visar att på ordningen för nr log(n) prover behövs för att återställa en slumpmässig n 2 n matris av rank r med någon metod, och för att vara säker, nukleär norm minimering lyckas så snart antalet poster är av formen nrpolylog(n). Index Terms-Duality i optimering, fri sannolikhet, lågrankade matriser, matriskomplettering, nukleär normminimering, slumpmässiga matriser och tekniker från slumpmässig matristeori, semidefinit programmering. | Matriskompletteringsproblem under den information teoretiska gränsen gavs i REF. | 1,255,437 | The Power of Convex Relaxation: Near-Optimal Matrix Completion | {'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 9,325 |
I dokumentet föreslås ett nytt förfarande för övre förtroendebindning (UCB) för identifiering av armen med det största medelvärdet i ett flerarmat banditspel i den fasta konfidensinställningen med hjälp av ett litet antal totala prover. Förfarandet kan inte förbättras i den meningen att det antal prover som krävs för att identifiera den bästa armen ligger inom en konstant faktor av en lägre gräns baserad på lagen i den itererade logaritmen (LIL). Inspirerade av LIL, konstruerar vi vårt självförtroende för att uttryckligen redogöra för den oändliga tidshorisonten av algoritmen. Dessutom, genom att använda en ny stopptid för algoritmen undviker vi en förening bunden över armarna som har observerats i andra UCB-liknande algoritmer. Vi bevisar att algoritmen är optimal upp till konstanter och även visar genom simuleringar att den ger överlägsen prestanda med avseende på state-of-the-art. | Dessutom Jamieson et al. REF föreslår en optimal algoritm för den fasta konfidensinställningen, inspirerad av lagen om den itererade logaritmen. | 2,606,438 | lil' UCB : An Optimal Exploration Algorithm for Multi-Armed Bandits | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 9,326 |
Vi studerar sociala nätverk online där relationer kan vara antingen positiva (vägledande relationer som vänskap) eller negativa (vägledande relationer som opposition eller antagonism). En sådan blandning av positiva och negativa länkar uppstår i en mängd olika online-inställningar; vi studerar datauppsättningar från Epinions, Slashdot och Wikipedia. Vi finner att tecken på länkar i de underliggande sociala nätverken kan förutsägas med hög noggrannhet, med hjälp av modeller som generaliserar över detta olika utbud av webbplatser. Dessa modeller ger insikt i några av de grundläggande principer som driver bildandet av signerade länkar i nätverk, kastar ljus över teorier om balans och status från socialpsykologi; de föreslår också sociala datortillämpningar genom vilka en användares inställning till en annan kan beräknas utifrån bevis som tillhandahålls av deras relationer med andra medlemmar i det omgivande sociala nätverket. ACM 978-1-60558-799-8/10/04. Den grundläggande frågan är då följande: Hur samverkar tecknet på en given länk med mönstret av länkskyltar i sin lokala närhet, eller mer allmänt i hela nätverket? Dessutom, vilka är de rimliga konfigurationerna av länkskyltar i verkliga sociala nätverk? Svar på dessa frågor kan hjälpa oss att resonera om hur negativa relationer används i online-system, och svar som generaliseras över flera domäner kan hjälpa till att belysa några av de underliggande principerna. Effektiva svar på sådana frågor kan också bidra till att informera utformningen av sociala datortillämpningar där vi försöker dra slutsatsen (oobserved) attityd av en användare mot en annan, med hjälp av de positiva och negativa relationer som har observerats i närheten av denna användare. En gemensam uppgift i nätgemenskaper är att föreslå nya relationer till en användare genom att föreslå att man skapar länkar till andra användare med vilka man delar vänner, intressen eller andra egenskaper. Utmaningen här är att användarna mycket väl kan ha redan befintliga attityder och åsikter - både positiva och negativa - gentemot andra som de delar vissa egenskaper med, och därmed innan de godtyckligt ger sådana förslag till användare, är det viktigt att kunna uppskatta dessa attityder från befintliga bevis i nätverket. Om A till exempel är känt för att ogilla människor som B tycker om, kan detta mycket väl ge bevis för A:s inställning till B. Förutsägelse av kanttecken. Med detta i åtanke, vi börjar med att formulera en konkret underliggande uppgift - kanten tecken förutsägelse problem - som vi kan direkt utvärdera och jämföra olika tillvägagångssätt. Kantteckens förutsägelseproblem definieras enligt följande. Antag att vi får ett socialt nätverk med tecken på alla dess kanter, men tecknet på kanten från node u till node v, betecknad s(u, v), har varit "dold". Hur tillförlitligt kan vi härleda detta tecken s (u, v) med hjälp av den information som tillhandahålls av resten av nätverket? Observera att detta problem är både en konkret formulering av våra grundläggande frågor om de typiska mönster av länktecken, och också ett sätt att närma sig vår motiverande tillämpning av sluta oobserverade attityder bland användare av sociala datorer webbplatser. Det finns en analogi här med länken förutsägelse problem för sociala nätverk [16]; på samma sätt som länk förutsägelse används för att dra slutsatser latenta relationer som är närvarande men inte registreras genom explicita länkar, kan tecken förutsägelse problem användas för att uppskatta känslan av individer mot varandra, med tanke på information om andra känslor i nätverket. När vi studerar problemet med teckenprognoser följer vi ett experimentellt ramverk som formulerats av Guha et al. i sina studier av tillit och misstro mot epinioner [8]. Vi utvidgar deras tillvägagångssätt i ett antal riktningar. För det första, där deras mål var att utvärdera spridningsalgoritmer baserade på exponentiering adjacency-matrisen, närmar vi oss problemet med hjälp av en maskininlärning ram som gör det möjligt för oss att utvärdera vilka av en rad strukturella funktioner som är mest informativa för förutsägelsen uppgift. Med hjälp av denna ram får vi också betydligt bättre resultat på själva uppgiften. | För riktade relationer, Leskovec et al. Ref övervägde först en uttrycklig formulering av problemet med teckenförutsägelse. | 7,119,014 | Predicting positive and negative links in online social networks | {'venue': "WWW '10", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Physics']} | 9,327 |
Abstrakt. Spridningen av datavirus och Internetmaskar har haft stor inverkan på Internetgemenskapen. Rengöring och kontroll av skadlig programvara (malware) har blivit ett nyckelproblem för nätverksadministratörer. Effektiva tekniker behövs nu för att skydda nätverk mot utbrott av skadlig kod. Wire-speed brandväggar har använts i stor utsträckning för att begränsa flödet av trafik från opålitliga domäner. Men dessa enheter svaghet finns i en begränsad förmåga att skydda nätverk från infekterade maskiner på annars betrodda nätverk. Progressiva nätverksadministratörer har använt ett Intrusion Prevention System (IPS) för att aktivt blockera flödet av skadlig trafik. Nya typer av aktiva och extensibla nätverkssystem som använder både mikroprocessorer och omkonfigurerbar logik kan utföra trådhastighetstjänster för att skydda nätverk mot datorvirus och maskutbredning via Internet. Detta dokument diskuterar ett skalbart system som använder sig av automatiserad maskdetektering och intrångsförebyggande för att stoppa spridningen av datorvirus och internetmaskar med hjälp av extensible hårdvarukomponenter som distribueras i hela ett nätverk. Bidraget från detta arbete är att presentera hur man hanterar och konfigurerar ett stort antal distribuerade och extensible IPS. | REF visar samarbetet mellan programvara för aktiv nätverkshantering och extensibel hårdvara för att stoppa en attack. | 6,810,664 | Distributed Instrusion Prevention in Active and Extensible Networks | {'venue': 'IWAN', 'journal': None, 'mag_field_of_study': ['Engineering', 'Computer Science']} | 9,328 |
Vi introducerar honungskryptering (HE), en enkel, allmän metod för att kryptera meddelanden med låga min-entropi nycklar såsom lösenord. HAN är utformad för att producera en chiffertext som, när den dekrypteras med någon av ett antal felaktiga nycklar, ger rimliga men falska enkla texter som kallas honungsmeddelanden. En viktig fördel med HE är att den ger säkerhet i fall där det finns för lite entropi för att tåla brute-force-attacker som prövar varje nyckel; i denna mening ger HE säkerhet bortom konventionella brute-force-gränser. Han kan också erbjuda en säkring mot partiell offentliggörande av höga min-entropi nycklar. Han förbättrar säkerheten avsevärt i ett antal praktiska miljöer. För att visa upp denna förbättring bygger vi konkreta HE-system för lösenordsbaserad kryptering av RSA-hemliga nycklar och kreditkortsnummer. De viktigaste utmaningarna är att utveckla lämpliga fall av en ny typ av slumpmässig meddelandekodning som kallas en distributionstransformerande kodare (DTE) och analyser av den förväntade maximala laddningen av bins i olika typer av bollar-och-bins spel. | Juels och Ristenpart REF formalisera en sådan konstruktionsprocess med begreppet DTE, och föreslå honungskryptering som ger säkerhet bortom brute-force bundet av lösenordsbaserad kryptering. | 14,127,621 | Honey Encryption: Security Beyond the Brute-Force Bound | {'venue': 'IACR Cryptology ePrint Archive', 'journal': 'IACR Cryptology ePrint Archive', 'mag_field_of_study': ['Computer Science']} | 9,330 |
Vi presenterar ett tillvägagångssätt för ordlista lärande av handling attribut via informationsmaximering. Vi förenar klassdistributionen och utseendeinformationen till en objektiv funktion för att lära sig ett glest lexikon med handlingsattribut. Den objektiva funktionen maximerar den ömsesidiga informationen mellan det man lärt sig och det som återstår att lära sig i form av utseendeinformation och klassfördelning för varje ordlista. Vi föreslår en Gaussian Process (GP) modell för sparsam representation för att optimera ordboken objektiv funktion. Den sparsamma kodnings egenskapen gör det möjligt för en kärna med ett kompakt stöd i GP att förverkliga en mycket effektiv ordbok inlärningsprocess. Därför kan vi beskriva en actionvideo med en uppsättning kompakta och diskriminerande handlingsattribut. Ännu viktigare, vi kan känna igen modellerade åtgärdskategorier i ett glest funktionsutrymme, som kan generaliseras till osynliga och omodellerade åtgärdskategorier. Experimentella resultat visar hur effektiv vår strategi är i ansökningar om erkännande av åtgärder. | Qiu m.fl. I REF föreslås en Gaussisk processbaserad målfunktion för lexikon för effektiv modellering av åtgärder och för att lära sig nya åtgärder. | 7,665,463 | Sparse dictionary-based representation and recognition of action attributes | {'venue': '2011 International Conference on Computer Vision', 'journal': '2011 International Conference on Computer Vision', 'mag_field_of_study': ['Computer Science']} | 9,331 |
Abstrakt. Integrering av relationsdatabaser erkänns nyligen som en viktig vision för den semantiska webbforskningen, men det finns inte många välgenomförda verktyg och inte många tillämpningar som används i stor skala heller. I detta dokument introduceras Dartgrid som är en ram för utveckling av tillämpningar tillsammans med en uppsättning semantiska verktyg för att underlätta integrationen av heterogena relationsdatabaser med hjälp av semantisk webbteknik. Till exempel är DartMapping ett visualiserat kartverktyg för att hjälpa DBA att definiera semantiska kartläggningar från heterogena relationsscheman till ontologier. DartQuery är ett ontologi-baserat frågegränssnitt som hjälper användaren att konstruera semantiska frågor, och kan skriva om SPARQL semantiska frågor till en uppsättning SQL-frågor. DartSearch är en ontologibaserad sökmotor som gör det möjligt för användaren att göra fulltextsökning över alla databaser och navigera över sökresultaten semantiskt. Det är också berikat med ett koncept ranking mekanism för att göra det möjligt för användaren att hitta mer exakta och tillförlitliga resultat. Detta verktyg har använts för att utveckla en för närvarande i bruk ansökan för China Academy of Traditional Chinese Medicine (CATTM). I denna applikation är över 70 äldre relationsdatabaser semantiskt sammankopplade med en ontologi med över 70 klasser och 800 egenskaper, vilket ger integrerade semantiska-berikade sök-, sök- och navigeringstjänster till TCM-gemenskaper. | Dartgrid är ett ramverk för applikationsutveckling med en uppsättning semantiska verktyg som underlättar integrationen av heterogena relationsdatabaser med hjälp av semantiska webbtekniker REF. | 2,172,029 | Towards a Semantic Web of Relational Databases : a Practical Semantic Toolkit and an In-Use Case from Traditional Chinese Medicine | {'venue': 'ICDE Workshops', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,332 |
Djupinlärning är ett lovande tillvägagångssätt för att extrahera korrekt information från rå sensordata från IoT-enheter som används i komplexa miljöer. På grund av dess flerskiktsstruktur är djupt lärande också lämpligt för den egg computing miljön. Därför, i den här artikeln, introducerar vi först djupt lärande för sakernas internet i kanten datormiljö. Eftersom befintliga edge noder har begränsad bearbetningskapacitet, utformar vi också en ny offloading strategi för att optimera prestandan för IoT djupt lärande applikationer med egg computing. I prestandautvärderingen testar vi prestandan av att utföra flera djupinlärningsuppgifter i en egg computing-miljö med vår strategi. Utvärderingsresultaten visar att vår metod överträffar andra optimeringslösningar på djupt lärande för sakernas internet. Under de senaste åren har djupinlärning blivit en viktig metod inom många informatikområden såsom synigenkänning, bearbetning av naturligt språk och bioinformatik [1, 2]. Djupt lärande är också ett starkt analytiskt verktyg för enorma mängder data. I Internet of Things (IoT), ett öppet problem är hur man tillförlitligt minera verkliga IoT-data från en bullrig och komplex miljö som förvirrar konventionella maskininlärning tekniker. Djupt lärande anses vara det mest lovande sättet att lösa detta problem [3]. Djupt lärande har införts i många uppgifter relaterade till sakernas internet och mobila applikationer med uppmuntrande tidiga resultat. Till exempel kan djupt lärande exakt förutsäga elförbrukningen i hemmet med de data som samlas in av smarta mätare, vilket kan förbättra elförsörjningen av smarta elnät [4]. På grund av dess höga effektivitet i att studera komplexa data, djupt lärande kommer att spela en mycket viktig roll i framtida IoT-tjänster. Edge computing är en annan viktig teknik för IoT-tjänster [5] [6] [7]. På grund av dataöverföring med begränsad nätverksprestanda blir den centraliserade molndatastrukturen ineffektiv för behandling och analys av enorma mängder data som samlas in från IoT-enheter [8, 9]. Som kant computing offloads datoruppgifter från det centraliserade molnet till kanten nära IoT-enheter, överförs data är enormt minskas av förbehandlingsprocedurer. Således, i den här artikeln, introducerar vi djupt lärande för sakernas internet i kanten datormiljö för att förbättra lärande prestanda samt för att minska nätverkstrafiken. Vi formulerar en elastisk modell som är kompatibel med olika djupinlärningsmodeller. Således, på grund av de olika mellanliggande datastorlek och förbehandling overhead av olika djupinlärningsmodeller, anger vi ett schemaläggningsproblem för att maximera antalet djupinlärningsuppgifter med den begränsade nätverksbandbredd och servicekapacitet kant noder. Vi försöker också att garantera kvaliteten på tjänsten (QoS) för varje djupinlärningstjänst för sakernas internet i schemaläggningen. Vi designar offline och online schemaläggning algoritmer för att lösa problemet. Vi utför omfattande simuleringar med flera djupinlärningsuppgifter och givna edge computing-inställningar. De experimentella resultaten visar att vår lösning överträffar andra optimeringsmetoder för djupt lärande för sakernas internet. De viktigaste bidragen i denna artikel sammanfattas på följande sätt. Vi introducerar först djupinlärning för IoT i egg computing-miljön. Såvitt vi vet är detta ett innovativt arbete med fokus på djupinlärning för sakernas internet med kantdator. Vi formulerar en elastisk modell för varierande djupinlärningsmodeller för IoT in edge computing. Vi utformar också en effektiv online-algoritm för att optimera servicekapaciteten hos eggdatormodellen. Slutligen testar vi djupt lärande modellen för IoT med omfattande experiment i en given kant computing miljö. Vi jämför också vår edge computing-metod med traditionella lösningar. Resten av denna artikel kan beskrivas relAted arbete I detta avsnitt introducerar vi först relaterade tekniker om djupt lärande för sakernas internet och sedan diskutera kant computing och djupt lärande. Djupt lärande håller på att bli en ny teknik för IoT-tillämpningar och IoT-system. Den viktigaste fördelen med djupt lärande över maskininlärning är bättre prestanda med stor dataskala eftersom många IoT-tillämpningar genererar en stor mängd data för bearbetning. En annan fördel är att djupinlärning automatiskt kan ta fram nya funktioner för olika problem. Vid bearbetningen av multimediainformation, prestandan av traditionell maskininlärning beror på exaktheten av de funktioner som identifieras och extraheras. Eftersom den just kan lära sig funktioner på hög nivå som mänskliga ansikten i bilder och språkord i röster, kan djupt lärande förbättra effektiviteten i behandlingen av multimediainformation. Under tiden tar djupt lärande mycket mindre tid att sluta sig till information än traditionella maskininlärningsmetoder. Därför ger utvecklingen av IoT-enheter och teknik förutsättningar för komplexa djupinlärningsuppgifter. På grund av begränsad energi- och datorkapacitet är en viktig fråga att utföra djupt lärande applikationer i IoT-enheter. Allmän kommersiell hårdvara och programvara misslyckas med att stödja högparallell databehandling i djupinlärningsuppgifter. Lane och Al. [10] föreslog nya accelerationsmotorer, såsom DeepEar och DeepX, för att stödja olika djupinlärningsprogram i de senaste mobila systemen på chips (SoCs). Från de experimentella resultaten, mobila IoT-enheter med high-spec SoCs kan stödja en del av inlärningsprocessen. Att införa djupinlärning i fler IoT-tillämpningar är en annan viktig forskningsfråga [11]. Effektiviteten av djupt lärande för IoT har utvärderats i många viktiga IoT-tillämpningar. Till exempel, vissa verk fokuserar på applikationer i bärbara IoT-enheter som används i dynamiska och komplexa miljöer som ofta förvirrar traditionella maskininlärningsmetoder. Bhattacharya m.fl. [12] föreslog en ny modell för djupinlärning för bärbara IoT-enheter som förbättrar noggrannheten i ljudigenkänningsuppgifter. De flesta befintliga djupinlärningsprogram (t.ex. taligenkänning) behöver fortfarande vara moln-assisterade. Alsheikh m.fl. [13] föreslog ett ramverk för att kombinera djuplärande algoritmer och Apache Spark för IoT-dataanalys. Inferensfasen utförs på mobila enheter, medan Apache Spark används i molnservrar för att stödja datautbildning. Denna två-lager design är mycket lik kant computing, vilket visar att det är möjligt att avlasta bearbetningsuppgifter från molnet. Edge computing föreslås för att flytta datorkapacitet från centraliserade molnservrar till edge noder nära användarens slut. Edge computing ger två stora förbättringar av den befintliga molndatorn. Den första är att kant noder kan förbehandla stora mängder data innan de överförs till de centrala servrarna i molnet. Den andra är att molnresurserna optimeras genom att möjliggöra kant noder med datorkapacitet [14]. På grund av den potential som egg computing medför kan de ovannämnda problemen med molninfrastrukturen hanteras väl. Liu m.fl. [15] föreslog det första arbetet med att införa djupinlärning i den avancerade datormiljön. De föreslog en djupt lärandebaserad ansökan om erkännande av livsmedel genom att använda nätbaserad tjänsteinfrastruktur. Deras arbete visar att spetsdatorer kan förbättra prestandan hos djupinlärningsprogram genom att minska svarstiden och minska energiförbrukningen. Men detta arbete anses mobiltelefoner som kant noder, vilket inte är lämpligt för IoT-tjänster eftersom de flesta IoT-enheter är utrustade endast med låg-spec marker. Eftersom vi fokuserar på allmänna IoT-enheter utan tillräckligt med energi tillägg och högspec-chips, är kantservrar utplaceras i IoT gateways, som har tillräcklig servicekapacitet för att utföra djupt lärande algoritmer. I detta avsnitt introducerar vi först scenariot med djupt lärande för sakernas internet och sedan presentera den kant computing ram för djupt lärande för sakernas internet. Vanligtvis, IoT-enheter genererar stora mängder data och överföra data till molnet för vidare behandling. Dessa data omfattar multimediainformation, såsom video, bilder och ljud, eller strukturerade data, såsom temperatur, vibrationer och ljusflödesinformation. Det finns många mogna tekniker för att bearbeta strukturerade data och sedan automatiskt kontrollera IoT-enheter. Traditionell multimediabehandlingsteknik, som kräver komplexa beräkningar, är inte lämplig för IoT-tjänster. Eftersom tekniken för djupinlärning förbättrar effektiviteten i behandlingen av multimediainformation, har allt fler arbeten börjat införa djupinlärning i multimedia IoT-tjänster. Videoanalys är ett viktigt IoT-program, som integrerar bildbehandling och datorseende i IoT-nätverk. Det är fortfarande en utmaning att känna igen objekt från videodata av låg kvalitet som registrerats av IoT-enheter. Eftersom djupt lärande visar mycket lovande noggrannhet i videoigenkänning, anser vi att det är ett typiskt IoT-program med djupt lärande. Således, som visas i Fig. 1, Vi använder en videoigenkänning IoT-applikation som exempel för att införa djupt lärande för IoT. Det finns flera trådlösa videokameror som övervakar miljön och känner igen föremål. De trådlösa kamerorna samlar 720p videodata Den viktigaste fördelen med djupinlärning över maskininlärning är den bättre prestandan med stor dataskala eftersom många IoT-applikationer genererar en stor mängd data för bearbetning. En annan fördel är att djupinlärning automatiskt kan ta fram nya funktioner för olika problem. 98 med en bithastighet på 3000 kb/s. Sedan överför kamerorna insamlade data till IoT-gatewayen genom allmänna WiFi-anslutningar. IoT gateways vidarebefordrar alla insamlade data till molntjänsten genom Internetkommunikation efter kodning och komprimera rå videodata. Molntjänsten känner igen objekten i insamlade videodata genom ett nätverk för djupinlärning. Ett djupt lärande nätverk har vanligtvis flera lager. Indata kommer att behandlas i dessa lager. Varje lager bearbetar de mellanliggande funktionerna som genereras av det föregående lagret och genererar sedan nya funktioner. Slutligen, de extraherade funktioner som genereras av den sista djupinlärning nätverk lager kommer att behandlas av en klassificerare och erkänns som utdata. I djupinlärningsnätverk anser vi att lagren nära ingångsdata är lägre lager; andra är högre lager. I exemplet använder vi AlexNet för att identifiera objektet i insamlade videodata. AlexNet har åtta lager där de första fem lagren är konvolutionella lager, och följande tre lager är helt anslutna lager. Vi tränar först det djupa lärnätverket med ett öppet dataset från Kaggle, som består av 25.000 hund- och kattbilder. Den djupinlärning ansökan vill upptäcka rätt djur i den korrigerade videodata. Vi använder en överföring lärteknik för att bygga klassificeringen, som ger texten "katt" eller "hund" efter att ha bearbetat alla extraherade funktioner. Djupt lärande förbättrar effektiviteten i multimediabehandling för IoT-tjänster eftersom funktioner extraheras av flera lager i stället för traditionell komplex förbehandling. Kommunikationsprestandan kommer dock att bli flaskhalsen med förbättrad processeffektivitet. Den insamlade multimedia datastorleken är mycket större än traditionell strukturerad datastorlek, men det är svårt att förbättra prestandan för nätverket för överföring av insamlade data från IoT-enheter till molntjänsten. I exemplet behöver varje kamera en bandbredd på 3 Mb/s för att uppgradera videodata, medan IoT-gateway behöver 9 Mb/s. Edge computing är en möjlig lösning på problemet med att överföra insamlade data från IoT-enheter till molnet. I IoT-nätverket finns det två lager, kantlagret och molnlagret, för att ansluta IoT-enheter och molntjänsten. Kantlagret består vanligtvis av IoT-enheter, en IoT-gateway och nätverksåtkomstpunkter i lokala nätverk. I molnskiktet ingår Internetanslutningar och molnservrar. Edge computing innebär att behandlingen utförs i kantlagret istället för molnlagret. I egg computing-miljön, eftersom endast de mellanliggande data eller resultat behöver överföras från enheterna till molntjänsten, är trycket på nätverket lättas med mindre överföring av data. Edge computing är mycket lämplig för de uppgifter där storleken på mellanliggande data är mindre än inmatningsdata. Därför är edge computing effektivt för djupinlärning uppgifter, eftersom storleken på extraherade funktioner skalas ner av filtren i djupinlärning nätverk lager. I exemplet är den mellanliggande datastorleken som genereras av det första skiktet 134 på 89 B/ram och 2300 kb/s om vi vill känna igen varje ram. Om vi bara vill bearbeta nyckelramar i videodata, storleken på de genererade mellandata är bara 95 kb/s. Som visas i bild. 2, Vi presenterar en kant computing struktur för IoT djupt lärande uppgifter. Strukturen består av två lager samt en typisk edge computing struktur. I kantlagret är kantservrar utplacerade i IoT-gateways för behandling av insamlade data. Vi tränar först de djupa nätverken i molnservern. Efter utbildningsfasen delar vi upp lärnätverken i två delar. En del innehåller de lägre lagren nära ingångsdata, medan en annan del innehåller de högre lagren nära utgångsdata. Vi distribuerar den del med lägre lager i kantservrar och den del med högre lager i molnet för avlastning bearbetning. De insamlade uppgifterna matas alltså in i det första lagret i kantservrarna. Kantservrarna laddar de mellanliggande data från de lägre lagren och överför sedan data till molnservern som indata för de högre lagren. I exemplet, om vi distribuerar det första lagret i IoT-gateway, kommer de mellanliggande data med storleken 134 × 89 × 1 B/frame att skickas till det andra lagret i molnservern för vidare behandling. Ett problem är hur man delar varje nätverk för djupinlärning. Vanligtvis är storleken på de mellanliggande data som genereras av de högre skikten mindre än den som genereras av de lägre skikten. Att placera fler lager i kantservrar kan minska mer nätverkstrafik. Serverkapaciteten för kantservrar är dock begränsad jämfört med molnservrar. Det är omöjligt att bearbeta oändliga uppgifter i kantservrar. Varje lager i ett djupt lärande nätverk kommer att ge ytterligare beräknings omkostnader till servern. Vi kan bara distribuera en del av det djupa lärnätverket till kantservrar. Samtidigt, eftersom olika djupinlärning nätverk och uppgifter har olika storlekar av mellanliggande data och beräkning overhead, effektiv schemaläggning behövs för att 99 optimera djupt lärande för IoT i kanten datorstruktur. Vi utformar en effektiv schemaläggningsstrategi för detta problem och diskuterar det i nästa avsnitt. I detta avsnitt anger vi först schemaläggning problem i kanten datorstruktur för IoT djupt lärande och sedan presentera lösningen. I en given edge computing-miljö använder vi en uppsättning E för att beteckna alla edge-servrar och e i för att beteckna en edge-server i uppsättning E. Från edge-server e i till moln-servern använder vi ett värde c i för att beteckna servicekapaciteten och b i för att beteckna nätverksbandbredden. Vi lägger också till ett tröskelvärde som betecknas av V för att undvika överbelastning av nätet eftersom det finns viss interaktionstrafik mellan kantservrarna och molnservrarna. Således är den maximala tillgängliga bandbredden mellan e i och molnservern betecknad med b i · V. Låta uppsättningen T betecknar alla djupinlärningsuppgifter och t j betecknar en djupinlärning uppgift i uppsättning T. Antalet uppgift t j's djupinlärning nätverk lager är N j. Vi antar att den reducerade datastorleken är nära ett medelvärde för varje uppgift med olika indata. Den genomsnittliga kvoten mellan den mellanliggande datastorleken som genereras av kth-skiktet (k... [1, N j ]) och den totala indatastorleken betecknas med r kj. För uppgift t j och kant server e i, tilldelad bandbredd betecknas av b ij. Låt d ij betecknar indatastorleken per tidsenhet för aktivitet t j i kanten server e i. Således överföring latency av uppgift t j i kant server e i kan betecknas d ij · r kj /b ij, om k lager av uppgift t j placeras i kant server e i. För att garantera QoS, bör överföringen latens vara mindre än ett högsta värde som anges av Q j. För uppgift t j, den beräkningsmässiga overhead för en enhet av indata efter kth skiktet betecknas med l kj. Därför, för uppgift t j, den beräknade overhead in edge server e i är l kj · d ij. Problemet med schemaläggning IoT Deep Learning Network Layers in Edge Computing: Med tanke på en kant computing struktur, försöker schemaläggning problem att tilldela maximala uppgifter i kanten datorstruktur genom att distribuera djupinlärning lager i IoT edge servrar sådan att den nödvändiga överföring latency för varje uppgift kan garanteras, betecknar med var X ij = 1 om uppgift t j är utplacerad i edge server e i; annars X ij = 0. Vi föreslår en offlinealgoritm och en onlinealgoritm för att lösa schemaläggningsproblemet. Den offline schemaläggning algoritm först får reda på k j m, som maximerar värdet av r kj · l kj, och edge server i j m, som har den största indata uppgift t j. Därefter sorterar algoritmen alla uppgifter i stigande ordning efter den största indatastorleken. Schemaläggningen distribuerar först aktivitet t j med minsta indatastorlek till kantservrar. Algoritmen passerar alla kantservrar för att kontrollera om en kantserver har tillräcklig servicekapacitet och nätverksbandbredd för att distribuera aktivitet t j. Om alla edge-servrar har tillräcklig servicekapacitet och bandbredd, distribuerar algoritmen aktivitet t j till alla edge-servrar. Om en eggserver inte har tillräckligt med uppladdningsbandbredd eller servicekapacitet, ändrar algoritmen värdet på k och tar reda på en lämplig k för att distribuera aktivitet t j i alla eggservrar. Om eggservern inte har tillräcklig servicekapacitet eller nätverksbandbredd även efter varierande k, kommer schemaläggningsalgoritmen inte att distribuera aktivitet t j i eggservrar. I värsta fall är komplexiteten hos offline-algoritmen O( på engelska) 2 · K) där K är det maximala antalet djupinlärningsnätverksskikt av varje uppgift. Eftersom antalet uppgifter är mycket större än antalet edge servrar och djupinlärning nätverk lager, komplexiteten i den föreslagna algoritmen är O( på engelska), vilket är tillräckligt bra för praktisk schemaläggning. Vi analyserar också algoritmens effektivitet och finner att det ungefärliga förhållandet är 2/V. Samtidigt utformar vi en online schemaläggningsalgoritm som bestämmer utplaceringen när uppgift t j kommer. Eftersom uppgiften schemaläggning har lite information om funktionsuppgifter, är utplaceringsbeslutet baserat på de historiska uppgifterna. Vi använder B max och B min för att beteckna den maximala och minsta bandbredd som krävs för en uppgift, respektive. Således, för uppgift t j, vi först beräkna k j m och i j m. Då definierar vi ett värde F(c ij m) ← (B min · e/B max ) I detta avsnitt beskriver vi först experimentinställningarna och sedan diskutera resultatet prestandautvärdering. I experimenten har vi två miljöer, en för insamling av data från djupinlärningsuppgifter och en för simuleringar. För att utföra djupinlärningsprogram använder vi en arbetsstation utrustad med en Intel Core i7 7770 CPU och NVIDIA Geforce GTX 1080 grafiskt kort. Vi använder Caffe som CNN-ramverk och definierar 10 olika CNN-nätverk. Vi utför 10 CNN uppgifter FIGURE 2. Edge computing struktur för IoT djupt lärande. | I REF, författarna ledde djupt lärande in i kanten datormiljö och en algoritm för att öka antalet uppgifter så långt som möjligt föreslogs, som optimerar nätverket och skyddar användarens integritet. | 42,367,028 | Learning IoT in Edge: Deep Learning for the Internet of Things with Edge Computing | {'venue': 'IEEE Network', 'journal': 'IEEE Network', 'mag_field_of_study': ['Computer Science']} | 9,333 |
Abstract-Det antas ofta att det i en smart stad kommer att finnas tusentals mestadels mobila/trådlösa smarta enheter (t.ex. sensorer, smarttelefoner etc.) som kontinuerligt kommer att generera stora mängder data. Data kommer att behöva samlas in och bearbetas för att extrahera kunskap ur den, för att mata användares och smarta stadstillämpningar. En typisk metod för att bearbeta så stora mängder data är att i) samla in alla insamlade data på molnet via trådlösa genomträngande nätverk, och ii) utföra dataanalys verksamhet som utnyttjar maskininlärning tekniker. Enligt många studier kan detta centraliserade molnbaserade tillvägagångssätt dock inte vara hållbart ur ett nätverksperspektiv. Den gemensamma effekten av dataintensiva användares multimedietillämpningar och smarta städers övervaknings- och kontrolltillämpningar kan leda till allvarliga överbelastningar i nätet, vilket gör att tillämpningar knappast kan användas. För att hantera detta problem föreslår vi i detta dokument en distribuerad metod för maskininlärning som inte kräver att data flyttas till en centraliserad molnplattform, utan behandlar den direkt där den samlas in. Speciellt utnyttjar vi Hypothesis Transfer Learning (HTL) för att bygga en distribuerad ram för maskininlärning. I vårt ramverk utbildar vi en serie partiella modeller, varje "rest" på en plats där en delmängd av datasetet genereras. Vi förfinar sedan de partiella modellerna genom att utbyta dem mellan olika platser och på så sätt få en unik komplett modell. Med hjälp av en aktivitetsklassificeringsuppgift på ett referensdataset som ett konkret exempel visar vi att klassificeringsnoggrannheten för HTL-modellen är jämförbar med den för en modell byggd ur den kompletta datasetet, men kostnaden för nät omkostnader minskas dramatiskt. Vi utför sedan en känslighetsanalys för att karakterisera hur overhead beror på nyckelparametrar. Det är också värt att notera att HTL-metoden är lämplig för applikationer som hanterar integritetskänsliga data, eftersom data kan stanna där de genereras, och inte behöver överföras till tredje part, dvs. till en molnleverantör, för att extrahera kunskap ur det. | I det här dokumentet utökar vi den analys som initierats i REF för att studera exaktheten jämfört med nättrafiken. | 17,379,959 | Hypothesis Transfer Learning for Efficient Data Computing in Smart Cities Environments | {'venue': '2016 IEEE International Conference on Smart Computing (SMARTCOMP)', 'journal': '2016 IEEE International Conference on Smart Computing (SMARTCOMP)', 'mag_field_of_study': ['Computer Science']} | 9,334 |
Bakgrund: Protein-protein växelverkan (PPI) spelar grundläggande roller i nästan alla biologiska processer, och ger stora insikter i den inre fungerar av celler. En stor mängd PPI-data för olika organismer finns tillgängliga från BioGRID och andra källor. Identifieringen av samhällen i PPI-nätverk är av stort intresse eftersom de ofta avslöjar tidigare okända funktionella band mellan proteiner. Ett stort antal globala klusteralgoritmer har tillämpats på proteinnätverk, där hela nätverket delas upp i kluster. Här tar vi ett annat förhållningssätt genom att leta efter lokalsamhällen i PPI-nätverk. Vi utvecklar ett verktyg, som heter Local Protein Community Finder, som snabbt hittar en gemenskap nära en fråga protein i alla nätverk som finns tillgängliga från BioGRID eller anges av användaren. Vårt verktyg använder två nya lokala kluster algoritmer Nibble och PageRank-Nibble, som letar efter en bra kluster bland de mest populära destinationerna för en kort slumpmässig promenad från den queried vertex. Kvaliteten på ett kluster bestäms av andelen utgående kanter, så kallad konduktans, som är ett relativt mått som är särskilt användbart i underurvalsnät. Vi visar att de två lokala klusteralgoritmerna finner samhällen som inte bara bildar utmärkta kluster, utan också sannolikt är biologiskt relevanta funktionella komponenter. Vi jämför prestanda av Nibble och PageRank-Nibble med andra populära och effektiva graf partitionering algoritmer, och visar att de hittar bättre kluster i grafen. Dessutom finner Nibble och PageRank-Nibble samhällen som är mer funktionellt sammanhängande. Den lokala protein community Finder, tillgänglig på http://xialab.bu.edu/resources/ lpcf, gör det möjligt för användaren att snabbt hitta en högkvalitativ community nära ett frågat protein i alla nätverk som finns tillgängliga från BioGRID eller anges av användaren. Vi visar att de samhällen som finns i vårt verktyg bildar bra kluster och är funktionellt sammanhängande, vilket gör vår applikation användbar för biologer som vill undersöka funktionella moduler som ett visst protein är en del av. | Local Protein Community Finder är ett verktyg som utvecklats av författare på REF för att hitta gemenskap nära en fråga protein i alla nätverk som anges av användaren. | 3,788,951 | Finding local communities in protein networks | {'venue': 'BMC Bioinformatics', 'journal': 'BMC Bioinformatics', 'mag_field_of_study': ['Biology', 'Medicine', 'Computer Science']} | 9,335 |
Sammanfattning av denna webbsida: Wireless Sensor Networks (WSNs) består av hundratals eller tusentals sensornoder med begränsad bearbetning, lagring och batterikapacitet. Det finns flera strategier för att minska energiförbrukningen i WSN noder (genom att öka nätverkets livslängd) och öka nätets tillförlitlighet (genom att förbättra WSN Quality of Service). Det finns dock en inneboende konflikt mellan energiförbrukning och tillförlitlighet: ökad tillförlitlighet leder vanligen till ökad energiförbrukning. Till exempel kan routing algoritmer skicka samma paket men olika vägar (multipat strategi), som det är viktigt för tillförlitlighet, men de ökar avsevärt WSN strömförbrukning. I detta sammanhang föreslås i detta dokument en modell för utvärdering av WSN:s tillförlitlighet med tanke på batterinivån som en nyckelfaktor. Dessutom baseras denna modell på routingalgoritmer som används av WSN. För att utvärdera de föreslagna modellerna ansågs tre scenarier visa effektförbrukningens inverkan på WSN:s tillförlitlighet. | I Ref föreslår författarna en modell för att utvärdera tillförlitligheten hos delade områden i ett WSN som är föremål för två typer av felhändelser, nämligen SN-fel på grund av batteribrist och länkfel. | 8,511,073 | Reliability of Wireless Sensor Networks | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Medicine', 'Engineering', 'Computer Science']} | 9,336 |
Metoder för att beräkna den minst vanliga subsumern (lcs) är vanligtvis begränsade till ganska inexpressiva DLs medan befintliga kunskapsbaser är skrivna i mycket uttrycksfulla DLs. För att göra det möjligt för användaren att återanvända begrepp som definieras i sådana terminologier och fortfarande stödja definitionen av nya begrepp genom att beräkna lcs, utvidgar vi begreppet lcs av begreppsbeskrivningar till begreppet lcs w.r.t. En bakgrundsterminologi. | Man kan sedan beräkna den minst vanliga delsumman (lcs) REF för dessa uttryck för att få en beskrivning av den namngivna klassen. | 5,839,830 | Computing the Least Common Subsumer w.r.t. a Background Terminology | {'venue': 'Description Logics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,337 |
Med framväxten av olika mobila applikationer (t.ex. förstärkt verklighet) är kvaliteten på mobilanvändarnas erfarenhet starkt begränsad av deras beräkningskapacitet och ändliga batterilivslängd. Mobile edge computing (MEC) och trådlös kraftöverföring är lovande att ta itu med denna fråga. Dessa två tekniker är dock känsliga för förökningsfördröjning och förlust. Ett UAV-aktiverat trådlöst MEC-system studeras, motiverat av risken för att kortdistanslinje av sikt uppnås genom utnyttjande av kommunikation med obemannade luftfartyg (UAV). Ett problem med energiminimering är formulerat med förbehåll för begränsningarna i antalet beräkningsbitar och energiuttagets kausalitet. Problemet är inte konvext och utmanande att ta itu med. En alternativ optimeringsalgoritm föreslås baserad på sekventiell konvex optimering. Simuleringsresultat visar att vår föreslagna design är överlägsen andra referenssystem och att den föreslagna algoritmen är effektiv när det gäller konvergens. Index Terms-Mobile edge computing, resursfördelning, kommunikation med obemannade luftfartyg, banaoptimering av trådlös kraftöverföring. | Zhou m.fl. tillämpade en effektminimering system för begränsningar i antalet beräkning bitar och energi skörd kausalitet REF. | 3,630,427 | UAV-Enabled Mobile Edge Computing: Offloading Optimization and Trajectory Design | {'venue': '2018 IEEE International Conference on Communications (ICC)', 'journal': '2018 IEEE International Conference on Communications (ICC)', 'mag_field_of_study': ['Computer Science', 'Engineering', 'Mathematics']} | 9,338 |
Vi undersöker problemet med läsbarhetsbedömning med hjälp av en rad lexiska och syntaktiska egenskaper och studerar deras inverkan på att förutsäga textens gradnivå. Som empirisk grund kombinerade vi två webbaserade textkällor, Weekly Reader och BBC Bitesize, med inriktning på olika åldersgrupper, för att täcka ett brett utbud av skolbetyg. På den konceptuella sidan undersöker vi användningen av lexiska och syntaktiska åtgärder som ursprungligen utformats för att mäta språkutvecklingen i produktionen av andraspråkslärare. Vi visar att utvecklingsåtgärderna från forskning inom Second Language Acquisition (SLA) i kombination med traditionella läsbara funktioner som ordlängd och meningslängd ger en bra indikation på textläsbarhet i olika betyg. De resulterande klassificeringarna överträffar betydligt de tidigare metoderna för läsbarhetsklassificering och uppnår en klassificeringsnoggrannhet på 93,3 %. | REF visar att en kombination av lexiska och syntaktiska funktioner med funktioner som härrör från andraspråksforskning leder till prestandaförbättringar. | 10,919,200 | On Improving the Accuracy of Readability Classification using Insights from Second Language Acquisition | {'venue': 'Proceedings of the Seventh Workshop on Building Educational Applications Using NLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,339 |
Innan en ändringsuppgift utförs, måste en utvecklare vanligtvis undersöka källkoden för ett system för att förstå hur man utför uppgiften. Att upptäcka koden relevant för en förändring uppgift är kostsamt eftersom det är en inneboende mänsklig verksamhet vars framgång beror på ett stort antal oförutsägbara faktorer, såsom intuition och tur. Även om studier har visat att effektiva utvecklare tenderar att utforska ett program genom att följa strukturella beroenden, ingen metod finns tillgänglig för att vägleda deras navigering genom de typiskt hundratals beroende vägar som finns i ett icke-trivialt program. I detta dokument föreslår vi en teknik för att automatiskt föreslå och rangordna programelement som är potentiellt intressanta för en utvecklare som undersöker källkod. Vår teknik är baserad på en analys av topologin av strukturella beroenden i ett program. Det tar som indata en uppsättning programelement av intresse för en utvecklare och producerar en suddig uppsättning som beskriver andra element av potentiellt intresse. Empirisk utvärdering av vår teknik indikerar att det kan hjälpa utvecklare snabbt välja programelement värda att utreda samtidigt undvika mindre intressanta. | Robillard REF förbättrade denna process genom att styra sökningen utifrån en analys av systemets topologi. | 1,890,100 | Automatic generation of suggestions for program investigation | {'venue': 'ESEC/FSE-13', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,340 |
Smältning av en subkyld pulverbädd som innehåller en blandning av två pulver med signi_cantly di}erent smältpunkter undersöktes analytiskt[ E}ekten av densitetsförändring i smältprocessen beaktades i den fysiska modellen | Zhang och Faghri REF utvecklade en fysisk modell där man undersökte en blandning av två pulver med betydande olika smältpunkter. | 121,616,421 | Melting of a subcooled mixed powder bed with constant heat flux heating | {'venue': None, 'journal': 'International Journal of Heat and Mass Transfer', 'mag_field_of_study': ['Physics']} | 9,341 |
Att lära sig distribuerade nodrepresentationer i nätverk har ökat på senare tid på grund av dess eektivitet i en rad olika tillämpningar. Befintliga metoder studerar vanligtvis nätverk med en enda typ av närhet mellan noder, som denes en enda vy av ett nätverk. Men i verkligheten finns det vanligtvis flera typer av närhet mellan noder, vilket ger nätverk med flera vyer. är pappersstudier som lär sig nod representationer för nätverk med flera vyer, som syftar till att dra slutsatsen robusta nod representationer över olika vyer. Vi föreslår en strategi för flervisionsrepresentationsinlärning, som främjar samarbete mellan olika åsikter och låter dem rösta för de robusta representationerna. Under omröstningsprocessen införs en aentionsmekanism som gör det möjligt för varje nod att fokusera på de mest informativa åsikterna. Experimentella resultat från verkliga nätverk visar att det föreslagna tillvägagångssättet överträffar befintliga "state-of-t heart"-strategier för nätverksrepresentationsinlärning med en enda syn och andra konkurrenskraftiga tillvägagångssätt med flera åsikter. | MVE REF föreslår ett multi-view nätverk inbäddning, som syftar till att sluta robust nod representationer i olika nätverk. | 9,233,950 | An Attention-based Collaboration Framework for Multi-View Network Representation Learning | {'venue': "CIKM '17", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 9,342 |
Sammanfattning av denna webbsida: Ansiktsuttryck förmedlar icke-verbala signaler som spelar en viktig roll i mellanmänskliga relationer och används i stor utsträckning vid beteendetolkning av känslor, kognitiv vetenskap och sociala interaktioner. I detta papper analyserar vi olika sätt att representera geometriska funktioner och presenterar ett helautomatiskt ansiktsuttrycksigenkänningssystem (FER) med hjälp av framträdande geometriska funktioner. I geometrisk funktionsbaserad FER-strategi, är det första viktiga steget att initiera och spåra tät uppsättning av ansiktspunkter som uttrycket utvecklas över tiden i på varandra följande ramar. I det föreslagna systemet, ansiktspunkter initieras med hjälp av elastisk klas graf matchning (EBGM) algoritm och spårning utförs med Kanade-Lucas-Tomaci (KLT) tracker. Vi extraherar geometriska funktioner från punkt, linje och triangel som består av spårning resultat av ansiktspunkter. De mest diskriminerande linje och triangel funktioner extraheras med hjälp av funktionen selektiv multi-klass AdaBoost med hjälp av extrem inlärning maskin (ELM) klassificering. Slutligen de geometriska egenskaperna för FER extraheras från den förstärkta linjen, och trianglar som består av ansiktspunkter. igenkänningsnoggrannheten med hjälp av funktioner från punkt, linje och triangel analyseras självständigt. Det föreslagna FER-systemets prestanda utvärderas på tre olika datamängder: CK+, MMI och MUG ansiktsuttrycksdata. | E studie presenteras i REF använt den elastiska klas graf matchning (EBGM) algoritm för initiering av ansiktspunkter. | 3,333,563 | Recognition of facial expressions based on salient geometric features and support vector machines | {'venue': 'Multimedia Tools and Applications (2016): 1-26', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,343 |
Abstract-Än så länge och försöker nå mänskliga förmågor, forskning i automatisk summering har baserats på hypotes som både möjliggör och begränsar. Några av dessa begränsningar är: hur man tar hänsyn till och reflekterar (i den genererade sammanfattningen) den implicita information som förmedlas i texten, författarens avsikt, läsarens avsikt, sammanhangets inflytande, den allmänna världskunskapen... Om vi vill ha maskiner för att efterlikna mänskliga förmågor, då kommer de att behöva tillgång till samma stora mängd kunskap. Det implicita påverkar textens inriktning och argumentation och följaktligen dess sammanfattning. De flesta av Text Summarizers (TS) behandlar som komprimera de ursprungliga uppgifterna och de nödvändigtvis lider av informationsförlust. TS fokuserar enbart på funktioner i texten, inte på vad författaren menade eller varför läsaren läser texten. I detta dokument tar vi itu med detta problem och presenterar ett system som fokuserar på att förvärva kunskap som är implicit. Vi belyser främst den implicita information som förmedlas av argumentativa bindväv såsom: men, även, ännu.... och deras inverkan på sammanfattningen. | Som påpekats av REF begränsades nuvarande extraktionsmetoder av deras oförmåga att förmedla implicit information, författarens avsikt, läsarens avsikt, sammanhanget av inflytande och den allmänna världskunskapen. | 1,504,097 | Implicit Sensitive Text Summarization based on Data Conveyed by Connectives | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 9,344 |
Grundläggande informationsteori används för att analysera mängden konfidentiell information som kan läckas ut av program skrivna på ett mycket enkelt och tvingande språk. I synnerhet ges en detaljerad analys av eventuella läckage på grund av jämlikhetstester och om uttalanden. Analysen presenteras som en uppsättning syntaxstyrda slutledningsregler och kan enkelt automatiseras. | En annan relaterad metod är den som presenteras i REF, där mängden konfidentiell information som kan läckas av program skrivna på ett enkelt vitalt språk analyseras med hjälp av Shannons informationsteori. | 6,503,962 | Quantitative Analysis of the Leakage of Confidential Data | {'venue': 'Electron. Notes Theor. Comput. Sci.', 'journal': 'Electron. Notes Theor. Comput. Sci.', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 9,345 |
Abstract-Interference management har varit ett nyckelkoncept för att utforma framtida trådlösa system med hög datahastighet som krävs för att använda tät återanvändning av spektrum. Statiska eller semistatiska interferensbaserade system ger förbättrad prestanda på cellkanten men med stränga påföljder för den totala cellgenomströmningen. Dessutom gör statisk resursplanering dessa system olämpliga för tillämpningar där frekvensplanering är svårt, såsom femtocell nätverk. I detta dokument presenterar vi ett nytt dynamiskt system för att undvika störningar som använder sig av intercellssamordning för att förhindra alltför stora intercellsinterferenser, särskilt för användare av cell- eller sektorskanten som påverkas mest av intercellsinterferens, med minimal eller ingen påverkan på nätverkets dataflöde. Det föreslagna systemet består av en två-nivå algoritm - en på basstationen nivå och den andra på en central styrenhet som en grupp av angränsande basstationer är anslutna till. Simuleringsresultat visar att det föreslagna systemet överträffar referenssystemen, i vilka antingen samordning inte används (återanvändning av 1) eller används på ett statiskt sätt (återanvändning av 3 och fraktionerad frekvensåteranvändning), när det gäller genomströmning av cellkanter med minimal påverkan på nätgenomströmningen och med en viss ökning av komplexiteten. | Författarna i REF presenterar en alternativ strategi som använder ett dynamiskt system för att undvika störningar för att minska alltför stora störningar mellan celler. | 11,313,211 | Enhancing cell-edge performance: a downlink dynamic interference avoidance scheme with inter-cell coordination | {'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,346 |
Abstract-För ett trådlöst flernivå heterogent nätverk med ortogonal spektrumallokering över olika nivåer, optimerar vi associationsannolikheten och den andel av spektrumet som tilldelas varje nivå för att maximera hastighetstäckningen. I praktiken kan associationssannolikheten styras med hjälp av en partisk mottagen signalkraft. Optimeringsproblemet är icke-konvext och vi är tvungna att utforska lokalt optimala lösningar. Vi lämnar två bidrag i detta dokument: för det första visar vi att det finns ett samband mellan de första derivata av den objektiva funktionen med avseende på var och en av optimeringsvariablerna. Detta kan användas för att förenkla numeriska lösningar på optimeringsproblem. För det andra utforskar vi optimaliteten i den intuitiva lösningen att den andel spektrum som tilldelas varje nivå bör vara lika stor som nivåassociationssannolikheten. Vi visar att det i detta fall finns en lösning med sluten form. Viktigt är att våra numeriska resultat visar att det i huvudsak är noll prestandaförlust. Resultaten illustrerar också de betydande vinster som är möjliga genom att gemensamt optimera användarföreningen och resursfördelningen. | Förhållandet mellan den tilldelade delen av spektrumet och nivåbindningssannolikheten för att maximera sannolikheten för att en typisk användare får sin erforderliga hastighet har studerats i REF. | 18,746,839 | Tier Association Probability and Spectrum Partitioning for Maximum Rate Coverage in Multi-Tier Heterogeneous Networks | {'venue': 'IEEE Communications Letters', 'journal': 'IEEE Communications Letters', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,347 |
I detta dokument behandlas visualisering av bildklassificeringsmodeller med hjälp av djupa Convolutional Networks (ConvNets). Vi överväger två visualiseringstekniker, baserade på beräkning av gradienten av klasspoäng med avseende på indatabilden. Den första genererar en bild, som maximerar klasspoäng [5], vilket visualiserar begreppet klass, fångas av ett ConvNet. Den andra tekniken beräknar en klasslönekarta, specifik för en given bild och klass. Vi visar att sådana kartor kan användas för svagt övervakad objektsegmentering med klassificering ConvNets. Slutligen etablerar vi kopplingen mellan de gradientbaserade ConvNet visualiseringsmetoderna och dekonvolutionella nätverk [13]. | REF:s arbete syftade till att avslöja framträdande strukturer inom bilder relaterade till en viss klass genom att beräkna motsvarande scorederivat med avseende på indatabilden. | 1,450,294 | Deep Inside Convolutional Networks: Visualising Image Classification Models and Saliency Maps | {'venue': 'ICLR 2013', 'journal': 'arXiv: Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 9,348 |
Abstract-Tendensen mot molnifiering av 3GPP LTE mobilnät arkitektur och framväxten av federerade molninfrastrukturer kräver alternativa tjänster leveransstrategier för förbättrad användarupplevelse och effektivt resursutnyttjande. Vi föreslår Follow-Me Cloud (FMC), en design anpassad för denna miljö, men med en bredare tillämplighet, vilket gör att mobila användare alltid kan anslutas via det optimala data ankaret och mobilitet gateways, medan molnbaserade tjänster följer dem och levereras via den optimala servicepunkten inuti molninfrastrukturen. Follow-Me Cloud tillämpar en Markov-decision-process-baserad algoritm för kostnadseffektiva prestandaoptimerade beslut om tjänstemigrering, medan två alternativa system för att säkerställa tjänstekontinuitet och störningsfri drift föreslås, baserade på antingen programvarudefinierad nätverksteknik eller protokollet för lokalisering/identifier-separation. Numeriska resultat från vår analytiska modell för uppföljningsmoln, samt testbäddsexperiment med de två alternativa uppföljningsme molnimplementationer vi har utvecklat, visar kvantitativt och kvalitativt de fördelar det kan medföra. | Till exempel, Follow-Me Cloud (FMC) REF föreslår en arkitektur för federerade moln och distribuerade mobila nätverksmiljö som gör det möjligt att leverera tjänster genom ett optimalt serviceankare och möjligheten att följa mobila användare när de strövar genom federerade molnmiljöer. | 26,681,108 | Follow-Me Cloud: When Cloud Services Follow Mobile Users | {'venue': 'IEEE Transactions on Cloud Computing', 'journal': 'IEEE Transactions on Cloud Computing', 'mag_field_of_study': ['Computer Science']} | 9,349 |
Under de senaste åren, Reddit - en communitydriven plattform för att skicka in, kommentera och betygsätta länkar och textinlägg - har vuxit exponentiellt, från en liten gemenskap av användare till en av de största online-gemenskaper på webben. Såvitt vi vet representerar detta arbete den mest omfattande longitudinella studien av Reddits utveckling hittills, där man studerar både (i) hur användarinlagor har utvecklats över tiden och (ii) hur gemenskapens allokering av uppmärksamhet och dess uppfattning av inlagor har förändrats under 5 år baserat på en analys av nästan 60 miljoner inlagor. Vårt arbete avslöjar en ständigt ökande diversifiering av ämnen tillsammans med en samtidig koncentration till ett fåtal utvalda områden både när det gäller postade bidrag samt uppfattning och uppmärksamhet. I stort sett tyder våra undersökningar på att Reddit har förvandlat sig själv från en dedikerad gateway till webben till en alltmer självreferentiell gemenskap som fokuserar på och förstärker sitt eget användargenererade bild- och textinnehåll över externa källor. | REF genomförde en longitudinell studie av Reddit-användargemenskapen och fann en trend som gynnade original, användargenererat innehåll. | 23,217 | Evolution of reddit: from the front page of the internet to a self-referential community? | {'venue': "WWW '14 Companion", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']} | 9,350 |
Modellering av textinformation eller visuell information med vektorrepresentationer utbildade från stora språk eller visuella datauppsättningar har framgångsrikt utforskats under de senaste åren. Uppgifter som visuellt svar på frågor kräver dock att dessa vektorrepresentationer kombineras med varandra. Metoder för multimodal poolning omfattar elementvis multiplikation eller addition, samt konkatering av visuella och textrelaterade representationer. Vi tror att dessa metoder inte är lika uttrycksfulla som en yttre produkt av de visuella och textvisa vektorerna. Eftersom den yttre produkten vanligtvis är ogenomförbar på grund av sin höga dimension föreslår vi istället att Multimodal Compact Bilinear pooling (MCB) används för att effektivt och uttrycksfullt kombinera multimodala funktioner. Vi utvärderar i stor utsträckning MCB på den visuella frågan svar och jordning uppgifter. Vi visar konsekvent fördelarna med MCB över ablationer utan MCB. För visuell frågesvar, presenterar vi en arkitektur som använder MCB två gånger, en gång för att förutsäga uppmärksamhet över rumsliga funktioner och igen för att kombinera den deltagande representationen med frågan representation. Denna modell överträffar den senaste tekniken på Visual7W-datauppsättningen och VQA-utmaningen. | Det har skett många andra förbättringar av den vanliga metoden för djupinlärning, t.ex. REF utnyttjade Multimodal Compact Bilinear (MCB) pooling för att effektivt och uttrycksfullt kombinera multimodala funktioner. | 2,840,197 | Multimodal Compact Bilinear Pooling for Visual Question Answering and Visual Grounding | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 9,351 |
Den senaste tidens framsteg inom DNA-sekvenseringsteknik har satt allestädes närvarande tillgång till fullt sekvenserade mänskliga genom inom räckhåll. Det är inte längre svårt att föreställa sig den dag då alla kommer att ha möjlighet att skaffa sig och lagra sin egen DNA-sekvens. Bred och prisvärd tillgång till fullt sekvenserade genomer öppnar omedelbart upp viktiga möjligheter inom ett antal hälsorelaterade områden. I synnerhet, vanliga genomiska applikationer och tester som utförs in vitro idag kommer snart att genomföras beräkningsmässigt, med hjälp av digitaliserade genom. Nya tillämpningar kommer att utvecklas i takt med att genomaktiverad medicin blir allt mer förebyggande och personlig. Detta framsteg föranleder dock också betydande integritetsutmaningar i samband med potentiell förlust, stöld eller missbruk av genomiska data. I den här artikeln börjar vi ta itu med genomisk integritet genom att fokusera på tre viktiga tillämpningar: Faderskapstest, Personlig Medicin och Genetisk Kompatibilitetstest. Efter att noggrant ha analyserat dessa applikationer och deras integritetskrav, föreslår vi en uppsättning effektiva tekniker baserade på privat set verksamhet. Detta gör det möjligt för oss att i silico genomföra vissa operationer som för närvarande utförs via in vitro-metoder, på ett säkert sätt. Experimentella resultat visar att föreslagna tekniker är både genomförbara och praktiska idag. | Baldi m.fl. I REF föreslås en uppsättning tekniker som bygger på privata åtgärder för att ta itu med genomisk integritet i flera viktiga tillämpningar, nämligen faderskapstester, individanpassad medicin och genetiska kompatibilitetstester. | 5,982,940 | Countering GATTACA: efficient and secure testing of fully-sequenced human genomes | {'venue': "CCS '11", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,352 |
För att minska den betydande redundansen i djupa Convolutional Neural Networks (CNNs), de flesta befintliga metoder beskär neuroner genom att endast beakta statistiken över ett enskilt skikt eller två på varandra följande lager (t.ex., beskära ett lager för att minimera återuppbyggnadsfelet i nästa lager), ignorera effekten av felutbredning i djupa nätverk. Däremot hävdar vi att för att ett bevattnat nätverk ska behålla sin prediktiva kraft, är det viktigt att beskära neuroner i hela neuronnätverket gemensamt baserat på ett enhetligt mål: minimera återuppbyggnadsfelet av viktiga svar i det "slutliga responsskiktet" (FRL), som är det andra tolastskiktet före klassificeringen. Specifikt, vi tillämpar funktion ranking tekniker för att mäta betydelsen av varje neuron i FRL, formulera nätverk beskärning som ett binärt heltal optimering problem, och härleda en sluten-form lösning till det för beskärning neuroner i tidigare lager. Baserat på vår teoretiska analys föreslår vi algoritmen Neuronviktighet Score Propagation (NISP) för att sprida betydelsen av poäng av slutliga svar till varje neuron i nätverket. CNN beskärs genom att ta bort neuroner med minst betydelse, och det finjusteras sedan för att återfå sin prediktiva kraft. NISP utvärderas på flera datauppsättningar med flera CNN-modeller och demonstreras för att uppnå signifikant acceleration och kompression med försumbar noggrannhetsförlust. | Nyligen föreslås ett neuronviktspoängutbredningskriterium (NISP) för att sprida betydelsepoängen för varje neuron från högnivåskikten till lågnivåskikten. | 4,142,619 | NISP: Pruning Networks Using Neuron Importance Score Propagation | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 9,353 |
Till skillnad från typiska funktionskrav kan säkerhetskraven potentiellt vara mycket återanvändbara, särskilt om de anges som fall av återanvändbara mallar. I denna kolumn kommer jag att diskutera de begrepp som ligger till grund för säkerhetsteknik, inklusive dess kvalitetsfaktorer. Jag kommer sedan att ta upp frågan om säkerhetskrav och hur de skiljer sig från de arkitektoniska mekanismer som kommer att uppfylla dem. Sedan kommer jag att diskutera värdet av återanvändbara parameteriserade mallar för att specificera säkerhetskrav och ge ett exempel på en sådan mall och dess tillhörande användning. Slutligen kommer jag att skissera en tillgångsbaserad riskbaserad analysmetod för att fastställa lämpliga faktiska parametrar att använda vid återanvändning av sådana parameteriserade mallar för att specificera säkerhetskrav. | Firesmith tillhandahöll även återanvändbara mallar för att specificera säkerhetskrav REF. | 3,074,001 | Specifying reusable security requirements | {'venue': 'Journal of Object Technology', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,354 |
Abstrakt. Vi anser att inkrementell beräkning av mellanhet centralitet (BC) av alla hörn i en graf G = (V, E), riktad eller oriktad, med positiva reella kant-vikter. Den nuvarande allmänt använda algoritmen är Brandes algoritm som körs i O(mn + n 2 log n) tid, där n = och m =. Vi presenterar en inkrementell algoritm som uppdaterar BC poäng för alla hörn i G när en ny kant läggs till G, eller vikten av en befintlig kant minskas. Vår inkrementella algoritm körs i O(m ′ n+n 2 ) tid, där m ′ begränsas av m * = och E * är den uppsättning kanter som ligger på en kortaste vägen i G. Vi uppnår samma gräns för den mer allmänna inkrementella uppdateringen av en vertex v, där edge uppdateringen kan utföras på någon delmängd av kanter incident till v. Vår inkrementella algoritm är den första algoritmen som är asymptotiskt snabbare på sparse grafer än recomputing med Brandes algoritm även för en enda edge uppdatering. Det är också sannolikt att vara mycket snabbare än Brandes algoritm på täta grafer eftersom m * är ofta nära linjär i n. Vår inkrementella algoritm är mycket enkel, och vi ger en effektiv cache-oblivious implementation som ådrar sig O(scan(n 2 )+n·sort(m ′ ) cache missar, där skanning och sortering är välkända åtgärder för effektiv cachelagring. Vi ger också en statisk BC-algoritm som körs i tiden O(m * n + n 2 log n), som är snabbare än Brandes algoritm på någon graf med m = (n log n) och m * = o(m). Mellanhet centralitet (BC) är en allmänt använd åtgärd i analysen av stora komplexa nätverk. BC av en nod v i ett nätverk är fraktionen av alla kortaste vägar i nätverket som går igenom v, och denna åtgärd används ofta som ett index som bestämmer den relativa betydelsen av v i nätverket. Vissa tillämpningar av BC inkluderar att analysera sociala interaktionsnätverk [12], identifiera dödlighet i biologiska nätverk [21], och identifiera nyckelaktörer i terroristnätverk [13, 4]. Med tanke på att de berörda nätverken förändras är det önskvärt att ha algoritmer som beräknar BC snabbare än att beräkna det från grunden efter varje förändring. Vårt huvudsakliga bidrag är den första inkrementella algoritm för beräkning BC efter en inkrementell uppdatering på en kant eller på en vertex som är bevisligen snabbare på glesa grafer än den allmänt använda statiska algoritm av Brandes [3]. Med en inkrementell uppdatering på en kant (u, v) menar vi en minskning av vikten av en befintlig kant (u, v), eller tillägg av en ny kant (u, v) med ändlig vikt om (u, v) inte finns i grafen; i en inkrementell vertex uppdatering, uppdateringar kan ske på någon delmängd av kanter incident till v, inklusive tillägg av nya kanter. Låt G = (V, E) vara en graf med positiva reella kantvikter. Låt n = "V" och m = "E" För att ange vårt resultat behöver vi följande definitioner. För en vertex x V, låt m * x betecknar antalet kanter som ligger på kortaste vägar genom x. Letm * betecknar genomsnittet över alla m * x, d.v.s.,m * = 1 n x till V m * x. Slutligen, låt m * betecknar det totala antalet kanter som ligger på kortaste vägar i G. För vår inkrementella gräns, anser vi maximum av var och en av dessa termer i de två graferna före och efter uppdateringen. Här är vårt huvudsakliga resultat. Vår metod är att effektivt upprätthålla den enda källan kortaste vägar (SSSP) riktad acyklisk graf (DAG) rotad vid varje källa s på V, och därför se till att efter varje förändring vi bara undersöka | Nasre m.fl. REF presenterar en tätare övre gräns för O(nm * ) på tids komplexitet, där m * är antalet kanter som ligger på kortaste vägar. | 11,018,383 | Betweenness Centrality -- Incremental and Faster | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 9,355 |
Moderna kryptovalutasystem, såsom Ethereum-projektet, möjliggör komplexa finansiella transaktioner genom skript som kallas smarta kontrakt. Dessa smarta kontrakt utförs många, många gånger, alltid utan verklig samstämmighet. Först, alla smarta kontrakt utförs seriellt av gruvarbetare innan du lägger dem till blockkedjan. Senare genomförs dessa kontrakt serievis på nytt av validerare för att kontrollera att de smarta kontrakten utfördes korrekt av gruvarbetare. Serieell exekvering begränsar systemgenomströmning och misslyckas med att utnyttja dagens samtidiga multicore- och klusterarkitekturer. Icke desto mindre verkar det krävas en serieutförande: kontrakt delar stat, och kontrakt programmering språk har en seriell semantik. Detta dokument presenterar ett nytt sätt att tillåta gruvarbetare och validerare att utföra smarta kontrakt parallellt, baserat på tekniker anpassade från programvara transaktionsminne. Gruvarbetarna utför smarta kontrakt spekulativt parallellt, vilket tillåter icke-konflikterande kontrakt att fortsätta samtidigt, och "upptäcka" en seriellt samtidig schema för ett block transaktioner, Detta schema fångas och kodas som en deterministisk gaffel-join program som används av validerare för att återexekvera gruvarbetarens parallella schema deterministiskt men samtidigt. Vi har bevisat att validerarens avrättning är likvärdig med gruvarbetarens avrättning. Smarta kontrakt riktmärken körs på en JVM med ScalaSTM visar att en hastighetshöjning på 1,39× kan erhållas för gruvarbetare och 1,59× för validerare med bara tre samtidiga trådar. | Dickerson m.fl. presentera en lösning för att tillåta gruvarbetare och validerare att utföra smarta kontrakt samtidigt REF. | 195,811,887 | Adding concurrency to smart contracts | {'venue': 'Distributed Computing', 'journal': 'Distributed Computing', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 9,356 |
Twitter har snabbt vuxit till ett populärt socialt nätverk under de senaste åren och ger ett stort antal realtidsmeddelanden för användare. Tweets presenteras i kronologisk ordning och användare skannar de följandes tidslinjer för att hitta vad de är intresserade av. Men ett problem med informationsöverbelastning har oroat många användare, särskilt de med många följare och tusentals tweets som anländer varje dag. I detta dokument fokuserar vi på att rekommendera användbara tweets som användarna verkligen är intresserade av personligen för att minska användarnas ansträngningar att hitta användbar information. Många typer av information på Twitter finns tillgänglig för att hjälpa rekommendationer, inklusive användarens egen tweet historia, retweet historia och sociala relationer mellan användare. Vi föreslår en metod för att göra tweet rekommendationer baserat på samarbetsrankning för att fånga personliga intressen. Den kan också på ett bekvämt sätt integrera den andra användbara kontextuella informationen. Vår slutliga metod behandlar tre viktiga delar på Twitter: tweet ämnesnivå faktorer, användare sociala relationsfaktorer och explicita funktioner som auktoritet för förlaget och kvalitet på tweet. Experimenten visar att alla de föreslagna elementen är viktiga och att vår metod i hög grad överträffar flera grundläggande metoder. | I Ref föreslogs en modell för samarbetsrankning. | 7,863,807 | Collaborative personalized tweet recommendation | {'venue': "SIGIR '12", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,357 |
En allmän-purpose parallell raster processing programmeringsbibliotek (pRPL) utvecklades och tillämpas för att påskynda en vanlig cellulär automaton modell med kända dragbarhet begränsningar. Biblioteket lämpar sig för användning av geografiska informationsforskare med grundläggande programmeringsfärdigheter, men som saknar kunskap och erfarenhet av parallell databehandling och programmering. pRPL är ett allmänt programmeringsbibliotek som ger allmänt stöd för rasterbehandling, inklusive lokal-scope, grannskap-scope, regional-scope och global-scope algoritmer så länge de är parallelliserbara. Biblioteket stöder också flerlagersalgoritmer. Förutom standardmetoderna för nedbrytning av datadomänen ger pRPL en rumsligt adaptiv quad-tree-baserad nedbrytning för att producera mer jämnt fördelade arbetsbelastningar bland processorer. Dataparallalism och aktivitet parallellism stöds, med både statisk och dynamisk belastningsbalansering. Genom att gruppera processorer stöder pRPL också data-task hybrid parallellism, d.v.s. data parallellism inom en processorgrupp och uppgift parallellism mellan processorer grupper. pSLEUTH, en parallell version av en välkänd cellulär automatiserad modell för simulering av förändrad markanvändning i städer (SLEUTH), utvecklades för att visa fullt utnyttjande av de avancerade funktionerna i pRPL. Experiment med verkliga datamängder genomfördes och prestandan hos pSLEUTH mättes. Vi drar inte bara slutsatsen att pRPL i hög grad minskar komplexiteten i utvecklingen av en parallell rasterbehandlingsalgoritm, utan också avsevärt minskar beräkningstiden för beräkningsintensiva rasterbehandlingsalgoritmer, vilket visas med pSLEUTH. | REF införde ett parallellt programmeringsbibliotek. | 17,065,636 | A general-purpose parallel raster processing programming library test application using a geographic cellular automata model | {'venue': None, 'journal': 'International Journal of Geographical Information Science', 'mag_field_of_study': ['Computer Science']} | 9,358 |
Sammanfattning Automatisk registrering av multimodala bilder har visat sig vara en svår uppgift. De flesta befintliga tekniker har svårt att hantera situationer med mycket icke-homogen bildkontrast och en liten inledande överlappande region mellan bilderna. I detta dokument presenteras en robust metod med flera lösningar för registrering av multimodala bilder med hjälp av lokala fassammanhållningsrepresentationer. Den föreslagna metoden finner den omvandling som minimerar det kvarstående felet mellan de lokala fassammanhållningsrepresentationerna för de två multimodala bilderna. Felrester kan minimeras med hjälp av en kombination av effektiva globalt uttömmande optimeringstekniker och subpixel-nivå lokala optimeringstekniker för att ytterligare förbättra robustheten i situationer med liten initial överlappning. Den föreslagna metoden har testats på olika medicinska bilder som förvärvats med olika metoder och utvärderats baserat på dess registreringsnoggrannhet. Resultaten visar att den föreslagna metoden kan uppnå bättre noggrannhet än befintliga multimodala registreringsmetoder vid hantering av situationer där bilden inte är homogen och där det finns små överlappande regioner. | REF använder återstoden av den lokala fassammanhållningsrepresentationen för registrering. | 828,278 | Robust Multimodal Registration Using Local Phase-Coherence Representations | {'venue': 'J SIGN PROCESS SYST', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,359 |
Den mänskliga handen rör sig på komplexa och högdimensionella sätt, vilket gör uppskattning av 3D hand utgör konfigurationer enbart från bilder en utmanande uppgift. I detta arbete föreslår vi en metod för att lära sig en statistisk handmodell som representeras av ett tvärmodalt tränat latent utrymme via ett generativt djupt neuralt nätverk. Vi härleder en objektiv funktion från den variationella nedre gränsen i VAE-ramverket och optimerar gemensamt det resulterande tvärmodala KLdivergence-målet och det bakre återuppbyggnadsmålet, vilket naturligt medger ett utbildningssystem som leder till ett sammanhängande latent utrymme över flera modaliteter såsom RGB-bilder, 2D-nyckelpunktsdetekteringar eller 3D-handkonfigurationer. Dessutom ger det ett enkelt sätt att använda semisupervision. Detta latenta utrymme kan direkt användas för att uppskatta 3D hand poser från RGB-avbildningar, överträffa state-of-the art i olika inställningar. Dessutom visar vi att vår föreslagna metod kan användas utan ändringar på djupbilder och fungerar jämförbart med specialiserade metoder. Slutligen är modellen helt generativ och kan syntetisera konsekventa par av handkonfigurationer över olika modaliteter. Vi utvärderar vår metod på både RGB och djupdataset och analyserar det latenta utrymmet kvalitativt. | Spurr m.fl. REF lärde sig en tvärmodal statistisk handmodell, genom att lära sig av en latent rymdrepresentation som bäddar in provtagningspunkter från flera datakällor såsom 2D-nyckelpunkter, bilder och 3D-hand utgör. | 4,528,810 | Cross-Modal Deep Variational Hand Pose Estimation | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 9,360 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.