src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
Inträngande detektionssystem användes tidigare tillsammans med olika tekniker för att på ett effektivt sätt upptäcka intrång i nätverk. Men de flesta av dessa system kan upptäcka inkräktarna endast med hög falsk larmfrekvens. I detta dokument föreslår vi en ny intelligent agentbaserad inkrementell detektionsmodell för mobila ad hoc-nätverk med hjälp av en kombination av attributval, avvikande detektion och förbättrade SVM-klassificeringsmetoder av flera klasser. För detta ändamål föreslås en effektiv förbearbetningsteknik som förbättrar detektionsnoggrannheten och minskar bearbetningstiden. Dessutom föreslås två nya algoritmer, nämligen en Intelligent Agent Weighted Distance Outlier Detection algoritm och en Intelligent Agent-baserad Enhanced Multiclass Support Vector Machine algoritm för att upptäcka inkräktare i en distribuerad databasmiljö som använder intelligenta agenter för förtroendehantering och samordning i transaktionsbehandling. De experimentella resultaten av den föreslagna modellen visar att detta system upptäcker avvikelser med låg falsk larmfrekvens och hög detektionshastighet när det provas med KDD Cup 99 datauppsättning. | al REF, föreslog en intelligent agentbaserad viktad sträcka utanför detektionsalgoritm. | 17,057,650 | Intelligent Agent-Based Intrusion Detection System Using Enhanced Multiclass SVM | {'venue': 'Computational Intelligence and Neuroscience', 'journal': 'Computational Intelligence and Neuroscience', 'mag_field_of_study': ['Medicine', 'Computer Science']} | 8,243 |
Abstrakt. I detta dokument presenterar vi en lätt implementation av permutationen och Keccak-f[400] av SHA-3 kandidat hash funktion Keccak. Vår design är väl lämpad för radiofrekvensidentifiering (RFID) applikationer som har begränsade resurser och kräver lätt kryptografisk hårdvara. Förutom sin låga yta och låga kraft, ger vår design en anständig genomströmning. Såvitt vi vet är det också den första lätta implementationen av en svampfunktion, som skiljer den från de tidigare verken. Genom att implementera den nya hashalgoritmen Keccak har vi utnyttjat unika fördelar med svampkonstruktionen. Även om genomförandet är inriktat på tillämpningsspecifika integrerade kretsar (ASIC) plattformar, är det också lämpligt för fältprogrammerbara Gate Arrays (FPGA). För att få en kompakt design, seriell databehandling principer utnyttjas tillsammans med algoritm-specifika optimeringar. Designen kräver endast 2.52K grindar med en genomströmning på 8 Kbps vid 100 KHz systemklocka baserat på 0,13-μm CMOS standard cellbibliotek. | REF har presenterat en piped serialiserad arkitektur för SHA-3-kandidaten Keccak, som erbjuder mycket låg area och strömförbrukning med acceptabel genomströmning. | 2,872,588 | A lightweight implementation of Keccak hash function for radio-frequency identification applications | {'venue': 'RFIDSec', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,244 |
Abstrakt. Genom detta dokument införs ett nytt statistiskt tillvägagångssätt för att automatiskt dela upp texten i sammanhängande segment. Metoden bygger på en teknik som stegvis bygger en exponentiell modell för att extrahera funktioner som är korrelerade med förekomsten av gränser i märkt träningstext. Modellerna använder två kategorier av funktioner: aktualitetsfunktioner som använder adaptiva språkmodeller på ett nytt sätt för att upptäcka breda förändringar av ämne, och cue-word-funktioner som upptäcker förekomster av specifika ord, som kan vara domänspecifika, som tenderar att användas nära segmentgränser. Bedömning av vår strategi på kvantitativa och kvalitativa grunder visar dess effektivitet inom två mycket olika områden, Wall Street Journal nyhetsartiklar och tv-sändningar nyhetsutskrifter. Kvantitativa resultat på dessa områden presenteras med hjälp av en ny probabilistiskt motiverad fel metriska, som kombinerar precision och återkalla på ett naturligt och flexibelt sätt. Detta mått används för att göra en kvantitativ bedömning av de relativa bidragen från de olika funktionstyperna, samt en jämförelse med beslutsträd och tidigare föreslagna textsegmenteringsalgoritmer. | REF använder språkmodeller för att upptäcka ämnesförskjutningar och kombinera dem med teckenordsfunktioner i en maximal entropimodell. | 2,839,111 | Statistical Models for Text Segmentation | {'venue': 'Machine Learning', 'journal': 'Machine Learning', 'mag_field_of_study': ['Computer Science']} | 8,245 |
Även om Generativa Adversarial Networks uppnår toppmoderna resultat på en mängd olika generativa uppgifter, betraktas de som mycket instabila och benägna att missa lägen. Vi hävdar att dessa dåliga beteenden av GANs beror på den mycket speciella funktionella formen av de utbildade discriminatorer i högdimensionella utrymmen, som lätt kan göra utbildning fast eller skjuta sannolikhetsmassan i fel riktning, mot högre koncentration än den av data som genererar distribution. Vi introducerar flera sätt att reglera målet, vilket dramatiskt kan stabilisera utbildningen av GAN-modeller. Vi visar också att våra regularizers kan bidra till en rättvis fördelning av sannolikhetsmassan över olika former av datagenererande distribution, under de tidiga faserna av utbildningen och därmed ge en enhetlig lösning på problemet med saknade lägen. | REF föreslog flera sätt att reglera målet för kontradiktoriskt lärande, inklusive geometrisk metrisk regularizer, mode regularizer och multiple-diffusion utbildning. | 13,002,849 | Mode Regularized Generative Adversarial Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 8,246 |
Abstrakt. Även om mobila handhållna enheter (MHD) är allmänt förekommande idag, är lite vet om hur de används-särskilt hemma. I detta dokument ger vi en första titt på mobil handhållen enhetsanvändning ur ett nätverksperspektiv. Vi baserar vår studie på anonymiserade paketnivådata som representerar mer än 20.000 bostäder DSL-kunder. Vår karakterisering av trafiken visar att MHD är aktiva på upp till 3 % av de övervakade DSL-linjerna. Mobila enheter från Apple (dvs. iPhones och iPods) är, med stor marginal, de vanligaste MHDs och står för större delen av trafiken. Vi finner att MHD-trafiken domineras av multimediainnehåll och nedladdningar av mobila applikationer. | Maier och Al. studie paket spår samlas in från mer än 20.000 bostäder DSL kunder för att karakterisera trafiken från MHD:er i hem WiFi-nätverk REF. | 14,010,236 | A first look at mobile hand-held device traffic | {'venue': 'PAM', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,247 |
Färska rapporter tyder på att en generisk övervakad djup CNN-modell som är utbildad på en storskalig datauppsättning minskar, men inte tar bort, dataset-fördomar. Finjusterande djupa modeller i en ny domän kan kräva en betydande mängd märkta data, som för många applikationer är helt enkelt inte tillgänglig. Vi föreslår en ny CNN-arkitektur för att utnyttja omärkta och glest märkta måldomändata. Vår strategi optimerar samtidigt för domäninvarians för att underlätta domänöverföring och använder en mjuk etikettfördelning som matchar förlust för att överföra information mellan uppgifter. Vår föreslagna anpassningsmetod erbjuder empiriska prestanda som överstiger tidigare publicerade resultat på två standardriktmärken för visuell domänanpassning, utvärderade över övervakade och halvövervakade anpassningsinställningar. | Tzeng et al REF föreslår att man underlättar domänöverföring genom en mjuk etikettdistribution som matchar förlust. | 2,655,115 | Simultaneous Deep Transfer Across Domains and Tasks | {'venue': '2015 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2015 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 8,248 |
Abstrakt. Automatisering och påskyndande av interventionsterapi och diagnostiska arbetsflöden är en avgörande fråga. Ett sätt att förbättra dessa arbetsflöden är att påskynda procedurerna för bildinhämtning genom att helt automatisera patientinställningen. Detta dokument beskriver ett system som utför denna uppgift utan användning av markörer eller andra tidigare antaganden. Den returnerar metriska koordinater för 3-D kroppsformen i realtid för invers positionering. Detta uppnås genom tillämpning av en ny teknik, kallad Time-of-Flight (ToF) sensor. En ToF-sensor är en kostnadseffektiv, off-the-shälf-kamera som ger mer än 40 000 3D-punkter i realtid. Det första bidraget från detta papper är införlivandet av denna nya bildteknik (ToF) i interventionell bildbehandling. Det andra bidraget är ett C-armsystems förmåga att positionera sig med avseende på patienten före förvärvet. Vi använder 3D-ytans information om patienten för att dela upp kroppen i anatomiska sektioner. Detta uppnås genom en snabb klassificeringsprocess i två steg. Systemet beräknar ISO-centrumet för varje upptäckt region. För att verifiera vårt system utförde vi flera tester på huvudets ISO-centrum. För det första utvärderades reproducerbarheten hos beräkningen av huvudets ISO-centrum. Vi uppnådde en noggrannhet av (x: 1.73±1.11 mm/y: 1.87±1.31 mm/z: 2.91±2.62 mm). För det andra, en C-arm huvudscanning av en kropp fantom var inställd. Vårt system anpassade automatiskt ISO-centrum av huvudet med C-arm ISO-center. Här uppnådde vi en noggrannhet på ± 1 cm, vilket ligger inom noggrannheten hos patienttabellkontrollen. | Utan användning av markörer eller andra tidigare antaganden, Schaller et al. REF använder en tid-av-flight (ToF) sensor för att uppnå omvänd C-arm positionering för interventionella förfaranden och främst fokusera på identifiering av anatomiska regioner på patientkroppen för att räkna ut pose av C-arm. Men man talar om färre detaljer om omplaceringsförfarandet. | 7,648,798 | Inverse C-arm Positioning for Interventional Procedures Using Real-Time Body Part Detection | {'venue': 'Medical image computing and computer-assisted intervention : MICCAI ... International Conference on Medical Image Computing and Computer-Assisted Intervention', 'journal': 'Medical image computing and computer-assisted intervention : MICCAI ... International Conference on Medical Image Computing and Computer-Assisted Intervention', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 8,249 |
Baldi, P.; Blanke, Mogens; Castaldi, P.; Mimmo, N.; Simani, S. Länk till artikel, DOI: 10.016DOI: 10. /j.ifacol.2015 Publikationsdatum: 2015 Peer recensed version Länk tillbaka till DTU Orbit Citation (APA): Baldi, P., Blanke, M., Castaldi, P., Mimmo, N., & Simani, S. (2015). Kombinerad Geometriska och Neural Network Approach till Generic Fault Diagnos i Satellite Reaction Wheels. I F A C Workshop Series, 48(21),[194][195][196][197][198][199] Sammanfattning: I detta dokument föreslås ett nytt diagnossystem för upptäckt, isolering och uppskattning av fel som påverkar satellitreaktionshjul. Både varvtalsmätningar och aktiveringsmomentfel hanteras. Det föreslagna systemet består av en feldetekterings- och isoleringsmodul som består av en bank av kvarvarande filter organiserade i ett generaliserat system, följt av en feluppskattningsmodul bestående av en bank med adaptiva skattningsfilter. Resterna frikopplas från aerodynamiska störningar tack vare den ickelinjära geometriska metoden. Användningen av Radial Basis Funktion Neurala nätverk visas för att tillåta design av generaliserade feluppskattning filter, som inte behöver en förhandsinformation om fel interna modellen. Simuleringsresultat med en detaljerad icke-linjär rymdfarkostmodell, som inkluderar störningar, visar att det föreslagna diagnossystemet kan hantera fel som påverkar både reaktionshjulets vridmoment och svänghjulsvarvtalsmätningar och få exakt felisolering samt exakta feluppskattningar. | I REF utformade författarna en feldetekterings- och isoleringsmodul som består av ett par filter. | 4,001,212 | Combined Geometric and Neural Network Approach to Generic Fault Diagnosis in Satellite Reaction Wheels | {'venue': None, 'journal': 'IFAC-PapersOnLine', 'mag_field_of_study': ['Engineering']} | 8,250 |
Abstract-Vehicular ad-hoc nätverk (VANET)-baserade multimedia applikationer anses spela en mycket viktig roll i framtiden för intelligenta transportsystem och fordons infotainment system. Socioekonomiska frågor är identifierade bland de största utmaningarna i VANET-baserade multimediaapplikationer. Som svar på dessa utmaningar föreslås i detta dokument en ny användarorienterad klusterbaserad multimedialösning över VANET som kan hantera preferenser för fordonspassagerare och leverera multimedieinnehåll av intresse. En sådan lösning kommer att stödja olika mervärdestjänster i fordonen, t.ex. Turistiska videoguide, nyheter, underhållning, etc. I detta dokument presenteras den föreslagna lösningens arkitektur tillsammans med den klusterbaserade mekanism som används för multimediaöverföringar och den algoritm för urval av klusterhuvud som krävs för hantering av leveransinfrastruktur. Simuleringsbaserad testning visar hur denna lösning ökar systemstabiliteten vilket resulterar i en längre livslängd för det valda klusterhuvudet jämfört med den klassiska Lest-ID klusterhuvudalgoritmen, faktum som positivt påverkar kvaliteten på multimediaöverföringen. | Författarna till REF presenterade den klusterbaserade mekanism som används för multimediaöverföringar och algoritmen för urval av klusterhuvud i HVC-system. | 2,098,383 | User-oriented cluster-based solution for multimedia content delivery over VANETs | {'venue': 'IEEE international Symposium on Broadband Multimedia Systems and Broadcasting', 'journal': 'IEEE international Symposium on Broadband Multimedia Systems and Broadcasting', 'mag_field_of_study': ['Computer Science']} | 8,251 |
Allteftersom mängden data exploderar snabbt, använder fler och fler företag datacenter för att göra effektiva beslut och få en konkurrensfördel. Dataanalysapplikationer spelar en viktig roll i datacenter, och därför har det blivit allt viktigare att förstå deras beteenden för att ytterligare förbättra prestandan hos datacenterdatorsystem. I detta dokument, efter att ha undersökt tre viktigaste tillämpningsområden när det gäller sidvyer och dagliga besökare, väljer vi elva representativa dataanalys arbetsbelastningar och karakteriserar deras mikro-arkitekturala egenskaper genom att använda maskinvaruprestandaräknare, för att förstå effekterna och konsekvenserna av dataanalys arbetsbelastningar på systemen utrustade med moderna superskalar out-of-order processorer. Vår studie om arbetsbelastningen visar att dataanalysapplikationer har många inneboende egenskaper, vilket placerar dem i en annan klass än desktop (SPEC CPU2006), HPC (HPCC) och servicearbetsbelastningar, inklusive traditionella serverarbetsbelastningar (SPECweb200S) och utskalningsarbetsbelastningar (fyra bland sex riktmärken i CloudSuite), och därför ger vi flera rekommendationer för arkitektur och systemoptimeringar. På grundval av vår arbetsbelastning karakterisering arbete, släppte vi en benchmarking svit som heter DCBench för typiska datacenter arbetsbelastningar, inklusive dataanalys och tjänstebelastningar, med en öppen källkod licens på vår projekt hemsida på http://prof.ict.ac.cnIDCBench. Vi hoppas att DCBench är till hjälp för att utföra arkitektur och småskaliga systemforskningar för datacenterdata. | På samma sätt visar vissa forskare att arbetsbelastningen för dataanalys är betydligt varierande både vad gäller prestanda för upphastighet och mikroarkitekturella egenskaper REF. | 2,781,719 | Characterizing data analysis workloads in data centers | {'venue': '2013 IEEE International Symposium on Workload Characterization (IISWC)', 'journal': '2013 IEEE International Symposium on Workload Characterization (IISWC)', 'mag_field_of_study': ['Computer Science']} | 8,252 |
I detta dokument introducerar vi experiment på neuro-evolution mekanismer tillämpas på rovdjur / prey multi-tecken datorspel. Vår testbädd är en modifierad version av det välkända Pac-Man-spelet. Genom att titta på spelet från rovdjuren" (dvs. motståndare') perspektiv, försöker vi offline för att utveckla neural-kontrollerade motståndare som kan spela effektivt mot datorstyrda fasta strategispelare. Emellertid framträder nära-optimala beteenden gör spelet mindre intressant att spela. Vi diskuterar därför de kriterier som gör ett spel intressant och dessutom inför vi ett generiskt mått på rovdjur/prey dataspels intresse. Med tanke på denna åtgärd presenterar vi en evolutionär mekanism för motståndare som håller lära av en spelare medan de spelar mot den (dvs. on-line) och vi visar dess effektivitet och robusthet i att öka och upprätthålla spelets intresse. Datorspelsmotståndare som följer denna on-line inlärningsstrategi visar hög anpassningsförmåga till föränderliga spelarstrategier som ger bevis för metodens effektivitet mot mänskliga spelare. | I REF utvecklade författaren neural-controller motståndare som gjorde spelet roligare, det vill säga den evolutionära mekanismen utvecklades motståndarna medan spelar mot spelaren för att göra spelet roligare i stället för att skapa optimala motståndare som alltid vinner. | 16,823,932 | Evolving Opponents for Interesting Interactive Computer Games | {'venue': 'From Animals to Animats 8', 'journal': 'From Animals to Animats 8', 'mag_field_of_study': ['Computer Science']} | 8,253 |
För artificiell allmän intelligens (AGI) skulle det vara effektivt om flera användare utbildade samma gigantiska neurala nätverk, tillåter parameter återanvändning, utan katastrofal glömska. PathNet är ett första steg i denna riktning. Det är en neural nätverksalgoritm som använder agenter inbäddade i det neurala nätverket vars uppgift är att upptäcka vilka delar av nätverket att återanvända för nya uppgifter. Agenter är banor (vyer) genom nätverket som bestämmer den delmängd av parametrar som används och uppdateras av framåt och bakåt passerar av backpropogation algoritmen. Under inlärning, en turnering val genetisk algoritm används för att välja vägar genom neurala nätverket för replikation och mutation. Pathway fitness är prestandan för denna väg mätt enligt en kostnadsfunktion. Vi demonstrerar framgångsrikt överföringsinlärning; fastställande av parametrarna längs en väg inlärd på uppgift A och omutveckling av en ny population av vägar för uppgift B, gör det möjligt att lära sig uppgift B snabbare än det kan läras från grunden eller efter finjustering. Vägar utvecklades på uppdrag B återanvända delar av den optimala vägen utvecklats på uppgift A. Positiv överföring visades för binära MNIST, CIFAR och SVHN övervakade lärande klassificering uppgifter, och en uppsättning av Atari och Labyrint förstärka lärande uppgifter, tyder PathNets har allmän tillämplighet för neurala nätverk utbildning. Slutligen, PathNet också avsevärt förbättrar robustheten till hyperparameter val av en parallell asynkron förstärkning inlärningsalgoritm (A3C). | Fernando m.fl. REF använder en generisk algoritm för att välja en väg genom ett neuralt nätverk. | 9,936,656 | PathNet: Evolution Channels Gradient Descent in Super Neural Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 8,254 |
Abstrakt. Vi bevisar-i standard oberoende privata värden modell-att resultatet, i form av förväntade sannolikheter för handel och förväntade överföringar, av någon Bayesian mekanism, också kan uppnås med en dominerande strategi mekanism. | När det gäller målet med intäktsmaximering visar Ref att i den oberoende modellen för privata värden med linjär nytta, kan resultatet i form av mellanliggande tilldelningsregler och övergångsbetalningsregler för alla BIC-mekanismer också erhållas med hjälp av en DIC-mekanism (utan begränsning av IR). | 18,450,102 | BAYESIAN AND DOMINANT STRATEGY IMPLEMENTATION IN THE INDEPENDENT PRIVATE VALUES MODEL | {'venue': None, 'journal': 'Econometrica', 'mag_field_of_study': ['Economics']} | 8,255 |
Första story upptäckt (FSD) innebär att identifiera första berättelser om händelser från en kontinuerlig ström av dokument. Ett stort problem i denna uppgift är den höga graden av lexikal variation i dokument som gör det mycket svårt att upptäcka historier som talar om samma händelse men uttrycks med olika ord. Vi föreslår att man använder parafraser för att lindra detta problem, vilket gör detta till det första arbetet med att använda parafraser för FSD. Vi visar ett nytt sätt att integrera parafraser med lokalkänslig hashing (LSH) för att få ett effektivt FSD-system som kan skala till mycket stora datauppsättningar. Vårt system uppnår toppmoderna resultat på den första historien upptäckt uppgift, slå både de bästa övervakade och oövervakade system. För att testa vår strategi på stora data, konstruerar vi en corpus av händelser för Twitter, som består av 50 miljoner dokument, och visar att parafrasering är också fördelaktigt på detta område. | Toppmoderna FSD-strategier använder parafrasexpansion för att övervinna denna fråga REF. | 14,813,549 | Using paraphrases for improving first story detection in news and Twitter | {'venue': 'NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,256 |
Abstract-Energi skörd (EH) från omgivande radiofrekvens (RF) elektromagnetiska vågor är en effektiv lösning för helt autonoma och hållbara kommunikationsnät. De flesta av de relaterade verk som presenteras i litteraturen är baserade på specifika (och småskaliga) nätverksstrukturer, som även om de ger användbara insikter om de potentiella fördelarna med RF-EH-tekniken, inte kan karakterisera prestandan hos allmänna nätverk. I detta dokument, vi antar en storskalig strategi för RF-EH-teknik och vi karakteriserar prestanda ett nätverk med slumpmässigt antal sändare-mottagare par med hjälp av stokastisk-geometri verktyg. Specifikt, vi analyserar avbrottsannolikheten prestanda och den genomsnittliga skördade energi, när mottagare använder strömdelning (PS) teknik för "samtidig" information och energiöverföring. Ett icke-kooperativt system, där information/energi endast förmedlas via direkta länkar, beaktas för det första och systemets avbrottsprestanda samt den genomsnittliga avverkade energin erhålls i sluten form i funktion av kraftdelningen. För detta protokoll, ett intressant optimeringsproblem som minimerar den överförda effekten under avbrott sannolikhet och skördebegränsningar, är formulerad och löst i sluten form. Dessutom studerar vi ett samarbetsprotokoll där källöverföringar stöds av ett slumpmässigt antal potentiella reläer som slumpmässigt distribueras in i nätverket. I detta fall kan information/energi tas emot vid varje destination via två oberoende och ortogonala vägar (vid återutläggning). Vi karakteriserar både prestandamått, när ett urval kombinerar schema tillämpas på mottagarna och ett enda relä väljs slumpmässigt för kooperativ mångfald. | Samtidig information och energiöverföring i ett relästödda nät övervägdes i REF. | 11,125,784 | Simultaneous Information and Energy Transfer in Large-Scale Networks with/without Relaying | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 8,257 |
Sammanhangsbaserade banditalgoritmer har blivit populära för online rekommendationssystem som Digg, Yahoo! Buzz, och nyheter rekommendation i allmänhet. Offline utvärdering av effektiviteten av nya algoritmer i dessa applikationer är avgörande för att skydda användarupplevelser online men mycket utmanande på grund av deras "partiella-märkning" natur. Vanlig praxis är att skapa en simulator som simulerar online-miljön för problemet till hands och sedan köra en algoritm mot denna simulator. Att skapa själva simulatorn är dock ofta svårt och modellering av fördomar är vanligtvis oundvikligt införd. I detta dokument introducerar vi en reprismetod för kontextuell analys av banditalgoritm. Vår metod skiljer sig från simulatorbaserade tillvägagångssätt och är helt datadriven och mycket enkel att anpassa till olika tillämpningar. Ännu viktigare är att vår metod kan ge bevisligen opartiska utvärderingar. Våra empiriska resultat på en storskalig nyhetsartikel rekommendation dataset som samlats in från Yahoo! Framsidan överensstämmer väl med våra teoretiska resultat. Dessutom, jämförelser mellan vår offline replay och online hink utvärdering av flera kontextuella bandit algoritmer visar noggrannhet och effektivitet av vår offline utvärderingsmetod. | Författarna i REF föreslog att använda historiska data för objektiv offline utvärdering av nyhetsartikel rekommendation modeller genom replay och avvisande provtagning. | 744,200 | Unbiased offline evaluation of contextual-bandit-based news article recommendation algorithms | {'venue': "WSDM '11", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 8,258 |
Abstract-Det finns ett växande intresse för att utnyttja störningar (snarare än att undvika det) för att öka nätverkets genomströmning. Framför allt verkar den så kallade successiva störningsavstängningen (SIC) mycket lovande, på grund av dess förmåga att möjliggöra samtidiga mottagningar från flera sändare samt interferensavvisning. Även om SIC har studerats i stor utsträckning som en fysisk lagerteknik, är dess forskning och framsteg i samband med trådlösa nätverk med multi-hop fortfarande begränsade. I detta dokument försöker vi besvara följande grundläggande frågor. Vilka begränsningar har SIC? Hur kan man övervinna sådana begränsningar? Hur optimerar man interaktionen mellan SIC och undvikande av störningar? Hur inkorporerar man flera lager (fysiskt, länkat och nätverk) i en optimeringsram? Vi anser att enbart SIC inte är tillräckligt för att hantera störningar i ett trådlöst nätverk med flera kanaler, och förespråkar användning av gemensam SIC och undvikande av störningar. För att optimera ett gemensamt system föreslår vi ett cross-layer-optimeringssystem som innehåller variabler på fysiska, länk- och nätverkslager. Detta är det första arbetet som kombinerar successiv störningsavstängning och störningsundvikande i trådlösa multi-hop-nätverk. Vi använder numeriska resultat för att bekräfta giltigheten i vårt optimeringsramverk och ge insikter om hur SIC och undvikande av störningar kan komplettera varandra på ett optimalt sätt. Interferens betraktas allmänt som det grundläggande hindret för överföring av prestanda i trådlösa nätverk. I nätverksgemenskap är en naturlig och huvudsaklig ström metod för att hantera störningar att använda vissa system för att undvika störningar, som kan göras antingen genom deterministisk resource allokering (t.ex. TDMA, FDMA, eller CDMA) eller slumpmässiga åtkomstbaserade system (t.ex., CSMA, CSMAlCA). Kärnan i ett system för att undvika störningar är att avlägsna eventuell överlappning mellan de sändande signalerna (orsaken till störningar). Även om det är lätt att förstå och enkelt att genomföra, kan ett system för att undvika störningar i allmänhet inte erbjuda en per formance nära den teoretiska gränsen för nätverksinformation [25]. På senare tid har intresset ökat för att utnyttja interferens (snarare än att undvika den) för att öka nätgenomströmningen (se avsnitt II för relaterat arbete). I grund och botten möjliggör en sådan interference-exploateringsmetod överlappning mellan sändande signaler och förlitar sig på några avancerade avkodningssystem för att återställa störningar. I synnerhet förefaller det s.k. interferensuppsägningssystemet (SIC) mycket lovande [1], [3], [7], [9], [15], [28] och har redan dragit till sig utvecklingsinsatser från industrin (t.ex. QUALCOMM:s CSM6850 chipset för cellulär basstation [18] ). Under SIC, en mottagare försöker avkoda samtidiga signaler från flera sändare suc cessively, med början från den starkaste signalen. Om den starkaste signalen kan avkodas kommer den att subtraheras från den aggregerade signalen så att SINR (signal-till-interference-och-bruise-ratio) för de återstående signalerna kan förbättras. Sedan fortsätter SIC-mottagaren att avkoda den näst starkaste signalen och så vidare, tills alla signaler avkodas, eller upphör om signalen inte längre är decodable (se avsnitt III för mer information). Även om SIC har studerats i stor utsträckning som en fysisk lagerteknik, är dess begränsning och optimala tillämpning i samband med trådlösa multi-hop-nätverk fortfarande begränsad. I detta dokument kommer vi att försöka besvara följande grundläggande frågor. • Vilka begränsningar har SIC? Hur kan man övervinna sådana begränsningar? • Hur utvecklar man en optimeringsram för optimal interaktion mellan SIC och störningsundvikande? Hur inkorporerar man variabler från flera lager (fysiskt, länkat och nätverk) i ett sådant optimeringsramverk? Vi tar en formell optimeringsmetod för att ta itu med dessa grundläggande frågor. Vi finner att SIC:s begränsningar härrör från dess stränga begränsningar vid avkodning av flera signaler. För att kunna avkoda aggregerade signaler successivt måste en SIC-mottagare uppfylla en rad SINR-begränsningar för sina mottagna signalbefogenheter. På grund av dessa begränsningar finns det dessutom en avkodningsgräns för SIC i dess förmåga att samtidigt ta emot eller avbryta störningar. Som ett resultat, SIC ensam är otillräcklig för att hantera alla samtidiga störningar i ett trådlöst nätverk med flera användare. Det är intressant att lägga märke till att SIC:s begränsningar kan kompenseras just genom det traditionella systemet för att undvika störningar. Därför förespråkar vi gemensamt utnyttjande av störningar och undvikande av störningar, som kombinerar det bästa av båda världarna samtidigt som vi avlägsnar varandras fallgropar. Vi anser att ett sådant gemensamt tillvägagångssätt är mest effektivt när det gäller att hantera störningar i ett trådlöst multi-hop-nätverk. Även om det är lätt att förstå behovet av en sådan gemensam strategi, uppstår ett antal nya tekniska utmaningar inom ramen för ett multihopnät. Detta gäller särskilt när vår optimeringsutrymme omfattar fysiskt lager SIC, länklager schemaläggning, och nätverk lagerflöde routing. Vi tar itu med dessa nya utmaningar genom att utveckla en formell optimeringsram, med cross-layer formulering av fysisk, länk, och 978-1-4673-0775-8/12/$31.00 ©2012 IEEE 424 nätverkslager. Denna nya optimIzation ram erbjuder en holistisk design utrymme för att klämma ut mest av störningar och lägga en matematisk grund för modellering och analy sis av en gemensam störning utnyttjande och undvikande system i ett multi-hop trådlöst nätverk. Såvitt vi vet är detta den första ansträngningen i denna riktning. För att visa den praktiska nyttan av vårt optimeringsramverk genomför vi en fallstudie om maximering av nätverksgenomströmning. Våra numeriska resultat bekräftar effektiviteten i detta ramverk och ger oss insikter om hur SIC ska interagera optimalt med ett system för att undvika störningar. Resten av detta dokument är organiserat enligt följande. Avsnitt IT presenterar relaterade arbeten om interferensexploatering. Avsnitt III erbjuder en primer på SIC och illustrerar dess fördelar. I Section IV diskuterar vi några inneboende begränsningar av SIC. I avsnitt V förespråkar vi en gemensam interferensexploatering och undvikande för att övervinna dessa begränsningar. I Section VI utvecklar vi matematiska modeller för begränsningar inom ramen för ett sådant system. I avsnitt VII utvecklar vi en formell optimeringsram för gemensamt system för att undvika störningsanvändning. I Avsnitt VIII tillämpar vi vårt optimeringsramverk på en fallstudie och presenterar några numeriska resultat. Avsnitt IX avslutar detta dokument. [27], som alla syftar till att göra det möjligt för en mottagare att avkoda flera signaler samtidigt, och avvisa störningar från andra oavsiktliga sändare. En översyn nyligen av hur man tillämpar störningsavstängning för cellulära system gjordes under [1], där SIC placerades som en av de mest lovande teknikerna för att minska störningar på grund av dess enkelhet och effektivitet. Observera att den SIC som behandlas i detta dokument skiljer sig från vissa nya system för att avbryta störningar, t.ex. analog nätkodning [13] och ZigZag-avkodning [17]. Båda föreslogs för att lösa paketkollisioner, och de kräver kunskap om några bitar i ett av kollipaketen. SIC skiljer sig också från smarta antennbaserade interferens annullering system, såsom Zero-Forcing Beam Forming (ZFBF) problem, författarna anses fasta rutter i nätverket (t.ex., baserat på kortaste vägen), och därefter utvecklat en girig heuristisk schemaläggning algoritm baserad på konfliktuppsättning graf. Länkplaneringsproblem för trådlösa nätverk med SIC undersöktes också i [16], men den aggregerade interferenseffekten av den praktiska SINR-modellen övervägdes inte. I [7], Gelal et at. föreslog ett ramverk för topologikontroll för att utnyttja SIC. De studerade hur man kan dela upp ett nätverk topologi i ett minimum av sub-topologier där uppsättningen länkar i varje sub-topologi kan vara aktiv samtidigt. I [28], Weber et at. studerade asymptotisk överföringskapacitet för ett ad hoc-hopnät med SIC enligt en förenklad modell där alla signaler från sändare inom en viss radie kan avkodas med lyckat resultat. Mer realistisk SIC-modell för asymptotisk överföringskapacitet utforskades senare av Blomer och Jindal [3]. Vi noterar också ett nyligen publicerat dokument [21] [21] visar att deras SIC-system inte till fullo utnyttjade fördelarna med SIC. De betraktade bara ett enkelt nätverk med två länkar. De jämförde den kompletteringstid som krävs för att överföra ett paket på både länkar med och utan SIC. När utan SIC, de två länkarna överför data sekventiellt och slutförandet tid är summan av den tid som används på båda länkarna. Med SIC kan de två länkarna överföra data samtidigt och avslutningstiden definierades som den maximala tid som används av dessa två länkar. Vi hävdar att en sådan jämförelse inte är helt rättvis, eftersom den länk som avslutar sin överföring först kan börja överföra andra paket i stället för att vara sysslolös. Hittills är resultaten av hur man tillämpar SIC i ett multi-hop-nätverk fortfarande mycket begränsade, särskilt de resultat som bygger på ett formellt optimeringsramverk som utforskar interaktionen mellan interferensexploatering och annullering. Detta är ämnet för detta dokument. | Routing och schemaläggning med SIC i trådlösa multi-hop-nätverk har beaktats i REF. | 3,616,416 | Squeezing the most out of interference: An optimization framework for joint interference exploitation and avoidance | {'venue': '2012 Proceedings IEEE INFOCOM', 'journal': '2012 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Computer Science']} | 8,259 |
Abstract-Flooding är väl känt för att vara det "snabbaste" sättet att sprida information i hela ett nätverk (uppnå 100% täckning), på bekostnad av typiskt oacceptabelt stora meddelande vidarebefordring overhead; när overhead är kontrollerad eller begränsad, då den uppnådda täckningen minskas. En enda slumpmässig Walker (SRW) är en annan populär mekanism för informationsspridning som är mycket "slow" jämfört med översvämningar men använder mindre overhead och kan potentiellt uppnå bättre täckning än översvämningar. Den senare kan tillskrivas de bättre "sträckande" egenskaperna (förmåga att besöka ytterligare bort nätverksregioner) i SRW och är särskilt observerad om täckning definieras som den uppsättning nätnoder som är som mest L hops bort från en nätverk nod som fått informationen (notation av Lcoverage, L ≥ 0). Randomly Replicated Random Walkers (RRRWs) betraktas i detta dokument som en bred klass av information spridningsmekanismer vars medlemmar definieras av ett givet värde av (första) replikationsannolikheten; klart en SWR motsvarar RRRWs med noll (första) replikationsannolikhet, medan för värden av (första) replikationsannolikheten nära ett ett ett stort antal informationsspridande medel (RWs) genereras som liknar driften av översvämningar. Genom att överväga olika prestandamått (t.ex. den uppnådda täckningen för en viss budget för meddelandeöverföring och den tid som krävs för att spendera den tillgängliga budgeten för meddelandeöverföring), och genom att överväga olika nätverkstopologier (t.ex. Random Geometric, Erdös-Rényi och Clustered-miljöer), visar vi att klassen RRRWs kan "fylla" prestandautrymmet, mellan den prestanda som orsakas av översvämningar och SRW, vilket ger en rikare uppsättning strategier för informationsspridning som bättre kan matcha önskvärda prestandabegränsningar eller mål. | Till exempel, i REF replikerade slumpmässiga gångar strategier har studerats för olika nätverk topologier. | 17,749,307 | Study of randomly replicated random walks for information dissemination over various network topologies | {'venue': '2009 Sixth International Conference on Wireless On-Demand Network Systems and Services', 'journal': '2009 Sixth International Conference on Wireless On-Demand Network Systems and Services', 'mag_field_of_study': ['Computer Science']} | 8,260 |
Bakgrund: Behovet av att hantera stora mängder data är en tydlig efterfrågan på laboratorier idag. Användningen av Laboratory Information Management Systems (LIMS) för att uppnå detta växer varje dag. Ett LIMS är ett komplext beräkningssystem som används för att hantera laboratoriedata med betoning på kvalitetssäkring. Flera LIMS är tillgängliga för närvarande. Men de flesta av dem har egen kod och kommersialiseras med en hög kostnad. Dessutom är LIMS, på grund av sin komplexitet, vanligtvis utformade för att uppfylla behoven hos ett slags laboratorium, vilket gör det mycket svårt att återanvända ett LIMS. I detta arbete beskriver vi Sistema Integrado de Gerência de Laboratórios (SIGLa), en öppen källkod LIMS med ett nytt tillvägagångssätt som gör det möjligt för den att anpassa sin verksamhet och sina processer till olika typer av laboratorier. Resultat: SIGLa innehåller ett arbetsflödeshanteringssystem som gör det möjligt att skapa och hantera anpassade arbetsflöden. För varje nytt laboratorium definieras ett arbetsflöde med dess aktiviteter, regler och förfaranden. Under utförandet, för varje arbetsflöde som skapas, lagras värdena för attribut som definieras i en XPDL-fil (som beskriver arbetsflödet) i SIGLas databas, vilket gör det möjligt att sedan hanteras och hämtas på begäran. Dessa egenskaper ökar systemets flexibilitet och utökar dess användbarhet till att omfatta behoven hos flera typer av laboratorier. För att konstruera de viktigaste funktionerna i SIGLa definierades först ett arbetsflöde för ett proteomiskt laboratorium. För att validera SIGLas förmåga att anpassa sig till flera laboratorier studerar vi processen och behoven hos ett mikroarraylaboratorium och definierar dess arbetsflöde. Detta arbetsflöde har definierats under en period på cirka två veckor, vilket visar verktygets effektivitet och flexibilitet. Slutsatser: Med hjälp av SIGLa har det varit möjligt att konstruera en microarray LIMS på några dagar som illustrerar flexibiliteten och kraften i den föreslagna metoden. Med SIGLas utveckling hoppas vi kunna bidra positivt till hanteringen av komplexa data i laboratoriet genom att hantera de stora mängderna data, garantera att uppgifterna är enhetliga och öka laboratorieproduktiviteten. Vi hoppas också kunna göra det möjligt för laboratorier med små resurser att erbjuda ett system på hög nivå för komplex datahantering. | SIGLa (Systema Integrado de Gerência de Laboratoriós, REF) bygger på ett arbetsflödeshanteringsverktyg som gör det också anpassningsbart till flera användningsområden. | 14,392,419 | SIGLa: an adaptable LIMS for multiple laboratories | {'venue': 'BMC Genomics', 'journal': 'BMC Genomics', 'mag_field_of_study': ['Medicine', 'Computer Science']} | 8,261 |
ABSTRACT Neural stil överföring nyligen har blivit en av de mest populära ämnena inom akademisk forskning och industriell tillämpning. De befintliga metoderna kan generera syntetiska bilder genom att överföra olika stilar av vissa bilder till en annan given innehållsbild, men de fokuserar främst på att lära sig låg nivå funktioner av bilder med förlust av innehåll och stil, vilket leder till att kraftigt ändra den framträdande informationen av innehållsbilder i den semantiska nivån. I detta dokument föreslås ett förbättrat system för att bevara de framträdande regionerna i den överförda bilden på samma sätt som i fråga om innehållsbilden. Genom att lägga till regionförlusten som beräknats från ett lokaliseringsnätverk, kan den syntetiska bilden nästan hålla de viktigaste regionerna i linje med den ursprungliga innehållsbilden, vilket hjälper till för Saliency-baserade uppgifter såsom objekt lokalisering och klassificering. Dessutom är den överförda effekten mer naturlig och attraktiv, undvika enkel textur överlagring av stilen bilden. Dessutom kan vårt system även fortsätta att vara annan semantisk information (såsom form, kant och färg) av bilden med motsvarande skattningsnätverk. INDEX TERMS Neural stil överföring, bild semantisk, framträdande region, lokalisering nätverk, region förlust. | För att bevara de iögonfallande regionerna i stil och innehåll bilder, författarna antar en localization nätverk för att beräkna regionen förlust från SqueezeNet nätverket REF. | 67,906,583 | Image Neural Style Transfer With Preserving the Salient Regions | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 8,262 |
Abstract-Blockchain teknologier, såsom smarta kontrakt, presenterar ett unikt gränssnitt för maskin-till-maskin kommunikation som ger en säker, append-only rekord som kan delas utan förtroende och utan en central administratör. Vi studerar möjligheterna och begränsningarna med att använda smarta kontrakt för maskin-till-maskin-kommunikation genom att designa, implementera och utvärdera AGasP, en applikation för automatiserade bensinköp. Vi finner att med hjälp av smarta kontrakt kan vi direkt ta itu med de utmaningar som öppenhet, livslängd och förtroende för IoT-tillämpningar. Verkliga tillämpningar som använder smarta kontrakt måste dock ta itu med sina viktiga kompromisser, såsom prestanda, integritet och utmaningen att se till att de skrivs korrekt. | Nyligen, Hanada et al. I REF utforskades potentialen hos smarta kontrakt för maskin-till-maskin-kommunikation (M2M). | 46,930,435 | Smart Contracts for Machine-to-Machine Communication: Possibilities and Limitations | {'venue': '2018 IEEE International Conference on Internet of Things and Intelligence System (IOTAIS)', 'journal': '2018 IEEE International Conference on Internet of Things and Intelligence System (IOTAIS)', 'mag_field_of_study': ['Computer Science']} | 8,263 |
Detta papper strävar efter spatio-temporal lokalisering av mänskliga handlingar i videor. I litteraturen är samförståndet att uppnå lokalisering genom utbildning i att avgränsa boxanteckningar som tillhandahålls för varje ram av varje träningsvideo. Eftersom noteringsrutor i video är dyra, besvärliga och felbenägna, föreslår vi att kringgå box-supervision. Istället inför vi handlingslokalisering baserad på punkt-övervakning. Vi utgår från oövervakade spatio-temporella förslag, som ger en uppsättning kandidatregioner i videor. Medan normalt används uteslutande för slutledning, visar vi spatio-temporala förslag kan också utnyttjas under utbildningen när vägledas av en gles uppsättning punkt annoteringar. Vi inför en överlappning åtgärd mellan punkter och spatio-temporella förslag och införliva dem alla i ett nytt mål för en fler instans lärande optimering. Under inferensen introducerar vi pseudo-punkter, visuella signaler från videor, som automatiskt styr valet av spatio-temporala förslag. Vi beskriver fem rumsliga och en temporal pseudo-punkt, samt en åtgärd för att bäst utnyttja pseudo-punkter vid testtillfället. Experimentell utvärdering av tre åtgärder lokaliseringsdata visar vår punkt-övervakade metod (1) är lika effektiv som traditionell box-övervakning till en bråkdel av notationskostnaden, (2) är robust för att glesa och bullriga punkt annoteringar, (3) drar nytta av pseudo-punkter under inferens, och (4) överträffar nyligen svagt övervakade alternativ. Detta leder oss till slutsatsen att punkter utgör ett genomförbart alternativ till rutor för handlingslokalisering. | Mettes m.fl. REF börjar från MIL med spatio-temporella förslag och lägger till manuell punktövervakning för att vägleda valet av förslag under utbildningen. | 44,063,701 | Pointly-Supervised Action Localization | {'venue': 'International Journal of Computer Vision', 'journal': 'International Journal of Computer Vision', 'mag_field_of_study': ['Computer Science']} | 8,264 |
Miljöövervakning i kolgruvor är en viktig tillämpning av trådlösa sensornätverk som har kommersiell potential. Vi diskuterar designen av en Structure-Aware Self-Adaptive WSN system, SASA. Genom att reglera utbyggnaden av mesh-sensornätet och utforma en samarbetsmekanism baserad på en regelbunden beacon-strategi kan SASA snabbt upptäcka strukturvariationer som orsakas av underjordiska kollapser. Vi utvecklar vidare en sund och robust mekanism för effektiv hantering av frågor under ostabila omständigheter. En prototyp är utplacerad med 27 mica2 motor i en riktig kolgruva. Vi presenterar våra implementeringserfarenheter samt de experimentella resultaten. För att bättre utvärdera skalbarheten och tillförlitligheten hos SASA genomför vi också en storskalig spårdriven simulering baserad på verkliga data som samlats in från experimenten. | Li och Liu presenterar SASA REF, ett struktur-aware Självadaptiv trådlös sensor nätverk, för underjordisk övervakning i kolgruvor. | 7,525,594 | Underground coal mine monitoring with wireless sensor networks | {'venue': 'TOSN', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,265 |
Grafikbehandlingsenheter (GPU) använder stora registerfiler för att rymma alla aktiva trådar och påskynda sammanhangsbyte. Tyvärr, registerfiler är en skalbarhet flaskhals för framtida GPU på grund av lång tillgång latency, hög strömförbrukning, och stora kisel område avsättning. Tidigare arbete föreslår hierarkisk registerfil, att minska registret fil strömförbrukning genom caching register i en mindre registerfil cache. Tyvärr förbättrar detta tillvägagångssätt inte registeråtkomstlatensen på grund av den låga träfffrekvensen i registrets filcache. I detta dokument föreslår vi arkitekturen Latency-Tolerant Register File (LTRF) för att uppnå låg latens i en hierarkisk struktur på två nivåer samtidigt som strömförbrukningen hålls låg. Vi observerar att kompilering-tid intervallanalys gör det möjligt för oss att dela GPU-program utförande i intervaller med en korrekt uppskattning av en warps aggregatregister arbetar-set inom varje intervall. Nyckelidén med LTRF är att förmontera det uppskattade registrets arbetsuppsättning från huvudregisterfilen till registerfilens cache under programvarukontroll, i början av varje intervall, och överlappa latensen med utförandet av andra warps. Våra experimentella resultat visar att LTRF möjliggör hög kapacitet men ändå lång-latency huvudsakliga GPU-registerfiler, banar väg för olika optimeringar. Som ett exempel optimering, vi implementerar den huvudsakliga registret fil med framväxande hög densitet hög-latens minne teknik, möjliggör 8× större kapacitet och förbättra den totala GPU prestanda med 31% samtidigt minska registret fil strömförbrukning med 46%. | Sadrosadati m.fl. I REF föreslås en hierarkisk registerstruktur på två nivåer för att minska den långa fördröjningen och den höga strömförbrukningen av registerfiler genom att föranmäla registrets arbetsuppsättning. | 3,967,196 | LTRF: Enabling High-Capacity Register Files for GPUs via Hardware/Software Cooperative Register Prefetching | {'venue': "ASPLOS '18", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,266 |
Twitter har utvecklats från att vara en konversation eller åsiktsdelning mellan vänner till en plattform för att dela och sprida information om aktuella händelser. Händelser i den verkliga världen skapar en motsvarande sporre av inlägg (tweets) på Twitter. Allt innehåll som publiceras på Twitter är inte tillförlitligt eller användbart när det gäller att ge information om evenemanget. I den här artikeln analyserade vi trovärdigheten hos information i tweets motsvarande fjorton nyheter med hög effekt 2011 runt om i världen. Från de data vi analyserade, i genomsnitt 30% av de totala tweets postade om en händelse innehöll situationsinformation om händelsen medan 14% var spam. Endast 17% av de totala tweets postade om händelsen innehöll situationsmedvetenhet information som var trovärdig. Med hjälp av regressionsanalys identifierade vi det viktiga innehållet och källbaserade funktioner, som kan förutsäga trovärdigheten av information i en tweet. Framträdande innehållsbaserade funktioner var antal unika tecken, svärord, pronomen och smilisar i en tweet, och användarbaserade funktioner som antal följare och längd på användarnamn. Vi antog en övervakad maskininlärning och relevans återkoppling metod med hjälp av ovanstående funktioner, att ranka tweets enligt deras trovärdighet poäng. Prestandan hos vår rankningsalgoritm förbättrades avsevärt när vi tillämpade en ny rankningsstrategi. Resultaten visar att utvinning av trovärdig information från Twitter kan automatiseras med stort förtroende. | Aditi el al. (Första avdelningen) REF analyserade tillförlitligheten av information i tweets och antog en övervakad maskininlärning och relevans återkoppling för att rangordna tweets efter deras pålitlighet. | 207,194,105 | Credibility ranking of tweets during high impact events | {'venue': "PSOSM '12", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,267 |
ABSTRACT Trådlösa sensornätverk (WSN) har i stor utsträckning tillämpats i olika industriella tillämpningar, vilket innebär att samla in en massiv mängd heterogen sensoriska data. De flesta datainsamlingsstrategierna för WSN kan dock inte undvika problem med hotspot i det lokala eller hela utplaceringsområdet. Hotspot-problemet påverkar nätverksanslutningen och minskar nätverkets livslängd. Därför föreslår vi en träd-kluster-baserad data-samlande algoritm (TCBDGA) för WSNs med en mobil diskho. En ny viktbaserad trädbyggnadsmetod införs. De konstruerade trädens rotnoder definieras som mötesplatser (RP). Dessutom, några speciella noder som kallas subrendezvous punkter (SRP) väljs efter deras trafik belastning och humle till rot noder. RPs och SRPs ses som stopppunkter i den mobila diskbänken för datainsamling, och kan omväljas efter en viss period. Simuleringen och jämförelsen med andra algoritmer visar att vår TCBDGA avsevärt kan balansera hela nätets belastning, minska energiförbrukningen, lindra hotspot-problemet och förlänga nätverkets livslängd. INDEX TERMS Datainsamlingssystem, kluster, mobilsänka, trådlösa sensornätverk. | Med tanke på robustheten i klustermetoden tillämpade författarna REF en enda mobil diskho för att härleda en träd-kluster-baserad data-samla över WSN. | 3,504,717 | A Tree-Cluster-Based Data-Gathering Algorithm for Industrial WSNs With a Mobile Sink | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 8,269 |
Vi presenterar en klass av effektiva modeller som heter MobileNets för mobila och inbyggda visionsapplikationer. MobileNets är baserade på en strömlinjeformad arkitektur som använder djupvis separerbara konvolutioner för att bygga lätta djupa neurala nätverk. Vi introducerar två enkla globala hyperparametrar som effektivt växlar mellan latens och noggrannhet. Dessa hyper-parametrar gör det möjligt för modellbyggaren att välja rätt storlek modell för deras tillämpning baserat på begränsningarna i problemet. Vi presenterar omfattande experiment på resurs och noggrannhet kompromisser och visar stark prestanda jämfört med andra populära modeller på ImageNet klassificering. Vi visar därefter effektiviteten av MobileNets över ett brett spektrum av applikationer och användningsfall inklusive objektdetektion, finkornig klassificering, ansiktsattribut och storskalig geo-localization. | Baserat på djupvis separable convolutions, MobileNets REF ) bygger lätta djupa neurala nätverk och uppnår en bra avvägning mellan resurs och noggrannhet. | 12,670,695 | MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 8,270 |
Val av en representativ uppsättning funktioner är fortfarande ett avgörande och utmanande problem i maskininlärning. Problemets komplexitet ökar när någon av följande situationer inträffar: ett mycket stort antal attribut (stor dimensionalitet), ett mycket litet antal instanser eller tidspunkter (liten infallsvinkel). Den första situationen skapar problem för maskininlärning algoritm eftersom sökytan för att välja en kombination av relevanta funktioner blir omöjligt att utforska i en rimlig tid och med rimliga beräkningsresurser. Den andra aspekten innebär att det inte finns tillräckligt med uppgifter att lära av (otillräckliga exempel). I detta arbete behandlar vi båda dessa frågor samtidigt. De metoder vi föreslår är heuristiker inspirerade av naturen (särskilt av biologi). Vi föreslår en hybrid av två metoder som har fördelen att ge ett bra lärande från färre exempel och ett rättvist urval av funktioner från en riktigt stor uppsättning, alla dessa samtidigt säkerställa en hög standard klassificering noggrannhet av data. De metoder som används är antlionoptimering (ALO), grå vargoptimering (GWO), och en kombination av de två (ALO-GWO). Vi testar deras prestanda på dataset med nästan 50 000 funktioner och mindre än 200 instanser. Resultaten ser lovande ut jämfört med andra metoder som genetiska algoritmer (GA) och partikelsvärmoptimering (PSO). (H.M. Zawbaa). försök med ett djur under ett antal år) [2]. Detta avgör vissa datauppsättningar att ha färre instanser. Vi hänvisar till denna aspekt som en "small-instance set". Inom maskininlärning är val av funktion ett av de mest studerade problemen. Det finns en stor mängd arbete som handlar antingen om högdimensionella problem med urval av funktioner eller med småinstanser som problem. Det är mycket mer komplicerat och utmanande att ta itu med båda dessa aspekter samtidigt och detta av två skäl: sökytan blir för stor för att man ska kunna utforska varje stat och det lilla antalet fall ger inte tillräckligt med exempel för att man ska kunna dra lärdom av Ref. Kommissionens genomförandeförordning (EU) nr 668/2014 av den 13 juni 2014 om tillämpningsföreskrifter för Europaparlamentets och rådets förordning (EU) nr 1151/2012 om kvalitetsordningar för jordbruksprodukter och livsmedel (EUT L 179, 19.6.2014, s. 1). Evolutionär dator (EC) och populationsbaserade algoritmer söker adaptivt funktionsutrymmet genom att använda en uppsättning sökagenter som interagerar på ett socialt sätt för att nå den optimala lösningen [4, 5]. EG-metoder är inspirerade av djurens sociala och biologiska beteende i naturen som vargar, antlioner, trollsländor, spindlar och så vidare, i en grupp [6]. | Zawabaa m.fl. REF har presenterat en hybridbioinspirerad heuristisk algoritm som kombinerar Ant-Lion Optimization (ALO) och Grey Wolf Optimization (GWO) algoritmer för funktionsval. | 52,295,786 | Large-dimensionality small-instance set feature selection: A hybrid bio-inspired heuristic approach | {'venue': 'Swarm Evol. Comput.', 'journal': 'Swarm Evol. Comput.', 'mag_field_of_study': ['Computer Science']} | 8,271 |
I detta dokument studerar vi problemet med teknikkartläggning för en ny FPGA-arkitektur som bygger på k-input single-output PLA-liknande celler, eller k/m-makroceller. Varje cell i denna arkitektur kan implementera en enda utdatafunktion på upp till k ingångar och upp till m produkttermer. Vi utvecklar en mycket effektiv teknikkartläggningsalgoritm, k m flöde, för denna nya typ av arkitektur. Experimentresultaten visar att vår algoritm kan uppnå djupoptimalitet i praktiskt taget alla fall. Dessutom har det visat sig att de k/m-makrocellbaserade FPGA är praktiskt taget likvärdiga med de traditionella k-LUT-baserade FPGA med endast ett relativt litet antal produkttermer (m~+3). Vi undersöker också den totala arean och fördröjningen av k/m-makrocellbaserade FPGA på olika riktmärken för att jämföra den med vanliga 4-LUT-baserade FPGA. Det experimentella resultatet visar att k/m-makrocellbaserade FPGA kan överträffa 4-LUT-baserade FPGA både vad gäller fördröjning och area efter placering och routing av VPR. | I REF presenterades en teknikkartläggningsalgoritm för enheter med -inmatning makroceller med en utgång. | 247,612 | Technology mapping for k/m-macrocell based FPGAs | {'venue': "FPGA '00", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,272 |
Abstract-Recent expansioner av Internet-of-Things (IoT) tillämpa molndata har ökat i en fenomenal takt. Som en av utvecklingarna har heterogena molntjänster möjliggjort en mängd olika molnbaserade infrastrukturlösningar, såsom multimedia big data. Många tidigare undersökningar har utforskat optimeringar av heterogena minnen. De heterogena molnminnena står dock inför begränsningar på grund av prestandabegränsningar och kostnadsproblem som orsakas av hårdvarudistributioner och manipulativa mekanismer. Att tilldela datauppgifter till distribuerade minnen med olika kapaciteter är ett kombinatoriskt NP-hård problem. Detta dokument fokuserar på denna fråga och föreslår ett nytt tillvägagångssätt, Cost-Aware Heterogenous Cloud Memory Model (CAHCM), som syftar till att tillhandahålla en högpresterande molnbaserad heterogen minnestjänst. Den viktigaste algoritmen som stöder CAHCM är Dynamic Data Allocation Advance (2DA) Algoritm som använder genetisk programmering för att bestämma datatilldelningen på molnbaserade minnen. I vårt föreslagna tillvägagångssätt överväger vi en rad avgörande faktorer som påverkar molnminnenas prestanda, såsom kommunikationskostnader, dataflyttningskostnader, energiprestanda och tidsbegränsningar. Slutligen genomför vi experimentella utvärderingar för att undersöka vår föreslagna modell. De experimentella resultaten har visat att vår strategi är användbar och genomförbar för att vara en kostnadsmedveten molnbaserad lösning. | Gai m.fl. REF presenterade en kostnadsmedveten heterogen molnminnesmodell för att tillhandahålla minnestjänster och beaktad energiprestanda. | 28,029,619 | Cost-Aware Multimedia Data Allocation for Heterogeneous Memory Using Genetic Algorithm in Cloud Computing | {'venue': None, 'journal': 'IEEE Transactions on Cloud Computing', 'mag_field_of_study': ['Computer Science']} | 8,273 |
Sammanfattning av denna webbsida: Att använda sig av ett multihopa akustiskt sensornätverk under vatten (UASN) i ett stort område medför nya utmaningar när det gäller tillförlitliga dataöverföringar och nätverkets överlevnadsförmåga på grund av det begränsade undervattenskommunikationsområdet/bandbredden och den begränsade energin från undervattenssensornoder. För att ta itu med dessa utmaningar och uppnå målen för maximering av data leverans ratio och minimering av energiförbrukning av undervattenssensor noder, föreslår detta dokument en ny undervattens routing system, nämligen AURP (AUV-stödd undervattens routing protokoll), som använder inte bara heterogen akustiska kommunikationskanaler men också kontrollerad rörlighet av flera autonoma undervattensfordon (AUVs). I AURP, de totala dataöverföringarna minimeras genom att använda AUVs som relänoder, som samlar in avkännade data från gateway noder och sedan vidare till diskhon. Dessutom gör kontrollerad rörlighet av AUVs det möjligt att tillämpa en kortdistans hög datahastighet undervattenskanal för överföringar av en stor mängd data. Till det bästa vi vet är detta arbete det första försöket att använda flera AUVs som relänoder i en multi-hop UASN för att förbättra nätverkets prestanda i fråga om dataleverans förhållande och energiförbrukning. Simuleringar, som är införlivade med en realistisk akustikkanalmodell för undervattenskommunikation, utförs för att utvärdera det föreslagna systemets prestanda, och resultaten visar att en hög leveranskvot och låg energiförbrukning kan uppnås. | Ett annat relevant protokoll är det Medhjälpta Routing Protocol (AURP) REF, som tar emot paket från flera gateway noder. | 2,506,930 | AURP: An AUV-Aided Underwater Routing Protocol for Underwater Acoustic Sensor Networks | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']} | 8,274 |
Abstrakt. Vi presenterar en ny Compact Trip Representation (CTR) som gör att vi kan hantera användarnas resor (flytta objekt) över nätverk. Dessa kan vara allmänna transportnät (bussar, tunnelbana, tåg och så vidare) där noder är stationer eller hållplatser, eller vägnät där noder är korsningar. CTR representerar sekvenser av noder och tid ögonblick i användarnas resor. Den rumsliga komponenten hanteras med en datastruktur baserad på den välkända Compressed Suffix Array (CSA), som ger både en kompakt representation och intressanta indexeringsmöjligheter. Vi representerar också temporal komponenten av resor, det vill säga den tid ögonblick när användare besöker noder i sina resor. Vi skapar en sekvens med dessa tidsögonblick, som sedan är självindexerade med en balanserad Wavelet Matrix (WM). Detta ger oss möjlighet att lösa område-interval frågor på ett effektivt sätt. Vi visar hur CTR kan lösa relevanta rumsliga och spatio-temporala frågor över stora uppsättningar av banor. Slutligen ger vi också experimentella resultat för att visa utrymmeskrav och frågeeffektivitet för CTR. | Å andra sidan stöder CTR REF banor som begränsas till nätverk genom att kombinera komprimerade suffix matriser (CSA), för att representera noderna på nätverket ett objekt passerar igenom, och en balanserad Wavelet matris för temporal komponent i rörelsen. | 7,166,970 | Compact Trip Representation over Networks | {'venue': '23rd International Symposium, SPIRE 2016, Beppu, Japan, October 18-20, 2016, Proceedings pp 240-253', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,275 |
Kryptera data innan du skickar den till molnet skyddar den mot angripare, men kräver att molnet beräknar på krypterad data. Tillförlitliga moduler, såsom SGX enklaver, lovar att tillhandahålla en säker miljö där data kan dekrypteras och sedan bearbetas. Dock sårbarheter i det exekverade programmet, som blir en del av den betrodda kodbasen (TCB), ger angripare gott om möjlighet att köra godtycklig kod inne i enklaven. Denna kod kan ändra dataflödet av programmet och läcka hemligheter via SGX sidokanaler. Eftersom en större kodbas är full av sårbarheter, är det ingen bra idé att outsourca hela program till SGX enklaver. Ett säkert alternativ som enbart bygger på kryptografi skulle vara helt homomorfisk kryptering. På grund av dess höga beräkningskomplexitet är det dock osannolikt att den kommer att antas inom en nära framtid. Forskare har gjort flera förslag för att omvandla program för att utföra krypterade beräkningar på mindre kraftfulla krypteringssystem. Men nuvarande strategier stöder inte program som gör kontroll-flöde beslut baserade på krypterade data. Vi introducerar begreppet dataflow autentisering (DFAuth) för att möjliggöra sådana program. DFAuth hindrar en motståndare från att godtyckligt avvika från dataflödet av ett program. Vår teknik erbjuder därför skydd mot de sidokanalsattacker som beskrivs ovan. Vi implementerade DFAuth med hjälp av en ny autentiserad homomorphic krypteringsschema, en Java bytecode-tobytecode kompilator som producerar fullt körbara program, och en SGX enklave kör en liten och programoberoende TCB. Vi applicerade DFAuth på ett existerande neuralt nätverk som utför maskininlärning på känsliga medicinska data. Omvandlingen ger ett neuralt nätverk med krypterade vikter, som kan utvärderas på krypterade ingångar i 0,86 s. | Senaste arbete REF, föreslagna dataflöde autentisering kontroll med hjälp av homomorfisk kryptering och SGX enklaver som hindrar en motståndare från att ändra programmet. | 23,745,951 | Computation on Encrypted Data using Dataflow Authentication | {'venue': None, 'journal': 'Proceedings on Privacy Enhancing Technologies', 'mag_field_of_study': ['Computer Science']} | 8,276 |
Vi föreslår en allmän algoritmisk ram för begränsad matris och tensor factorization, som ofta används i signalbehandling och maskininlärning. Det nya ramverket är en hybrid mellan alternerande optimering (AO) och den alternerande riktningsmetoden för multiplikatorer (ADMM): varje matrisfaktor uppdateras i sin tur, med ADMM, därav namnet AO-ADMM. Denna kombination kan naturligt tillgodose en stor variation av begränsningar på faktorn matriser, och nästan alla möjliga förlust åtgärder för monteringen. Beräkning caching och varmstart strategier används för att säkerställa att varje uppdatering utvärderas effektivt, medan den yttre AO ramverket utnyttjar den senaste utvecklingen i block koordinat nedstigning (BCD)-typ metoder som bidrar till att säkerställa att varje gränspunkt är en stationär punkt, samt snabbare och mer robust konvergens i praktiken. Tre specialfall studeras i detalj: icke-negativ matris / tensor faktorisering, begränsad matris / tensor avslutning, och ordbok lärande. Omfattande simuleringar och experiment med verkliga data används för att visa på effektiviteten och den breda tillämpligheten av det föreslagna ramverket. | En hybrid omväxlande optimering och ADMM metod föreslogs för NMF, liksom tensor factorization, under en mängd olika begränsningar och förlust åtgärder i REF. | 7,878,388 | A Flexible and Efficient Algorithmic Framework for Constrained Matrix and Tensor Factorization | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 8,277 |
Ett team bestående av ett okänt antal mobila agenter, från olika noder i ett okänt nätverk, måste träffas på samma nod och avslutas. Detta problem kallas samlag. Vi studerar deterministiska samla algoritmer under antagandet att agenter är föremål för krasch fel som kan uppstå när som helst. Två felscenarier övervägs. Ett rörelsefel immobiliserar agenten vid en nod eller inuti en kant men lämnar dess minne intakt vid den tidpunkt då felet inträffade. Ett allvarligare totalt fel immobiliserar också agenten, men raderar också hela minnet. Vi kan naturligtvis inte kräva att felaktiga agenter samlas. Således samlar problemet för fel benägna agenter kräver att alla felfria agenter att samlas på en enda nod, och avsluta. När agenter rör sig helt asynkront, samla med krasch fel av någon typ är omöjligt. Därför anser vi att en begränsad version av asynkrony, där varje agent tilldelas av motståndaren en fast hastighet, möjligen olika för varje agent. Agenter har klockor som tickar i samma takt. Varje agent kan vänta på en tidpunkt av sitt val på någon nod, eller besluta att korsa en kant men sedan rör sig med konstant hastighet tilldelas den. Dessutom har agenter olika etiketter. Varje agent vet sin etikett och hastighet men inte andra agenters. Vi konstruerar en samlingsalgoritm som arbetar för ett team av minst två agenter i scenariot rörelsefel, och en samlingsalgoritm som arbetar i närvaro av totala fel, förutsatt att minst två agenter är felfria hela tiden. Om bara en agent är felfri, är uppgiften att samla med totala fel ibland omöjlig. Båda våra algoritmer arbetar i tid polynom i storleken på grafen, i logaritmen av den största etiketten, i omvänt av den minsta hastigheten, och i förhållandet mellan den största och den minsta hastigheten. | Pelc REF övervägde att samla problem med krasch fel under en svag synkronisering modell. | 10,478,373 | Deterministic Gathering with Crash Faults | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 8,278 |
Sammanfattning av denna webbsida: En hög grad av tillförlitlighet för kritisk dataöverföring krävs i kroppssensornätverk (BSN). BSN är dock oftast sårbara för kanalförsämringar på grund av kroppens bleknande effekt och RF-interferens, vilket potentiellt kan leda till att dataöverföringen är otillförlitlig. I detta dokument föreslås ett adaptivt och flexibelt system för feltolerant kommunikation för BSN, nämligen AFTCS. AFTCS antar en kanal bandbredd reservation strategi för att ge tillförlitlig dataöverföring när kanal försämringar uppstår. För att uppfylla kraven på tillförlitlighet hos kritiska sensorer används feltolerant prioritet och kö för att anpassa fördelning av kanalbandbredd. Simuleringsresultat visar att AFTCS kan lindra effekten av kanalnedsättningar, samtidigt som det ger lägre paketförlust och latens för kritiska sensorer vid körtid. | Referensreferensreferensreferensen presenterar ett adaptivt och flexibelt feltolerant kommunikationssystem för BSNs att uppfylla tillförlitlighetskraven för kritiska sensorer genom en kanal bandbredd reservation strategi baserat på feltolerant prioritet och kö. | 1,318,000 | An Adaptive Fault-Tolerant Communication Scheme for Body Sensor Networks | {'venue': 'Sensors, 2010(10): 9590-9608', 'journal': None, 'mag_field_of_study': ['Engineering', 'Computer Science', 'Medicine']} | 8,279 |
Abstract Geotermisk värmeflöde (GHF) är en avgörande gräns villkor för att göra exakta förutsägelser av istäckets massförlust, men det är dåligt känt på Grönland på grund av otillgänglighet av berggrunden. Här använder vi en maskininlärningsalgoritm på en stor samling relevanta geologiska funktioner och globala GHF-mätningar och producerar en GHF-karta över Grönland som vi hävdar ligger inom 15% noggrannhet. Huvuddragen i vår förutsagda GHF-karta är en stor region med hög GHF på centrala norra Grönland som omger NordGRIP:s iskärna och heta fläckar i Jakobshavn Isbraes avrinningsområde, uppströms Petermann Gletscher, och nära Nioghalvfjerdsfjordens ändpunkt. Vår modell fångar också banan av Grönlands rörelse över den isländska plymen genom att förutsäga en rand av förhöjda GHF på centrala-östra Grönland. Slutligen visar vi att vår modell kan ge betydligt mer exakta förutsägelser om ytterligare mätningar av GHF på Grönland tillhandahålls. Den värme som alstras i jordens inre områden (geotermiskt värmeflöde, GHF) kan vara tillräckligt hög för att smälta bottenlagren av istäcken, minska friktionen mellan is och berggrund, och öka isutsläppen till havet. Denna värme kan dock inte mätas direkt i istäcken eftersom berggrunden är otillgänglig. Här presenterar vi en ny metod för att uppskatta denna värme. Vi kombinerar alla tillgängliga geologiska, tektoniska och GHF-data som finns tillgängliga på alla kontinenter. Vi etablerar sedan ett komplext förhållande mellan GHF och alla geologiska-tektoniska funktioner med hjälp av maskininlärningsteknik och förutsäger sedan GHF för Grönlands Ice Sheet. Vi använder all information från tillgängliga iskärnor och berggrundsborrhål för att förbättra GHF-prognosen på Grönland. Därför hedrar den nya GHF-kartan tektoniska inställningar, regional geologi och mätningar från iskärnor och kan användas som en viktig indataparameter till numeriska istäckesmodeller som syftar till att minska osäkerheten i framtida prognoser för havsnivån. | Förutsägelse av Grönlands geotermiska värmeflöde undersöks med hjälp av maskininlärning i artikeln REF. | 133,918,754 | Predicting the geothermal heat flux in Greenland: a Machine Learning approach | {'venue': None, 'journal': 'Geophysical Research Letters', 'mag_field_of_study': ['Geology']} | 8,280 |
Abstract-Samexistens av flera radioaccess teknik (RATs) är ett lovande paradigm för att förbättra spektral effektivitet. Detta brev presenterar ett spel-teoretiskt nätverksval i en kognitiv heterogen nätverksmiljö med tidsvarierande kanaltillgänglighet. Vi formulerar problemet med nätverksval som ett icke-kooperativt spel med sekundära användare (SUs) som spelare, och visar att spelet är ett ordinalt potentiellt spel (OPG). En decentraliserad, stokastisk inlärningsbaserad algoritm föreslås där varje SU: s strategi gradvis utvecklas mot Nash jämvikt (NE) baserat på sin egen handlingsersättning historia, utan att behöva veta åtgärder i andra SU:er. Konvergensegenskaperna hos den föreslagna algoritmen mot en NE-punkt är teoretiskt och numeriskt verifierade. Den föreslagna algoritmen visar goda genomströmnings- och rättvisa resultat i olika nätverksscenarier. | Slutligen nämner vi spelet i REF, som är ett ordinärt potentiellt spel, kombinerat med en decentraliserad stokastisk lärande-baserad algoritm som tillåter varje kognitiv BS att gradvis utveckla sin strategi mot en Nash jämvikt. | 9,601,204 | Network Selection in Cognitive Heterogeneous Networks Using Stochastic Learning | {'venue': 'IEEE Communications Letters', 'journal': 'IEEE Communications Letters', 'mag_field_of_study': ['Computer Science']} | 8,281 |
Abstract-Den höga kostnaden för att skada en dyr robot eller skada människor eller utrustning i sin miljö gör även sällsynta fel oacceptabla i många mobila robotapplikationer. Ofta är de objekt som utgör den största risken för en mobil robot de som inte var närvarande under tidigare framgångsrika traversaler av en miljö. Förändringsdetektering, ett närbesläktat problem med nyhetsdetektering, är därför av stor betydelse för många mobila robotapplikationer som kräver att en robot fungerar upprepade gånger i samma miljö. Vi presenterar en ny algoritm för att utföra online förändringsdetektering baserat på ett tidigare utvecklat robust online-nyhetsdetekteringssystem som använder en inlärd lägre-dimensionell representation av funktionen utrymme för att utföra åtgärder av likhet. Sedan ytterligare förbättra denna förändring detektion system genom att införliva online scen segmentering för att bättre utnyttja kontextuell information i miljön. Vi validerar dessa tillvägagångssätt genom omfattande experiment ombord på en stor utomhus mobil robot. Våra resultat visar att våra metoder är robusta mot bullriga sensordata och måttliga registreringsfel och bibehåller deras prestanda i olika naturliga miljöer och förhållanden. | Automatiserad förändringsdetekteringsmetod är också viktig i många mobila robotapplikationer REF. | 1,703,023 | Segmentation-based online change detection for mobile robots | {'venue': '2011 IEEE International Conference on Robotics and Automation', 'journal': '2011 IEEE International Conference on Robotics and Automation', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 8,282 |
Abstract Frekvent mönsterbrytning har varit ett fokuserat tema inom datautvinningsforskning i över ett decennium. Stor litteratur har ägnats åt denna forskning och enorma framsteg har gjorts, allt från effektiva och skalbara algoritmer för frekventa itemet mining i transaktionsdatabaser till många forskningsgränser, såsom sekventiell mönsterbrytning, strukturerad mönsterbrytning, korrelationsbrytning, associativ klassificering och frekvent mönsterbaserad klusterbildning samt deras breda tillämpningar. I den här artikeln ger vi en kort översikt över den aktuella situationen för frekventa mönsterbrytningar och diskuterar några lovande forskningsriktningar. Vi anser att ofta förekommande gruvforskningsmönster har breddat omfattningen av dataanalys och kommer att ha stor inverkan på datautvinningsmetoder och tillämpningar på lång sikt. Det finns dock fortfarande en del utmanande forskningsfrågor som måste lösas innan frekventa mönsterbrytningar kan göra anspråk på en hörnsten i datautvinningstillämpningar. | Frekvent itemset mining REF är ett viktigt forskningsområde inom data mining. | 8,085,527 | Frequent pattern mining: current status and future directions | {'venue': 'Data Mining and Knowledge Discovery', 'journal': 'Data Mining and Knowledge Discovery', 'mag_field_of_study': ['Computer Science']} | 8,283 |
Abstract-Parameterized verifiering av parameteriserade protokoll som cache koherens protokoll är ett viktigt men svårt problem. Vårt verktyg paraVerifier hanterar detta svåra problem i en enhetlig ram: (1) det upptäcker automatiskt hjälpinvarianter och motsvarande orsakssamband från en liten referens instans av det verifierade protokollet; (2) ovanstående invarianter och orsakssamband information generaliseras automatiskt till en parameteriserad form för att konstruera en parameteriserad formell bevis i en teorem bevis (t.ex., Isabelle). Vår metod tillämpas framgångsrikt på typiska riktmärken inklusive snooping och katalog cache konsekvent protokoll riktmärken. Korrektheten i dessa protokoll garanteras av ett formellt och läsbart bevis som genereras automatiskt. Det notoriskt hårda FLASH-protokollet, som är i industriell skala, är också verifierat. | Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. föreslog en metod för att automatiskt generera extra invarianter från en liten referens instans av protokoll och konstruera en parameteriserad formell bevis i Theorem bevis Isabelle REF. | 11,979,645 | A novel approach to parameterized verification of cache coherence protocols | {'venue': '2016 IEEE 34th International Conference on Computer Design (ICCD)', 'journal': '2016 IEEE 34th International Conference on Computer Design (ICCD)', 'mag_field_of_study': ['Computer Science']} | 8,284 |
Koncernens nyckelhantering är en av de grundläggande byggstenarna i samarbets- och grupporienterade applikationer i Mobile Ad Hoc Networks (MANETS). Gruppnyckel etablering innebär att skapa och distribuera en gemensam hemlighet för alla gruppmedlemmar. Nyckelhantering för en stor och dynamisk grupp är dock ett svårt problem på grund av skalbarhet och säkerhet. Ändring av medlemskap kräver att gruppnyckeln uppdateras för att säkerställa bakåt och framåt sekretess. I detta dokument föreslår vi ett enkelt och effektivt förvaltningssystem för gruppnyckel (SEGK) för MANETS. Gruppmedlemmarna beräknar gruppnyckeln på ett distribuerat sätt. | I Simple and Efficient Group Key (SEGK) management system för MANETS föreslås i REF gruppmedlemmar beräkna gruppnyckeln på ett distribuerat sätt. | 8,824,263 | An efficient group key management scheme for mobile ad hoc networks | {'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,285 |
Enstaka-ISA heterogena flerkärniga processorer består vanligtvis av små (t.ex. i-ordning) effekteffektiva kärnor och stora (t.ex., o-order) högeffektiva kärnor. Effektiviteten hos heterogena multikärnor beror på hur väl en schemaläggare kan kartlägga arbetsbelastningen på den lämpligaste kärntypen. I allmänhet kan små kärnor uppnå goda resultat om arbetsbelastningen i sig har höga nivåer av ILP. Å andra sidan ger stora kärnor bra prestanda om arbetsbelastningen uppvisar höga nivåer av MLP eller kräver att ILP extraheras dynamiskt. I detta dokument föreslås effektivitetsskattning (Performance Impact Estimation, PIE) som en mekanism för att förutsäga vilken arbetsbörda-till-kärn-kartläggning som sannolikt kommer att ge de bästa resultaten. PIE samlar in CPI stack, MLP och ILP profilinformation, och uppskattar prestanda om arbetsbelastningen skulle köras på en annan kärntyp. Dynamisk PIE justerar schemaläggningen vid körning och utnyttjar därmed finkornigt tidsvarierande utförandebeteende. Vi visar att PIE kräver begränsat hårdvarustöd och kan förbättra systemets prestanda med i genomsnitt 5,5 % i förhållande till de senaste förslagen till schemaläggning och med 8,7 % i förhållande till en provtagningsbaserad schemaläggningspolitik. | I Ref föreslår författarna en schemaläggningsstrategi baserad på en resultatuppskattning (PIE) som kan förutsäga en arbetsbörda-till-kärna kartläggning. | 2,340,364 | Scheduling heterogeneous multi-cores through Performance Impact Estimation (PIE) | {'venue': "ISCA '12", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,286 |
Vi presenterar graf partition neurala nätverk (GPN), en förlängning av graf neurala nätverk (GNN) som kan hantera extremt stora grafer. GPN växlar mellan lokalt förökande information mellan noder i små subgrafer och globalt förökande information mellan subgraferna. För att effektivt partitionera grafer experimenterar vi med flera partitioneringsalgoritmer och föreslår även en ny variant för snabb bearbetning av storskaliga grafer. Vi testar i stor utsträckning vår modell på en mängd halvövervakade nodklassificeringsuppgifter. Experimentella resultat tyder på att GPN är antingen överlägsna eller jämförbara med de senaste metoderna på en mängd olika datauppsättningar för grafbaserad semiövervakad klassificering. Vi visar också att GPN kan uppnå liknande prestanda som vanliga GNN med färre spridningssteg. | I REF en graf partition neurala nätverk (GPN), en förlängning av graf neurala nätverk (GNN), användbart att arbeta med stora grafer beskrivs. | 3,290,366 | Graph Partition Neural Networks for Semi-Supervised Classification | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 8,287 |
Högpresterande grafanalys är avgörande för en lång lista över applikationsdomäner. Under de senaste åren har den snabba utvecklingen av många huvudprocessorer, särskilt grafiska bearbetningsenheter (GPU), väckt ett brett intresse för att utveckla högpresterande parallella grafprogram på dessa arkitekturer. Den SIMT-arkitektur som används i GPU:er ställer dock särskilda krav på både utformning och genomförande av algoritmer och datastrukturer, vilket gör utvecklingen av sådana program svår och tidskrävande. Vi presenterar MapGraph, en högpresterande parallell graf programmering ram som levererar upp till 3 miljarder Traversed Edges Per Second (TEPS) på en GPU. MapGraph ger en hög nivå abstraktion som gör det enkelt att skriva grafprogram och få bra parallella speedups på GPUs. För att leverera hög prestanda, MapGraph dynamiskt väljer bland olika schemaläggningsstrategier beroende på storleken på gränsen och storleken på adjacency listor för hörnen i gränsen. Dessutom används en struktur av Arrays (SOA) mönster för att säkerställa sammanslagen minnesåtkomst. Våra experiment visar att, för många grafanalysalgoritmer, en implementering, med vår abstraktion, är upp till två storleksordningar snabbare än en parallell CPU genomförande och är jämförbar med state-of-the-art, manuellt optimerade GPU implementationer. Med vår abstraktion kan dessutom ny grafanalys utvecklas med relativt lite ansträngning. | MapGraph REF ger en hög nivå API för att skriva högpresterande grafanalys för en enda GPU. | 1,706,843 | MapGraph: A High Level API for Fast Development of High Performance Graph Analytics on GPUs | {'venue': "GRADES'14", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,288 |
ABSTRACT Sarcasm är en sofistikerad form av ironi som ofta används i sociala nätverk och mikrobloggande webbplatser. Det används vanligtvis för att förmedla implicit information i meddelandet som en person överför. Sarkasm kan användas för olika ändamål, till exempel för kritik eller hån. Men det är svårt att ens känna igen människor. Därför, att erkänna sarkastiska uttalanden kan vara mycket användbart för att förbättra automatisk känsloanalys av data som samlats in från mikrobloggning webbplatser eller sociala nätverk. Sentiment Analys hänvisar till identifiering och aggregering av attityder och åsikter som uttryckts av Internetanvändare mot ett specifikt ämne. I detta dokument föreslår vi ett mönsterbaserat tillvägagångssätt för att upptäcka sarkasm på Twitter. Vi föreslår fyra uppsättningar funktioner som täcker de olika typer av sarkasm som vi definierade. Vi använder dem för att klassificera tweets som sarkastiska och icke-sarkastiska. Vårt föreslagna tillvägagångssätt uppnår en noggrannhet på 83,1 % med en precision på 91,1 %. Vi studerar också vikten av var och en av de föreslagna inslagen och utvärderar dess mervärde för klassificeringen. Vi betonar särskilt vikten av mönsterbaserade egenskaper för att upptäcka sarkastiska uttalanden. Twitter, känsloanalys, sarkasmdetektion, maskininlärning. | I REF föreslås ett mönsterbaserat tillvägagångssätt för att upptäcka sarkasm på Twitter. | 12,837,759 | A Pattern-Based Approach for Sarcasm Detection on Twitter | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 8,289 |
Abstrakt. Du kan bara kontrollera vad du kan mäta. Att mäta ontologier är nödvändigt för att utvärdera ontologier både under teknik och tillämpning. Metrics gör det möjligt att snabbt och enkelt bedöma en ontologi och också att spåra deras efterföljande utveckling. Under de senaste åren har ett växande antal ontologiska mått och åtgärder föreslagits och definierats. Men många av dem lider av återkommande problem, och viktigast av allt är att de inte tar hänsyn till det ontologiska språkets semantik på rätt sätt. Det arbete som presenteras här är ett huvudsakligt tillvägagångssätt för att underlätta skapandet av ontologimått med det tydliga målet att gå bortom strukturella mått till korrekta semantiska-medvetna ontologimått. Vi har utvecklat riktlinjer och en uppsättning metodologiska verktyg baserade på begreppen "normalisering" och "stabila mått" för att skapa ontologiska mått. Dessa riktlinjer gör det möjligt för den metriska författaren att bestämma vilka egenskaper mått måste uppfylla och att på lämpligt sätt utforma den önskade metriska. En diskussion om ett exemplariskt mått (som hämtats ur litteraturen) illustrerar och motiverar frågorna och förslagen till lösningar. | I ett av de första tillvägagångssätten för att analysera denna implicita struktur av ontologier, Vrandecic et al. REF introducerar ontologimått som också tar hänsyn till det ontologiska språkets semantik, främst med fokus på de tillhörande uttalandena av en ontologi. | 17,723,188 | How to Design Better Ontology Metrics | {'venue': 'ESWC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,290 |
Djupa generativa modeller har uppnått imponerande framgång under de senaste åren. Generativa Adversarial Networks (Gans) och Variational Autoencoders (VAEs), som kraftfulla ramar för djupt generativt modellinlärning, har till stor del betraktats som två skilda paradigm och har fått omfattande oberoende studie respektive. I detta dokument fastställs formella kopplingar mellan djupgenerativa modelleringsmetoder genom en ny formulering av GAN och VEA. Vi visar att GANs och VAEs i huvudsak minimerar KL divergens av respektive bakre och inference fördelningar med motsatta riktningar, förlänga de två inlärningsfaserna av klassiska wake-sömn algoritm, respektive. Den enhetliga vyn ger ett kraftfullt verktyg för att analysera en mångfald av befintliga modellvarianter, och gör det möjligt att utbyta idéer över forskningslinjer på ett principfast sätt. Till exempel överför vi viktningsmetoden i VAE-litteratur för förbättrad GAN-inlärning och förbättrar VAE med en kontradiktorisk mekanism för att utnyttja genererade prover. Kvantitativa experiment visar att de importerade utvidgningarna är allmänna och effektiva. | REF ger en enhetlig bild av en rad djupa generativa metoder. | 3,508,638 | On Unifying Deep Generative Models | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 8,291 |
Abstract-Millimeter-våg (mmWave) är lovande teknik för hög datahastighet (multi-Gbps) Wireless Personal Area Networks (WPAN). I detta dokument introducerar vi först begreppet exklusiv region (ER) för att tillåta samtidiga sändningar att utforska den rumsliga multiplexing-vinsten av trådlösa nätverk. Med tanke på de unika egenskaperna hos mmWave-kommunikation och användningen av allsidiga eller riktade antenner, härleder vi ER-förhållandena som säkerställer att samtidiga sändningar alltid kan överträffa seriella TDMA-transmissioner i en mmWave WPAN. Vi föreslår sedan REX, en randomiserad ER-baserad schemaläggning, att bestämma en uppsättning avsändare som kan överföra samtidigt. Dessutom erhålls det förväntade antalet flöden som kan schemaläggas för samtidiga överföringar analytiskt. Omfattande simuleringar genomförs för att validera analysen och visa hur effektivt och ändamålsenligt det föreslagna REX-schemat är. Resultaten bör ge viktiga riktlinjer för framtida spridning av mmWave baserade WPAN. Index Terms-Resource management, exklusiv region, service schemaläggning, rumslig multiplexing vinst, mmWave WPAN. | Cai m.fl. REF införde begreppet exklusiv region (ER) för att möjliggöra samtidiga sändningar, och härledde de ER-villkor som samtidiga sändningar alltid överträffar TDMA. | 7,032,393 | Rex: A randomized EXclusive region based scheduling scheme for mmWave WPANs with directional antenna | {'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 8,292 |
Abstract.-Vi utforskade användningen av multidimensionell skalning (MDS) av träd till träd parvisa avstånd för att visualisera förhållandet mellan uppsättningar av fylogenetiska träd. Vi fann att tekniken var användbar för att utforska "trädöar" (uppsättningar av topologiskt besläktade träd bland större uppsättningar av nästan optimala träd), för att jämföra uppsättningar av träd som erhållits från bootstrappning och Bayesian provtagning, för att jämföra träd som erhållits från analysen av flera olika gener, och för att jämföra flera Bayesian analyser. Tekniken var också användbar som ett pedagogiskt hjälpmedel för att illustrera utvecklingen av en Bayesian analys och som ett undersökande verktyg för att undersöka stora uppsättningar av fylogenetiska träd. Vi identifierade också vissa begränsningar av metoden, inklusive förvrängningar av det flerdimensionella trädutrymmet i två dimensioner genom MDS-tekniken, och definitionen av MDS-definierat utrymme baserat på ett begränsat urval av träd. Tekniken är dock en användbar metod för analys av stora uppsättningar av fylogenetiska träd. [Bayersk analys; multidimensionell skalning; fylogenetisk analys; trädrymd; visualisering.] | Hillis m.fl. REF visualisera uppsättningar av fylogenetiska träd med hjälp av multidimensionell skalning. | 10,887,765 | Analysis and Visualization of Tree Space | {'venue': 'Systematic biology', 'journal': 'Systematic biology', 'mag_field_of_study': ['Mathematics', 'Medicine']} | 8,293 |
Abstract-This paper presenterar pathChirp, ett nytt aktivt undersökningsverktyg för att uppskatta den tillgängliga bandbredden på en kommunikationsnätverksbana. Baserat på begreppet "självframkallad trängsel", PathChirp har ett exponentiellt flygmönster av sonder som vi kallar en kvitter. Packet chips erbjuder flera betydande fördelar jämfört med nuvarande undersökningsprogram baserade på paket par eller paket tåg. Genom att snabbt öka undersökningshastigheten inom varje chirp, får PathChirp en rik uppsättning information från vilken för att dynamiskt uppskatta den tillgängliga bandbredden. Eftersom det endast använder paket interarrival gånger för uppskattning, pathChirp kräver inte synkrona eller mycket stabila klockor vid avsändaren och mottagaren. Vi testar pathChirp med simuleringar och Internetexperiment och finner att det ger goda uppskattningar av den tillgängliga bandbredden samtidigt som endast en bråkdel av antalet sondbyte som nuvarande toppmoderna tekniker använder. | PathChirp REF bygger på begreppet "självinducerad trängsel", där pathChirp har ett exponentiellt flygmönster av sonder som kallas chirp. | 10,514,162 | pathChirp: Efficient Available Bandwidth Estimation for Network Paths | {'venue': 'In Passive and Active Measurement Workshop', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,294 |
Abstract-Använda riktning antenner för att spara bandbredd och energiförbrukning i ad hoc trådlösa nätverk (eller helt enkelt ad hoc-nät) blir populärt under de senaste åren. Användningen av riktade antenner för sändning har dock varit begränsad. Vi föreslår en ny sändning protokoll kallas riktad självbeskärning (DSP) för ad hoc trådlösa nätverk med riktade antenner. DSP är en icke-trivial generalisering av en befintlig lokal deterministisk sändning protokoll med hjälp av allriktade antenner. Jämfört med dess allsidiga föregångare använder DSP ungefär samma antal framåtriktade noder för att återsända sändningspaketet, medan antalet framåtriktade riktningar som varje framåtriktad nod använder i överföringen minskas avsevärt. Med den lägre sändningsredundansen är DSP mer bandbredd och energieffektiv. DSP är baserad på 2-hop område information och inte förlitar sig på plats eller vinkel-oarrival (AoA) information. Två specialfall av DSP diskuteras: den första bevarar kortaste vägar i reaktiva routing upptäckter; den andra använder riktningsmottagning läge för att minimera sändning redundans. DSP är ett lokaliserat protokoll. Dess förväntade antal framåtriktade noder är Oð15 gånger det optimala värdet. En omfattande simuleringsstudie med hjälp av både anpassade och ns2-simulatorer visar att DSP avsevärt överträffar både allsidiga sändningsprotokoll och befintliga riktade sändningsprotokoll. | I Ref föreslår författarna ett effektivt program för sändning med hjälp av riktad antenn i trådlösa ad hoc-nät. | 2,394,010 | Efficient broadcasting in ad hoc wireless networks using directional antennas | {'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']} | 8,295 |
Abstract-Dynamic beteende Internets överföringsresurser gör det svårt att ge perceptuellt bra kvalitet på strömmande video. MPEG-4 Fin-Grained skalbar kodning föreslås för att hantera detta problem genom att distribuera data i förbättring lager över ett brett spektrum av bithastigheter. Men kodad video uppvisar också betydande datahastighet variabilitet för att ge en konsekvent kvalitet video. Vi står därför inför problemet med att försöka ta hänsyn till obalansen mellan den tillgängliga bandbreddens variabilitet och den kodade videovariabiliteten. I detta papper undersöker vi kvalitetsanpassning av den skiktade VBR-video som genereras av MPEG-4 FGS. Vårt mål är att utveckla ett kvalitetsanpassningssystem som maximerar perceptuell videokvalitet genom att minimera kvalitetsvariationer och samtidigt öka användningen av tillgänglig bandbredd. Vi utvecklar ett optimalt anpassningssystem och en online heuristic baserat på om nätverksförhållandena är kända a priori. Experimentella resultat visar att den online heuristiska samt den optimala anpassningsalgoritmen ger jämn videokvalitet när den används över både TFRC och TCP. | I REF utvecklar författarna ett optimalt anpassningssystem och en online heuristic för att minimera kvalitetsvariabiliteten genom att anpassa den missmatchning som orsakas både av den tillgängliga bandbreddsvariabiliteten och den kodade videovariabiliteten. | 14,946,958 | Optimal quality adaptation for MPEG-4 fine-grained scalable video | {'venue': 'IEEE INFOCOM 2003. Twenty-second Annual Joint Conference of the IEEE Computer and Communications Societies (IEEE Cat. No.03CH37428)', 'journal': 'IEEE INFOCOM 2003. Twenty-second Annual Joint Conference of the IEEE Computer and Communications Societies (IEEE Cat. No.03CH37428)', 'mag_field_of_study': ['Computer Science']} | 8,296 |
Abstract-Crowdsourcing system som utnyttjar den mänskliga intelligensen för att lösa komplexa uppgifter har vunnit stort intresse och antagande under de senaste åren. Majoriteten av de befintliga crowdsourcingsystemen är dock beroende av centrala servrar, som är föremål för svagheterna i den traditionella förtroendebaserade modellen, såsom en enda bristpunkt. De är också sårbara för distribuerad överbelastning (DDoS) och Sybil attacker på grund av skadliga användare engagemang. Dessutom kan höga serviceavgifter från crowdsourcing-plattformen hindra utvecklingen av crowdsourcing. Hur man ska ta itu med dessa potentiella frågor har både forskning och stort värde. I detta dokument konceptualiserar vi ett blockchain-baserat decentraliserat ramverk för crowdsourcing som heter CrowdBC, där en begärandes uppgift kan lösas av en mängd arbetstagare utan att förlita sig på någon tredje betrodd institution, användarnas integritet kan garanteras och endast låga transaktionsavgifter krävs. Vi inför i synnerhet strukturen i vårt föreslagna ramverk, som vi ger ett konkret system på grundval av. Vi implementerar vidare en programvaruprototyp på Ethereums offentliga testnätverk med verkliga dataset. Experimentella resultat visar genomförbarheten, användbarheten och skalbarheten hos vårt föreslagna crowdsourcing-system. | Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. REF konceptualiserade ett blockchainbaserat decentraliserat ramverk för crowdsourcing som heter CrowdBC, där en begärandes uppgift kan lösas av en skara arbetstagare utan att förlita sig på någon tredje betrodd institution. Men CrowdBC presenterar inte utvärderingsmekanismen som är en avgörande faktor för användarnas deltagande entusiasm och rättvisan i mekanismen. | 26,619,090 | CrowdBC: A Blockchain-Based Decentralized Framework for Crowdsourcing | {'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']} | 8,297 |
Abstrakt. Vi presenterar en teknik för att upptäcka semantiskt ogenomförbara vägar i program med abstrakt tolkning. Vår teknik använder en sekvens av väg-okänslig framåt och bakåt körningar av en abstrakt tolk för att dra slutsatser vägar i styrflöde grafen som inte kan utövas i konkreta utföranden av programmet. Vi presenterar sedan en syntaktisk språkförfining (SLR) teknik som automatiskt utesluter semantiskt ogenomförbara vägar från ett program under statisk analys. SLR låter oss iterativt bevisa fler egenskaper. Specifikt simulerar vår teknik effekten av en vägkänslig analys genom att utföra syntaktisk språkförfining över en underliggande patologisk statisk analysator. Slutligen presenterar vi experimentella resultat för att kvantifiera hur vår teknik påverkar en abstrakt tolk för C-program. | I synnerhet använder vårt tidigare arbete ogenomförbar sökväg information för att förfina styrflöde grafen i programmet REF. | 2,409,050 | SLR: Path-sensitive analysis through infeasible-path detection and syntactic language refinement | {'venue': 'In SAS, volume 5079 of LNCS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,298 |
Crowdsourcing har visat sig vara en effektiv metod för att lösa svåra problem, men de nuvarande crowdsourcingsystemen har två huvudsakliga begränsningar: i) uppgifter måste paketeras om för att kunna visas upp på lämpligt sätt för crowd-arbetare, vilket i allmänhet kräver omfattande engångsprogram och stödinfrastruktur, och ii) crowd-arbetare saknar i allmänhet en snäv återkopplingsslinga med sin uppgift. I detta dokument introducerar vi Legion, ett system som gör det möjligt för slutanvändare att enkelt fånga befintliga grafiska gränssnitt och outsourca dem för samarbete, realtidskontroll av publiken. Vi presenterar medlingsstrategier för att integrera flera publikarbetares bidrag i realtid, utvärdera dessa medlingsstrategier i flera tillämpningar och ytterligare validera Legion genom att utforska utrymmet för nya tillämpningar som det möjliggör. | Lasecki m.fl. REF utforma ett system som gör det möjligt för flera användare att styra samma gränssnitt i realtid. | 478,154 | Real-time crowd control of existing interfaces | {'venue': "UIST '11", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,299 |
Felrapporter ger ett effektivt sätt för slutanvändare att avslöja potentiella buggar gömda i ett programvarusystem, samtidigt som automatiskt lokalisera potentiella buggy källfiler enligt en felrapport förblir en stor utmaning i programvaruunderhåll. Många tidigare metoder representerar felrapporter och källkod från lexikal och strukturell information korrelerade deras relevans genom att mäta deras likhet, och nyligen föreslås en CNN-baserad modell för att lära sig de enhetliga funktionerna för felsökning, vilket övervinner svårigheten att modellera naturliga och programmeringsspråk med olika strukturella semantik. Tidigare studier lyckas dock inte fånga den sekventiella naturen av källkod, som bär ytterligare semantik utöver de lexiska och strukturella termer och sådan information är avgörande i modellering programfunktioner och beteenden. I detta dokument föreslår vi en ny modell LS-CNN, som förstärker de enhetliga egenskaperna genom att utnyttja källkodens sekventiella karaktär. LS-CNN kombinerar CNN och LSTM för att extrahera semantiska funktioner för att automatiskt identifiera potentiell buggig källkod enligt en felrapport. Experimentella resultat av allmänt använda programvaruprojekt tyder på att LS-CNN avsevärt överträffar de senaste metoderna för att lokalisera buggiga filer. | Huo och Li föreslog en modell, LS-CNN, för klassificering om en källkodsfil är relaterad till en felrapport (dvs. källkodsfilen måste rättas för att lösa felrapporten) REF. | 37,092,970 | Enhancing the Unified Features to Locate Buggy Files by Exploiting the Sequential Nature of Source Code | {'venue': 'IJCAI', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,300 |
En ram för kvalitativ representation av positionsinformation i ett tvådimensionellt utrymme presenteras. Kvalitativa representationer använder diskreta kvantitetsrymder, där en särskild distinktion införs endast om den är relevant för det sammanhang som modelleras. Detta gör att vi kan bygga en exibel ram som rymmer olika nivåer av granularitet och skalor av resonemang. Kunskap om position i stor skala representeras ofta av en kombination av orientering och distansrelationer, som vi uttrycker i en särskild referensram mellan ett primärt objekt och ett referensobjekt. Medan representationen av orientering blir enklare, kräver modellen för avstånd att kvalitativa avståndssymboler kartläggs till geometriska intervall för att kunna jämföras; detta görs genom att definiera strukturrelationer som bland annat kan hantera storleksförhållandena; referensramen med dess tre komponenter (distanssystem, skala och typ) fångar det inneboende kontextberoendet av kvalitativa avstånd. Det huvudsakliga syftet med den kvalitativa representationen är att utföra rumsliga resonemang: som en grundläggande slutsats teknik, algoritmer för sammansättningen av positionsrelationer utvecklas med avseende på samma och olika referensramar. Den modell som presenteras i detta dokument har potentiella tillämpningar inom så skilda områden som geografiska informationssystem (GIS), datorstödd design (CAD) och dokumentigenkänning. | Clementini m.fl. REF analyserade kvalitativa avstånd och definierade sammanhang med hjälp av en trekomponents referensram (dvs. distanssystem, skala och typ). | 8,868,498 | Qualitative Representation of Positional Information | {'venue': 'ARTIFICIAL INTELLIGENCE', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 8,301 |
Webbplats fingeravtryck gör det möjligt för en angripare att dra slutsatsen vilken webbsida en klient surfar genom krypterade eller anonymiserade nätverksanslutningar. Vi presenterar en ny webbplats fingeravtryck teknik baserad på slumpmässiga beslut skogar och utvärdera prestanda över standard webbsidor samt Tor dolda tjänster, i större skala än tidigare verk. Vår teknik, k-fingerprinting, presterar bättre än nuvarande toppmoderna attacker även mot webbplats fingeravtryck försvar, och vi visar att det är möjligt att lansera en webbplats fingeravtryck attack mot en stor mängd bullriga data. Vi kan korrekt avgöra vilka av 30 övervakade dolda tjänster en klient besöker med 85% sann positiv frekvens (TPR), en falsk positiv frekvens (FPR) så lågt som 0,02%, från en global storlek på 100.000 oövervakade webbsidor. Vi visar också att felfrekvensen varierar kraftigt mellan webbresurserna, och därför kommer vissa användningsmönster att vara förutsägbart mer sårbara för angrepp än andra. | Nyligen använder Hayes och Danezis REF slumpmässiga skogar för att konstruera den nuvarande toppmoderna webbplats fingeravtryck attack. | 2,119,577 | k-fingerprinting: a Robust Scalable Website Fingerprinting Technique | {'venue': None, 'journal': 'arXiv: Cryptography and Security', 'mag_field_of_study': ['Computer Science']} | 8,302 |
ABSTRACT Rekonstruktion av genomskala metaboliska nätverk är nu möjligt med hjälp av flera olika datatyper. Restriktion-baserad modellering är ett tillvägagångssätt för att förhöra kapaciteter av rekonstruerade nätverk genom att begränsa eventuellt cellulärt beteende genom införandet av fysikalisk-kemiska lagar. Som ett resultat av detta definieras ett stationärt flödesutrymme som innehåller alla möjliga funktionella tillstånd i nätverket. Enhetlig stickprovstagning av det stationära flödesutrymmet gör det möjligt att göra en objektiv bedömning av innehållet. Monte Carlo-provtagning av den fasta flödesrymden i det rekonstruerade humana röda blodcellsmetaboliska nätverket under simulerade fysiologiska förhållanden gav följande nyckelresultat: 1), sannolikhetsfördelningar för värdena för enskilda metaboliska flöden visade en mängd olika former som inte kunde härledas utan beräkning; 2), parvisa korrelationskoefficienter beräknades mellan alla flöden, bestämma graden av oberoende mellan mätningen av två flöden, och identifiera starkt korrelerade reaktionsuppsättningar; och 3), nätverksomfattande effekter av förändringen i en (eller några) variabler (dvs. en simulerad enzymopati eller fastställande av ett flödesintervall baserat på mätningar) beräknades. Matematiska modeller ger den mest kompakta och informativa representationen av en hypotes om hur en cell fungerar. Därför är förståelse modell förutsägelser helt klart avgörande för att driva framåt den iterativa modellbyggande procedur som är i centrum för systembiologi. Sammantaget innebär provtagningsförfarandet i Monte Carlo en utvidgning av den begränsningsbaserade metoden genom att möjliggöra en opartisk och detaljerad bedömning av effekterna av de tillämpade fysikalisk-kemiska begränsningarna på ett rekonstruerat nätverk. | Författarna till REF visar att provtagningsmetoden kan användas för att hitta sannolikhetsfördelningar för alla flöden, att den kan användas för att mäta parvisa korrelationskoefficienter och för att beräkna nätverkseffekterna av förändringar i flödesvariabler. | 18,135,686 | Uniform sampling of steady-state flux spaces: means to design experiments and to interpret enzymopathies | {'venue': 'Biophys J', 'journal': None, 'mag_field_of_study': ['Biology', 'Medicine']} | 8,303 |
Heterogena klusterbaserade trådlösa sensornätverk (WSN) väckte på senare tid allt större uppmärksamhet. Det är uppenbart att klusterbildningen gör hela nätverken hierarkiska; därför krävs flera typer av nycklar för hierarkisk nätverkstopologi. De flesta befintliga centrala förvaltningssystem lägger dock större vikt vid parvisa centrala förvaltningssystem eller viktiga förfördelningssystem och försummar hierarkins egendom. I detta dokument föreslår vi ett komplett hierarkiskt nyckelhanteringssystem som endast använder symmetriska kryptografiska algoritmer och lågkostnadsoperationer för heterogena klusterbaserade WSN. Vårt schema omfattar fyra typer av nycklar, som är en individuell nyckel, en klusternyckel, en huvudnyckel, och pairwise nycklar, för varje sensor nod. Slutligen visar analysen och experimenten att det föreslagna systemet är säkert och effektivt, vilket gör det lämpligt för heterogent klusterbaserat WSN. | Ett fullständigt hierarkiskt nyckelhanteringssystem som använder symmetriska kryptografiska algoritmer och lågkostnadsoperationer för heterogena klusterbaserade WSN föreslogs i REF. | 16,276,193 | A Complete Hierarchical Key Management Scheme for Heterogeneous Wireless Sensor Networks | {'venue': 'The Scientific World Journal', 'journal': 'The Scientific World Journal', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 8,304 |
Abstract-A general purpose block-to-block affine transformation estimator beskrivs. Uppskattningen är baserad på Fourier skiva analys och Fourier spektral anpassning. Den visar uppmuntrande resultat när det gäller både hastighet och noggrannhet jämfört med befintliga metoder. De viktigaste inslagen i dess framgång tillskrivs förmågan att: 1) lokalisera ett godtyckligt antal affina invarianta punkter i spektrumet som fäster på betydande strukturella funktioner; 2) matcha de uppskattade invarianta punkterna med målspektrumet genom den skivade faskorrelationen; och 3) använda affina invarianta punkter för att direkt beräkna alla linjära parametrar för den fullständiga affina transform genom spektral anpassning. Experimentella resultat med hjälp av ett brett spektrum av texturer presenteras. Potentiella tillämpningar inkluderar affin invariant bildsegmentering, registrering, affin symmetrisk bildkodning, och rörelseanalys. | Park m.fl. I REF föreslogs identifiering och matchning av ett antal affininvarianta punkter i käll- och målbildernas spektrum och beräkning av parametrarna för affintransform med hjälp av spektral anpassning. | 2,391,366 | Local Affine Image Matching and Synthesis Based on Structural Patterns | {'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Medicine']} | 8,305 |
Obesudlade ord representationer är mycket användbara i NLP uppgifter både som ingångar till lärande algoritmer och som extra ordfunktioner i NLP-system. De flesta av dessa modeller är dock uppbyggda med endast lokal kontext och en representation per ord. Detta är problematiskt eftersom ord ofta är polysemösa och globala sammanhang också kan ge användbar information för att lära ord betydelser. Vi presenterar en ny neural nätverk arkitektur som 1) lär sig ord inbäddningar som bättre fånga semantik av ord genom att införliva både lokala och globala dokument sammanhang, och 2) står för homonymi och polysemi genom att lära sig flera inbäddningar per ord. Vi introducerar en ny datauppsättning med mänskliga bedömningar av parord i ett tydligt sammanhang, och utvärderar vår modell på den, vilket visar att vår modell överträffar konkurrenskraftiga baslinjer och andra neurala språkmodeller. | REF är ett neuralt nätverk baserat tillvägagångssätt, som lär sig flera täta, lågdimensionella inbäddningar med hjälp av globala dokument sammanhang. | 372,093 | Improving Word Representations via Global Context and Multiple Word Prototypes | {'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,306 |
Barn med ASD har svårt med social kommunikation, särskilt gemensam uppmärksamhet. Interaktion i en virtuell miljö (VE) kan vara ett sätt att både förstå dessa svårigheter och ta itu med dem. Det är först nödvändigt att upptäcka hur denna population interagerar med virtuella tecken, och om de kan följa gemensamma uppmärksamhetssignaler i en VE. Detta dokument beskriver en studie där 32 barn med ASD använde ECHOES VE för att hjälpa ett virtuellt tecken att välja objekt genom att följa tecknets blick och/eller peka. Både noggrannhets- och reaktionstidsdata tyder på att barn framgångsrikt kunde slutföra uppgiften, och kvalitativa data tyder vidare på att de flesta barn uppfattade karaktären som en avsiktlig varelse med relevant, ömsesidigt riktat beteende. | ECHOES VE REF presenterade en virtuell miljö där barn med ASD måste hjälpa ett tecknat virtuellt tecken att välja objekt genom att följa tecknets blick och/eller peka på objektet. | 15,319,511 | Social communication between virtual characters and children with autism | {'venue': 'AIED', 'journal': None, 'mag_field_of_study': ['Psychology', 'Computer Science']} | 8,307 |
Abstract-Advanceds inom virtualiseringsteknik gör det möjligt att skapa resurspooler av servrar som tillåter flera applikationer arbetsbelastningar att dela varje server i poolen. För att kunna utforma och tillhandahålla befintliga och framtida tjänster i sådana pooler på ett korrekt sätt är det av avgörande betydelse att man är medveten om företagens arbetsbörda. I detta dokument behandlas frågor om arbetsbelastningsanalys, prestandamodellering och kapacitetsplanering. Vårt mål är att automatisera den effektiva användningen av resurspooler när vi är värd för ett stort antal företagstjänster. Vi använder en spårbaserad metod för kapacitetshantering som bygger på i) karakterisering av belastningsefterfrågan mönster, ii) generering av syntetisk arbetsbelastning som förutsäger framtida krav baserade på mönster, och iii) en arbetsbelastning placering rekommendation tjänst. Noggrannheten i förutsägelser om kapacitetsplanering beror på vår förmåga att karakterisera belastningsefterfrågans mönster, att känna igen trender för förväntade förändringar i framtida krav och att återspegla affärsprognoser för i övrigt oväntade förändringar i framtida krav. En analys av arbetsbelastningen visar att arbetsbelastningen är hög och repetitiv. Arbetsbelastningar klassificeras automatiskt enligt deras periodiska beteende. Likheten mellan upprepade förekomster av mönster utvärderas. Syntetiska arbetsbelastningar genereras från mönstren på ett sätt som upprätthåller den periodiska naturen, sprickighet, och trendiga beteende arbetsbelastningar. En fallstudie som omfattar sex månaders data för 139 företagstillämpningar används för att tillämpa och utvärdera analysen av företagets arbetsbelastning och relaterade kapacitetsplaneringsmetoder. Resultaten visar att vi vid konsolidering till 8 processorsystem förutspådde att framtida per-server krävde kapacitet till inom en processor 95% av tiden. Noggrannheten i prognoserna för den kapacitet som krävs tyder på att sådana resursbesparingar kan uppnås med liten risk. | I REF används k-medel för arbetsbelastningsanalys och förutsägelse av efterfrågan. | 1,662,110 | Workload Analysis and Demand Prediction of Enterprise Data Center Applications | {'venue': '2007 IEEE 10th International Symposium on Workload Characterization', 'journal': '2007 IEEE 10th International Symposium on Workload Characterization', 'mag_field_of_study': ['Computer Science']} | 8,308 |
I detta dokument beskrivs utformningen och genomförandet av en lexikon av nederländska flerordsuttryck (MWEs). Ingen uttömmande forskning om en vanlig lexisk representation av MWE har gjorts för nederländska tidigare. Det tillvägagångssätt som valts är innovativt, eftersom det grundar sig på metoden med ekvivalensklass. Dessutom är valet av de lexiska posterna och deras egenskaper corpus-baserat. Utformningen av lexikonet och standardrepresentationen kommer att testas i nederländska NLP-system. Syftet med det aktuella dokumentet är att ge en översikt över de beslut som fattats för att komma till en vanlig lexisk representation och för att diskutera de beskrivningsområden som denna representation omfattar. | Till exempel beskriver REF utformningen och genomförandet av en lexikon av nederländska flerordsuttryck. | 18,792,044 | Design and Implementation of a Lexicon of Dutch Multiword Expressions | {'venue': 'Workshop on A Broader Perspective on Multiword Expressions', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,309 |
I detta arbete tar vi itu med problemet att modellera alla noder (ord eller fraser) i ett beroende träd med de täta representationer. Vi föreslår en rekursiv konvolutionell neurala nätverk (RCNN) arkitektur för att fånga syntaktiska och kompositionssemantiska representationer av fraser och ord i ett beroende träd. Olika med den ursprungliga rekursiva neurala nätverk, introducerar vi convolution och pooling lager, som kan modellera en mängd olika kompositioner av funktionen kartor och välja de mest informativa kompositioner av pooling lager. Baserat på RCNN använder vi en diskriminerande modell för att re-ranka en k-bästa lista över kandidatberoende tolkning träd. Experimenten visar att RCNN är mycket effektivt för att förbättra det toppmoderna beroendet av både engelska och kinesiska datauppsättningar. | REF föreslog en rekursiv konvolutionell neurala nätverk (RCNN) arkitektur för att fånga syntaktiska och kompositionssemantiska representationer av fraser och ord i ett beroende träd. | 8,755,918 | A Re-ranking Model for Dependency Parser with Recursive Convolutional Neural Network | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 8,310 |
Bakgrund: Genomisk information används alltmer i medicinsk praxis vilket ger upphov till behovet av effektiva analysmetoder som kan hantera tusentals individer och miljontals varianter. Den allmänt använda Hadoop MapReduce arkitektur och tillhörande maskininlärning bibliotek, Mahout, ger medel för att hantera beräkning utmanande uppgifter. Många genomiska analyser passar dock inte in i Map-Reduce-paradigmet. Vi utnyttjar därför den nyligen utvecklade SPARK-motorn, tillsammans med dess tillhörande maskininlärningsbibliotek MLlib, som erbjuder större flexibilitet i parallelliseringen av bioinformatikuppgifter i populationsskala. Det resulterande verktyget VARIANTSPARK tillhandahåller ett gränssnitt från MLlib till standardvariantformatet (VCF), erbjuder sömlös genomomfattande provtagning av varianter och tillhandahåller en pipeline för visualisering av resultat. Resultat: För att visa kapaciteten hos VARIANTSPARK klustrade vi mer än 3 000 individer med 80 miljoner varianter vardera för att bestämma befolkningsstrukturen i datasetet. VARIANTSPARK är 80 % snabbare än SPARK-baserad genomklustringsmetod, ADAM, det jämförbara genomförandet med Hadoop/Mahout, samt ADMIXTURE, ett vanligt verktyg för att bestämma individuella förfäder. Det är över 90 % snabbare än traditionella implementationer med R och Python. Slutsats: Fördelarna med hastighet, resursförbrukning och skalbarhet gör det möjligt för VARIANTSPARK att öppna upp användningen av avancerade, effektiva maskininlärningsalgoritmer för genomiska data. | För att åtgärda bristerna i ADMIXTURE föreslogs VariantSpark av Aidan R. et al. REF, som ger ett gränssnitt från MLlib till standardvariantformat (VCF) som erbjuder en sömlös genom-omfattande provtagning av varianter och ger en pipeline för visualisering resultat från 1000 Genomes Project och Personal Genome Project (PGP). | 17,371,477 | VariantSpark: population scale clustering of genotype information | {'venue': 'BMC Genomics', 'journal': 'BMC Genomics', 'mag_field_of_study': ['Biology', 'Medicine']} | 8,311 |
Abstrakt. En uppsättning sensorer etablerar barriärtäckning för ett visst linjesegment om varje punkt i segmentet ligger inom sensorns avkänningsområde. Med tanke på ett linjesegment I, n mobila sensorer i godtyckliga inledande positioner på linjen (inte nödvändigtvis inuti I) och sensorernas avkänningsområden, är vi intresserade av att hitta slutliga positioner av sensorer som etablerar en barriärtäckning av I så att summan av de avstånd som transporteras av alla sensorer från initiala till slutliga positioner minimeras. Det visas att problemet är NP komplett även för att approximera upp till konstant faktor när sensorerna kan ha olika sensorintervall. När sensorerna har ett identiskt sensorintervall ger vi flera effektiva algoritmer för att beräkna slutdestinationerna så att sensorerna antingen skapar en barriärtäckning eller maximerar täckningen av segmentet om fullständig täckning inte är möjlig samtidigt som summan av de avstånd som transporteras av alla sensorer minimeras. Vissa öppna problem nämns också. | Om sensorer har olika intervall, då problemet är NP-hård REF. | 15,185,388 | On Minimizing the Sum of Sensor Movements for Barrier Coverage of a Line Segment | {'venue': 'ADHOC-NOW', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,312 |
Vi undersöker problemet med att bestämma polaritet känslor när en eller flera förekomster av en negation term som "inte" visas i en mening. Begreppet negationsbegrepp införs. Genom att använda ett parsträd och skriva beroenden som genereras av en parser och särskilda regler som föreslås av oss, tillhandahåller vi ett förfarande för att identifiera omfattningen av varje negation term. Experimentella resultat visar att identifieringen av negationens omfattning förbättrar både känslighetsanalysens riktighet och åsiktshämtningens effektivitet. | En framträdande metod för att fastställa negationens omfattning föreslås i REF. | 17,548,880 | The effect of negation on sentiment analysis and retrieval effectiveness | {'venue': 'CIKM', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,313 |
Blockchain teknologier tar världen med storm. Offentliga blockkedjor, såsom Bitcoin och Ethereum, möjliggör säkra peer-to-peer-program som kryptovaluta eller smarta kontrakt. Deras säkerhet och prestanda studeras väl. Detta dokument gäller nyligen privat blockchain system utformade med starkare säkerhet (trust) antagande och prestanda krav. Dessa system är inriktade på och syftar till att störa tillämpningar som hittills har genomförts utöver databassystem, t.ex. bank-, finans- och handelstillämpningar. Flera plattformar för privata blockkedjor utvecklas aktivt och finjusteras. Det finns dock en tydlig brist på en systematisk ram med vilken olika system kan analyseras och jämföras mot varandra. Ett sådant ramverk kan användas för att bedöma blockkedjors lönsamhet som en annan distribuerad databehandlingsplattform, samtidigt som det hjälper utvecklare att identifiera flaskhalsar och därmed förbättra sina plattformar. I detta dokument beskriver vi först BLOCKBENCH, den första utvärderingsramen för analys av privata blockkedjor. Det fungerar som ett rättvist sätt att jämföra olika plattformar och möjliggör en djupare förståelse för olika val av systemdesign. Alla privata blockchain kan integreras till BLOCKBENCH via enkla API:er och benchmarking mot arbetsbelastningar som är baserade på verkliga och syntetiska smarta kontrakt. BLOCKBENCH mäter övergripande och komponentvis prestanda i form av genomströmning, latens, skalbarhet och feltolerans. Därefter använder vi BLOCKBENCH för att genomföra en omfattande utvärdering av tre stora privata blockkedjor: Ethereum, Parity och Hyperledger Fabric. Resultaten visar att dessa system fortfarande är långt ifrån att ersätta nuvarande databassystem med traditionell databehandling. Dessutom finns det brister i prestanda bland de tre system som tillskrivs designval på olika lager av blockkedjans programvara stack. Vi har släppt BLOCKBENCH för allmänt bruk. | Författare i REF beskriver "BLOCKBENCH", ett utvärderingsramverk för att analysera privata blockkedjor med Turing-kompletta smarta kontrakt, släppa det som öppen källkod. | 207,248,129 | BLOCKBENCH: A Framework for Analyzing Private Blockchains | {'venue': "SIGMOD '17", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,314 |
Vi föreslår en semantisk uppmärksamhetsmekanism för bildtextgenerering, kallad textvillkorad semantisk uppmärksamhet, som gör det möjligt för bildgeneratorn att automatiskt lära sig vilka delar av bildfunktionen som ska fokusera på tidigare genererad text. För att få textrelaterade bildfunktioner för vår uppmärksamhetsmodell, förbättrar vi också den vägledande Long Short-Term Memory (gLSTM) strukturen genom att bakåtförstärka träningsförlusten genom semantisk vägledning för att finjustera CNN-vikterna. I motsats till befintliga gLSTM-metoder, såsom emb-gLSTM, gör vår finjusterade modell att vägledningsinformationen blir mer textrelaterad. Detta möjliggör också gemensamt lärande av bilden inbäddning, text inbäddning, semantisk uppmärksamhet och språkmodell med en enkel nätverksarkitektur på ett end-to-end sätt. Vi implementerar vår modell baserad på NeuralTalk2, en öppen källkod bildtextionsgenerator, och testa den på MSCOCO dataset. Vi utvärderar den föreslagna metoden med tre mått: BLEU, METEOR och CIDER. De föreslagna metoderna överträffar de senaste metoderna. | Zhou m.fl. I REF föreslogs en textvillkorad uppmärksamhetsmekanism som gör det möjligt för bildgeneratorn att fokusera på vissa bildfunktioner som bygger på tidigare genererade texter. | 15,099,361 | Image Caption Generation with Text-Conditional Semantic Attention | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 8,315 |
Videosammanfattning syftar till att underlätta storskalig videosurfning genom att producera korta, koncisa sammanfattningar som är olika och representativa för originalvideor. I detta dokument formulerar vi videosammanfattning som en sekventiell beslutsprocess och utvecklar ett djupsammanfattningsnätverk (DSN) för att sammanfatta videor. DSN förutsäger för varje videoram en sannolikhet, som anger hur troligt en bild är vald, och sedan vidtar åtgärder baserade på sannolikhetsfördelningen för att välja ramar, bildar videosammanfattningar. För att utbilda vår DSN föreslår vi en end-to-end, förstärkt inlärningsbaserad ram, där vi utformar en ny belöningsfunktion som tillsammans står för mångfald och representativitet av genererade sammanfattningar och inte förlitar sig på etiketter eller användarinteraktioner alls. Under utbildningen bedömer belöningsfunktionen hur olika och representativa de genererade sammanfattningarna är, medan DSN strävar efter att tjäna högre belöningar genom att lära sig att producera mer varierande och mer representativa sammanfattningar. Eftersom etiketter inte krävs kan vår metod vara helt oövervakad. Omfattande experiment på två referensdatauppsättningar visar att vår oövervakade metod inte bara överträffar andra moderna oövervakade metoder, utan också är jämförbar med eller till och med överlägsen än de flesta publicerade övervakade metoder. | REF formulerar videosammanfattning som en sekventiell beslutsprocess och utvecklar ett djupsammanfattningsnätverk som lär sig att producera olika och representativa videosammanfattningar via förstärkningslärande och en ny belöningsfunktion. | 19,236,954 | Deep Reinforcement Learning for Unsupervised Video Summarization with Diversity-Representativeness Reward | {'venue': None, 'journal': 'arXiv: Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 8,316 |
Abstract-Recently, Det har funnits stort intresse för att behandla skyline frågor för olika program som inkluderar beslutsfattande, personliga tjänster, och söka beskärning. Skyline frågor syftar till att beskära ett sökutrymme av ett stort antal flerdimensionella dataobjekt till en liten uppsättning intressanta objekt genom att eliminera objekt som domineras av andra. Befintliga skylinealgoritmer förutsätter att alla dimensioner är tillgängliga för alla dataobjekt. Detta dokument går längre än detta restriktiva antagande eftersom vi tar itu med det mer praktiska fallet med att inkludera ofullständiga dataelement (dvs. dataelement som saknar värden i vissa av sina dimensioner). I motsats till fallet med fullständig data där dominansförhållandet är transitiv, ofullständig data lider av icke-transitiv dominans relation som kan leda till en cyklisk dominans beteende. Vi föreslår först två algoritmer, nämligen "Replacement" och "Bucket" som använder traditionella skylinealgoritmer för ofullständiga data. Sedan föreslår vi den "ISkyline"-algoritm som är särskilt utformad för fall av ofullständiga data. "ISkyline" algoritmen använder två optimeringstekniker, nämligen virtuella punkter och skugghimlen för att tolerera cykliska dominansrelationer. Experimentella bevis visar att "ISkyline"-algoritmen avsevärt överträffar variationer av traditionella skylinealgoritmer. | I REF fokuserade författarna på de dataelement som har ofullständiga data. | 8,618,944 | Skyline Query Processing for Incomplete Data | {'venue': '2008 IEEE 24th International Conference on Data Engineering', 'journal': '2008 IEEE 24th International Conference on Data Engineering', 'mag_field_of_study': ['Computer Science']} | 8,317 |
Abstract-Recent civila luftburna plattformar tillverkas med hjälp av Integrated Modular Avionics (IMA). IMA främjar både att exekverings- och kommunikationsresurserna delas av avioniktillämpningarna. Designar efter IMA minska vikten av avionik utrustning och förbättra hela systemet skalbarhet. Priset att betala för dessa förmåner är dock en ökning av systemets komplexitet, vilket utlöser en utmanande systemintegrationsprocess. Centralt för detta integrationssteg är timingskraven för avionikapplikationer: systemintegratören måste hitta en kartläggning av applikationer och kommunikationer om den tillgängliga målarkitekturen (bearbetningsmoduler, nätverk, etc.) t.ex. end-to-end-fördröjningsbegränsningarna uppfylls. Dessa utmaningar understryker behovet av ett verktyg som kan utvärdera olika integrationsval i IMA:s tidiga utformningsfas. I detta dokument presenterar och formaliserar vi problemet med rumslig och tidsmässig integration av ett IMA-system. Sedan fokuserar vi på problemet med tidstilldelning som är avgörande för att säkerställa ett korrekt beteende i rätt tid i systemet. Två huvudegenskaper presenteras för att säkerställa perfekt dataöverföring för hårda realtidsflöden. För att kvantifiera kvaliteten på en uppsättning giltiga tidstilldelningar definieras kriterier för CPM-användning och kommunikationsförmåga. Vi visar på ett exempel att båda kriterierna är antagonistiska och att de kan utnyttjas för att välja en tilldelning som antingen förbättrar systemets datorprestanda eller nätverkets robusthet. | Dessutom används kriterier för CPM-användning och kommunikation robusthet prestanda för att kvantifiera kvaliteten på en uppsättning giltiga tidstilldelningar REF. | 13,986,566 | Managing temporal allocation in Integrated Modular Avionics | {'venue': 'Proceedings of the 2014 IEEE Emerging Technology and Factory Automation (ETFA)', 'journal': 'Proceedings of the 2014 IEEE Emerging Technology and Factory Automation (ETFA)', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 8,318 |
Abstrakt. Hur kan mikrobloggande aktiviteter på Twitter utnyttjas för användarmodellering och personalisering? I detta dokument undersöker vi denna fråga och inför ett ramverk för användarmodellering på Twitter som berikar semantiken hos Twitter-meddelanden (tweets) och identifierar ämnen och enheter (t.ex. personer, evenemang, produkter) som nämns i tweets. Vi analyserar hur strategier för att bygga hashtag-baserade, enhet-baserade eller ämne-baserade användarprofiler drar nytta av semantisk berikning och utforska temporal dynamik av dessa profiler. Vi mäter och jämför ytterligare prestandan hos användarmodelleringsstrategierna i samband med ett personligt nyhetsrekommendationsystem. Våra resultat visar hur semantisk berikning ökar variationen och kvaliteten på de genererade användarprofilerna. Vidare ser vi hur de olika användarmodelleringsstrategierna påverkar personaliseringen och upptäcker att beaktandet av tidsmässiga profilmönster kan förbättra rekommendationskvaliteten. | Särskilt Abel et al. REF föreslog en ram för användarmodellering på Twitter som berikar semantiken i Twitter-meddelanden (tweets) och identifierar ämnen och enheter (t.ex. person, evenemang, produkter) som nämns i tweets och konstruerar hashtag-baserade, enhetsbaserade eller ämnesbaserade användarprofiler. | 1,237,949 | Analyzing User Modeling on Twitter for Personalized News Recommendations | {'venue': 'IN: INTERNATIONAL CONFERENCE ON USER MODELING, ADAPTATION AND PERSONALIZATION (UMAP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,319 |
Sammanhang: Befintliga fellokaliseringstekniker kombinerar olika programfunktioner och likhetskoefficienter med målet att exakt bedöma likheterna mellan de dynamiska spektra av dessa programfunktioner för att förutsäga var felen finns. Många sådana tekniker uppskattar sannolikheten för en viss programfunktion som orsakar de observerade felen. De ignorerar ofta det buller som införs av andra funktioner på samma uppsättning avrättningar som kan leda till de observerade misslyckanden. Det är oklart i vilken utsträckning sådant buller kan lindras. Mål: Syftet med detta dokument är att utveckla en ram som minskar bullret vid felrelaterade korrelationsmätningar. Vi utvecklar en fellokaliseringsram som använder kedjor av viktiga basblock som programfunktioner och en bullerreducerande metodik för att förbättra likhetskoefficienterna för fellokaliseringstekniker. Vi utvärderar vårt ramverk på fem bastekniker med hjälp av fem medelstora program i verkligheten inom olika tillämpningsområden. Vi genomför också en fallstudie på ämnen med flera fel. Resultat: Det experimentella resultatet visar att de syntetiserade teknikerna är mer effektiva än sina bastekniker med nästan 10%. Dessutom är deras runtime overhead-faktorer för att samla in de nödvändiga funktionsvärdena praktiska. Fallstudien visar också att de syntetiserade teknikerna fungerar bra på personer med flera fel. Vi drar slutsatsen att den föreslagna ramen har en betydande och positiv effekt när det gäller att förbättra effektiviteten hos motsvarande basteknik. | Xu och al. REF utvecklar en ram för bullerminskning för lokalisering av fel. | 16,136,246 | A General Noise-Reduction Framework for Fault Localization of Java Programs | {'venue': 'INFORMATION AND SOFTWARE TECHNOLOGY', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,320 |
Inom området online-reklam, vårt mål är att tjäna den bästa annonsen till en användare som besöker en viss webbplats, för att maximera chansen för en önskad åtgärd som ska utföras av denna användare efter att ha sett annonsen. Även om det är möjligt att generera en annan förutsägelse modell för varje användare att berätta om han / hon kommer att agera på en viss annons, den förutsägelse resultatet typiskt kommer att vara ganska opålitlig med enorma varians, eftersom de önskade åtgärderna är extremt sparsamma, och uppsättningen användare är enorm (hundratals miljoner) och extremt volatila, dvs, en hel del nya användare införs varje dag, eller är inte längre giltiga. I detta dokument strävar vi efter att förbättra noggrannheten i att hitta användare som kommer att utföra den önskade åtgärden, genom att tilldela varje användare till ett kluster, där antalet kluster är mycket mindre än antalet användare (i storleksordningen hundratals). Varje användare kommer att falla i samma kluster med en annan användare om deras händelsehistorik är liknande. För detta ändamål modifierar vi den probabilistiska latent semantiska analysmodellen (pLSA) genom att anta användarens och klustrets oberoende, med tanke på händelsernas historia. Detta antagande hjälper oss att identifiera ett kluster av en ny användare utan att återklustra alla användare. Vi presenterar detaljerna i algoritmen vi använde samt den distribuerade implementeringen på Hadoop, och några inledande resultat på de kluster som genererades av algoritmen. | En probabilistisk latent semantisk analys ämne modellering teknik för att bygga kluster av användare för online-reklam har presenterats i REF. | 15,189,934 | User Clustering in Online Advertising via Topic Models | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 8,321 |
Sammanhangskänsliga pekaranalysalgoritmer med full "tunga kloning" är kraftfulla men anses allmänt vara för dyra för att inkludera i produktionskompilatorer. Detta dokument visar för första gången att en kontextkänslig, fältkänslig algoritm med full högkloning (genom acykliska samtalsvägar) verkligen kan vara både skalbar och extremt snabb i praktiken. Totalt, algoritmen kan analysera program i intervallet 100K-200K linjer av C-kod i 1-3 sekunder, tar mindre än 5% av den tid det tar för GCC att sammanställa koden (som inte innehåller någon hel-programanalys), och skalar väl över fem storleksordningar av kodstorlek. Den kan också analysera Linuxkärnan (ca 355K kodrader) på 3,1 sekunder. Papperet beskriver de stora algoritmiska och tekniska designval som krävs för att uppnå dessa resultat, inklusive (a) använda flöde-okänslig och enande-baserad analys, som är nödvändiga för att undvika exponentiellt beteende i praktiken; (b) offra kontext-känslighet inom starkt anslutna komponenter i anropsgrafen; och (c) noggrant eliminera flera typer av O(N 2 ) beteenden (i stort sett utan att påverka precision). De tekniker som används för (b) och (c) eliminerade flera stora flaskhalsar för skalbarhet, och båda kan generaliseras till andra kontextkänsliga algoritmer. Vi visar att de tekniska valen tillsammans minskar analystiden med upp till 3x-21x i våra tio största program, och att besparingarna växer kraftigt med programmets storlek. Slutligen sammanfattar vi kortfattat resultaten som visar hur exakt analysen är. | DSA REF representerar en Steensgarrds enhetsbaserad pekaranalys med full högkloning. | 7,806,385 | Making context-sensitive points-to analysis with heap cloning practical for the real world | {'venue': "PLDI '07", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,322 |
I detta dokument föreslår vi en statisk schemaläggningsalgoritm för tilldelning av uppgiftsgrafer till fullt anslutna multiprocessorer. Vi diskuterar sex nyligen rapporterade schemaläggningsalgoritmer och visar att de har en nackdel eller en annan som kan leda till dålig prestanda. Den föreslagna algoritmen, som kallas Dynamic Critical-Path (DCP) schemaläggningsalgoritm, skiljer sig från de tidigare föreslagna algoritmerna på ett antal sätt. Först bestämmer den den kritiska sökvägen för aktivitetsgrafen och väljer nästa nod som ska schemaläggas på ett dynamiskt sätt. För det andra omorganiserar det schemat på varje processor dynamiskt i den meningen att positionerna för noderna i de partiella scheman inte är fasta förrän alla noder har beaktats. För det tredje väljer det en lämplig processor för en nod genom att se framåt de potentiella starttiderna för de återstående noderna på den processorn, och schemalägger relativt mindre viktiga noder till processorer som redan används. En global och en parvis jämförelse görs för alla sju algoritmer under olika schemaläggningsförhållanden. DCP-algoritmen överträffar de tidigare algoritmerna med stor marginal. Trots att DCP-algoritmen har ett antal nya funktioner har den tillåtliga tids komplexiteten, är ekonomisk i fråga om antalet processorer som används och är lämplig för ett brett spektrum av grafstrukturer. | I REF föreslås algoritmen Dynamic Critical Path (DCP). | 893,089 | Dynamic Critical-Path Scheduling: An Effective Technique for Allocating Task Graphs to Multiprocessors | {'venue': 'IEEE TRANSACTIONS ON PARALLEL AND DISTRIBUTED SYSTEMS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,323 |
Vi studerar problemet med att söka på data som krypteras med hjälp av ett offentligt nyckelsystem. Överväg användare Bob som skickar e-post till användaren Alice krypterad under Alice offentliga nyckel. En e-postgateway vill testa om e-postmeddelandet innehåller nyckelordet "brådskande" så att det kan dirigera e-postmeddelandet i enlighet med detta. Alice, å andra sidan vill inte ge porten förmågan att dekryptera alla hennes meddelanden. Vi definierar och konstruerar en mekanism som gör det möjligt för Alice att ge en nyckel till porten som gör det möjligt för porten att testa om ordet "brådskande" är ett nyckelord i e-postmeddelandet utan att lära sig något annat om e-postmeddelandet. Vi hänvisar till denna mekanism som Public Key Kryptering med nyckelord Sök. Som ett annat exempel, överväga en e-postserver som lagrar olika meddelanden offentligt krypterade för Alice av andra. Med hjälp av vår mekanism Alice kan skicka e-postservern en nyckel som gör det möjligt för servern att identifiera alla meddelanden som innehåller några specifika sökord, men lära sig inget annat. Vi definierar begreppet allmän nyckelkryptering med sökordssökning och ger flera konstruktioner. | Tidigt arbete med sökbara krypteringsscenarier integrerade den allmänna nyckeln kryptering med sökordssökning (PEKS) system REF. | 929,338 | Public Key Encryption with Keyword Search | {'venue': 'EUROCRYPT', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,324 |
Abstract —Effektiv programplanering är avgörande för att uppnå hög prestanda i heterogena datormiljöer. Problemen med programplanering har visat sig vara NP-kompletterade både i allmänna fall och i flera begränsade fall. På grund av dess centrala betydelse har detta problem studerats i stor utsträckning och olika algoritmer har föreslagits i litteraturen som främst är för system med homogena processorer. Även om det finns några algoritmer i litteraturen för heterogena processorer, kräver de vanligtvis betydligt höga schemaläggningskostnader och de kanske inte levererar bra kvalitetsscheman med lägre kostnader. I detta dokument presenterar vi två nya schemaläggningsalgoritmer för ett begränsat antal heterogena processorer med målet att samtidigt uppfylla hög prestanda och snabb schemaläggningstid, som kallas den heterogena Earliest-Finish-Time-algoritmen (HEFT) och den kritiska-path-on-a-Processor-algoritmen (CPOP). HEFT-algoritmen väljer uppgiften med det högsta uppåtgående rankvärdet vid varje steg och tilldelar den valda uppgiften till processorn, vilket minimerar dess tidigaste sluttid med en insättningsbaserad metod. Å andra sidan använder CPOP-algoritmen summan av värden uppåt och nedåt för att prioritera uppgifter. En annan skillnad är i processorn urvalsfasen, som schemalägger de kritiska uppgifterna på processorn som minimerar den totala genomförandetiden för de kritiska uppgifterna. För att ge en robust och objektiv jämförelse med det relaterade arbetet, var en parametrisk grafgenerator utformad för att generera viktade riktade acykliska grafer med olika egenskaper. Jämförelsestudien, baserad både på slumpmässigt genererade grafer och graferna i vissa verkliga applikationer, visar att våra schemaläggningsalgoritmer avsevärt överträffar tidigare tillvägagångssätt både när det gäller kvalitet och kostnad för scheman, som huvudsakligen presenteras med schemalängd, upphastighet, frekvens av bästa resultat, och genomsnittliga schemaläggningstidsmått. | För schemaläggning av heterogena processelement används den heterogena Earliest Finish Time (HEFT) algoritmen REF. | 17,773,509 | Performance-Effective and Low-Complexity Task Scheduling for Heterogeneous Computing | {'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,325 |
Ett ökande antal databasapplikationer idag kräver sofistikerade ungefärliga strängmatchningsmöjligheter. Exempel på sådana tillämpningsområden är dataintegration och datarengöring. Cosinus likhet har visat sig vara en robust metriska för att poängsätta likheten mellan två strängar, och det används allt mer i komplexa frågor. En omedelbar utmaning för nuvarande databasoptimatorer är att hitta korrekta och effektiva metoder för att uppskatta selektiviteten hos cosinuslikviditetsgrundämnen. Såvitt vi vet finns det inga kända metoder för detta problem. I detta dokument presenterar vi den första metoden för att uppskatta selektiviteten hos tf.idf-baserade cosinuslikviditetsgrunder. Vi utvärderar vår strategi på tre olika verkliga dataset och visar att vår metod ofta producerar uppskattningar som ligger inom 40 % av den faktiska selektiviteten. | En annan metod för selektivitetsbedömning av TF/IDF baserad ungefärlig strängmatchning visas i REF. | 13,865,010 | Estimating the selectivity of tf-idf based cosine similarity predicates | {'venue': 'SGMD', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,326 |
Vi föreslår och utvärderar en energieffektiv schemaläggningsalgoritm för upptäckt av mobila mål i trådlösa sensornätverk. Vi överväger en miljö där sensorerna är utplacerade för både vägövervakning och mobil målspårning. Ett typiskt exempel skulle vara där vissa sensorer används längs infartsvägarna i en stad för att upptäcka de fordon som kommer in i staden och andra sensorer kan vakna upp och spåra fordonen efter upptäckt. Vi visar ett viktigt samband mellan den totala energi som förbrukas av sensorerna och den genomsnittliga detekteringstiden för ett mål, som båda är mycket kritiska aspekter i vårt problem. I detta syfte definierar vi kvaliteten på övervakningen (QoSv) som det ömsesidiga värdet av den genomsnittliga detekteringstiden för fordon. Vi föreslår en optimal schemaläggningsalgoritm som garanterar upptäckt av varje mål med angiven QoSv och samtidigt minimerar den totala energi som förbrukas av sensornoder. Genom att minimera den energi som förbrukas maximerar vi sensornätverkets livslängd. Dessutom, tillsammans med kvaliteten på övervakningsgarantin, ser vi till att inget mål inte upptäcks. Vi tar teoretiskt fram den övre gränsen på livslängden för sensornätverket för en given QoSv-garanti och bevisar att vår metod alltid kan uppnå denna övre gräns. Våra simuleringsresultat validerar de påståenden som gjorts om algoritmens optimalitet och QoSv-garanti. | Jeong m.fl. definierade QoSv som det ömsesidiga värdet av den genomsnittliga detekteringstiden för mobila mål, och föreslog en optimal schemaläggningsalgoritm som garanterar den nödvändiga QoSv och samtidigt minimerar den totala energi som förbrukas av sensorn noderna REF. | 8,757,691 | Energy-aware scheduling with quality of surveillance guarantee in wireless sensor networks | {'venue': "DIWANS '06", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,327 |
Multivariata tidsseriedata i praktiska tillämpningar, såsom hälso- och sjukvård, geovetenskap och biologi, kännetecknas av en mängd saknade värden. I tidsseriers förutsägelse och andra relaterade uppgifter har det noterats att saknade värden och deras saknade mönster ofta korreleras med måletiketterna, t.ex. informationsfel. Det finns mycket begränsat arbete på att utnyttja de saknade mönster för effektiv imputering och förbättra förutsägelse prestanda. I detta dokument utvecklar vi nya modeller för djupt lärande, nämligen GRU-D, som ett av de tidiga försöken. GRU-D baseras på Gated Recurrent Unit (GRU), ett toppmodernt återkommande neuralt nätverk. Det tar två representationer av saknade mönster, d.v.s., maskering och tidsintervall, och effektivt införliva dem i en djup modell arkitektur så att det inte bara fångar de långsiktiga temporal beroenden i tidsserier, men också använder de saknade mönster för att uppnå bättre förutsägelse resultat. Experiment av tidsserieklassificeringsuppgifter på verkliga kliniska dataset (MIMIC-III, PhysiNet) och syntetiska dataset visar att våra modeller uppnår toppmoderna prestanda och ger användbara insikter för bättre förståelse och utnyttjande av saknade värden i tidsserieanalys. Multivariata tidsseriedata är allmänt förekommande i många praktiska tillämpningar som sträcker sig från hälso- och sjukvård, geovetenskap, astronomi, biologi och andra. De bär ofta med sig felande observationer på grund av olika orsaker, såsom medicinska händelser, kostnadsbesparingar, anomalier, olägenheter och så vidare. Det har noterats att dessa saknade värden är oftast informativ saknashet 1, dvs. de saknade värden och mönster ger rik information om måletiketter i övervakade lärande uppgifter (t.ex. tidsserie klassificering). För att illustrera denna idé visar vi några exempel från MIMIC-III 2, en verklig värld sjukvård dataset, i Bild. 1................................................................ Vi ritar Pearson korrelationskoefficienten mellan variabla saknade frekvenser, vilket indikerar hur ofta variabeln saknas i tidsserierna, och etiketterna på våra intressen, som är dödlighet och ICD-9 diagnos kategorier. Vi observerar att värdet av saknad hastighet korreleras med etiketterna, och den saknade frekvensen av variabler med låg saknad hastighet är oftast hög (antingen positiv eller negativ) korrelerad med etiketterna. Med andra ord, den saknade frekvensen av variabler för varje patient är användbar, och denna information är mer användbar för de variabler som observeras oftare i datauppsättningen. Dessa fynd visar nyttan av saknade mönster för att lösa en förutsägelse uppgift. Under de senaste årtiondena har olika metoder utvecklats för att ta itu med saknade värden i tidsserie 3. En enkel lösning är att utelämna de saknade uppgifterna och att utföra analyser endast på de observerade uppgifterna, men det ger inte bra prestanda när den saknade frekvensen är hög och otillräckliga prover hålls. En annan lösning är att fylla i de saknade värdena med substituerade värden, som kallas dataimputation. Utjämning, interpolation 4, och spline 5 metoder är enkla och effektiva, vilket allmänt tillämpas i praktiken. Dessa metoder fångar dock inte upp variabla korrelationer och får inte fånga upp komplexa mönster för att utföra imputering. En mängd imputeringsmetoder har utvecklats för att bättre uppskatta saknade data. Dessa inkluderar spektralanalys 6, kärnmetoder 7, EM algoritm 8, matris komplettering 9 och matris faktorisering 10. Multipel imputation 11,12 kan tillämpas ytterligare med dessa imputation metoder för att minska osäkerheten, genom att upprepa imputation förfarande flera gånger och medelvärde resultaten. Att kombinera imputeringsmetoder med förutsägelsemodeller resulterar ofta i en tvåstegsprocess där imputering och förutsägelsemodeller separeras. Genom att göra detta, de saknade mönster inte effektivt utforskas i förutsägelsemodellen, vilket leder till suboptimala analyser resultat 13. Dessutom har de flesta imputeringsmetoder också andra krav som kanske inte är uppfyllda i verkliga tillämpningar, till exempel arbetar många av dem med data Publicerad: xx xx xxxx OPEN www.nature.com/science reports/ 2 ScIenTIFIc RAPPORTER (2018) 8:6085 | REF:s arbete beskriver en GRU-modell (Gated Recurrent Unit) som kallas GRU-D. Den använder binära saknade indikatorer och observationstid delta som en indata och införlivar dem i GRU grindar för att kontrollera en sönderfallsfrekvens av saknade data. | 4,900,015 | Recurrent Neural Networks for Multivariate Time Series with Missing Values | {'venue': 'Scientific Reports', 'journal': 'Scientific Reports', 'mag_field_of_study': ['Mathematics', 'Medicine', 'Computer Science']} | 8,328 |
Abstrakt. Flaggningsprediktorer är en metod för att generera flera versioner av en prediktor och med hjälp av dessa för att få en aggregerad prediktor. Aggregeringsmedelvärden över versionerna när förutsäga ett numeriskt utfall och gör en plurality röst när förutsäga en klass. De flera versionerna bildas genom att göra bootstrap repliker av inlärningssetet och använda dessa som nya lärset. Tester på verkliga och simulerade datamängder med hjälp av klassificerings- och regressionsträd och delmängdsval i linjär regression visar att feltagning kan ge betydande vinster i noggrannhet. Det vitala elementet är instabiliteten i förutsägelsemetoden. Om perturbing inlärningsset kan orsaka betydande förändringar i prediktorn konstrueras, då baging kan förbättra noggrannheten. | Packning är en algoritm för att generera flera bootstraps och använda aggregering genomsnittet över alla bootstraps för att förutsäga en klass REF. | 207,738,357 | Bagging Predictors | {'venue': 'Machine Learning', 'journal': 'Machine Learning', 'mag_field_of_study': ['Computer Science']} | 8,329 |
Vi identifierar problem med Penn Treebank som gör det ofullkomligt för syntaxbaserad maskinöversättning och föreslår metoder för att ommärka syntaxträden för att förbättra översättningskvaliteten. Vi utvecklar ett system med en handfull nya märkningsstrategier som ger en statistiskt signifikant förbättring på 2,3 BLEU-poäng jämfört med ett syntaxbaserat system. | För att förbättra prestanda syntaktisk maskinöversättning, REF föreslog en metod som innehåller en handfull ommärkning strategier för att ändra syntaktiska trädstrukturer. | 6,089,287 | Relabeling Syntax Trees To Improve Syntax-Based Machine Translation Quality | {'venue': 'Human Language Technology Conference And Meeting Of The North American Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,330 |
Abstrakt. Det eXtensible Markup Language (XML) ger ett kraftfullt och flexibelt sätt att koda och utbyta data. Som det visar sig, dess främsta fördel som en kodning format (nämligen, dess krav på att alla öppna och nära markeringar är närvarande och korrekt balanserad) ger också en av sina största nackdelar: verbosity. XML-medvetna kompression tekniker försöker övervinna denna nackdel. Många av dessa tekniker separerar först XML-strukturen från dokumentinnehållet och komprimerar sedan var och en självständigt. Ytterligare komprimeringsvinster kan realiseras genom att identifiera och komprimera ihop dokumentinnehåll som är mycket likartat, vilket avskriver lagringskostnaderna för hjälpinformation som krävs av den valda komprimeringsalgoritmen. Dessutom är rätt val av komprimeringsalgoritm en viktig faktor inte bara för den uppnåeliga komprimeringsvinsten, utan också för åtkomstprestanda. Därför, att välja en komprimeringskonfiguration som optimerar komprimeringsvinsten kräver en för att bestämma (1) en partitioneringsstrategi för dokumentinnehåll, och (2) den bästa tillgängliga komprimeringsalgoritmen för att gälla för varje uppsättning inom denna partition. I detta papper visar vi att hitta en optimal komprimering konfiguration med avseende på komprimeringsvinst är ett NP-hård optimeringsproblem. Detta problem är fortfarande oåtkomligt även om man överväger en enda komprimeringsalgoritm för allt innehåll. Vi beskriver också en approximationsalgoritm för att välja en partitioneringsstrategi för dokumentinnehåll baserat på det gren-och-bundna paradigmet. | En komplexitetsanalys i REF visade dock att problemet med att välja en optimal komprimeringskonfiguration är NP-hård. | 1,586,295 | Optimizing XML Compression | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 8,331 |
Vi visar att vissa gemensamma och viktiga globala begränsningar som ALL-DIFFERENT och GCC kan brytas ner i enkla aritmetiska begränsningar där vi uppnår bundet eller intervall konsekvens, och i vissa fall ännu större beskärning. Dessa nedbrytningar kan enkelt läggas till nya lösare. De ger också andra begränsningar med tillgång till tillstånd för förökaren genom att dela variabler. En sådan fördelning kan användas för att förbättra spridningen mellan olika begränsningar. Vi rapporterar experiment med vår nedbrytning i en pseudoboolesk lösning. | Nedbrytningar av ALL-DIFFERENT i enkla aritmetiska begränsningar så att gräns- och intervallkonsistens kan uppnås föreslogs i REF. | 2,595,101 | Decompositions of All Different, Global Cardinality and Related Constraints | {'venue': 'IJCAI-2009', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,332 |
Bakgrund: Ett kritiskt resultat av metagonomiska studier är uppskattningen av överflöd av taxonomiska eller funktionella grupper. Den inneboende osäkerheten i uppdrag till dessa grupper gör det viktigt att beakta både deras hierarkiska sammanhang och deras förutsägelse tillit. De nuvarande verktygen för att visualisera metagonomiska data, dock utelämna eller snedvrida kvantitativa hierarkiska relationer och saknar möjlighet att visa sekundära variabler. Resultat: Här presenterar vi Krona, ett nytt visualiseringsverktyg som gör det möjligt att intuitivt utforska relativt överflöd och förtroende inom de komplexa hierarkierna i metagenomiska klassifikationer. Krona kombinerar en variant av radiella, rymdfyllda displayer med parametrisk färgning och interaktiv polarkoordinat zoomning. HTML5- och JavaScript-implementationen möjliggör helt interaktiva diagram som kan utforskas med alla moderna webbläsare, utan behov av installerad programvara eller plug-ins. Denna webbaserade arkitektur gör det också möjligt för varje diagram att vara ett oberoende dokument, vilket gör det enkelt att dela dem via e-post eller post till en vanlig webbserver. För att illustrera Kronas användbarhet beskriver vi dess tillämpning på olika metagenomiska datamängder och dess kompatibilitet med populära metagenomiska analysverktyg. Slutsatser: Krona är både ett kraftfullt metagonomiskt visualiseringsverktyg och en demonstration av potentialen hos HTML5 för högtillgängliga bioinformatiska visualiseringar. Dess rika och interaktiva displayer underlättar mer välinformerade tolkningar av metagenomiska analyser, samtidigt som dess implementering som en webbläsarbaserad applikation gör den extremt portabel och lätt att använda i befintliga analyspaket. Både Kronas renderingskod och konverteringsverktyg är fritt tillgängliga under en BSD-licens med öppen källkod och tillgängliga från: http://krona.sourceforge. Nät. | Krona är ett webbaserat verktyg för metagonik visualisering som ger en solbränna diagram för att navigera funktionen utrymme REF. | 945,515 | Interactive metagenomic visualization in a Web browser | {'venue': 'BMC Bioinformatics', 'journal': 'BMC Bioinformatics', 'mag_field_of_study': ['Medicine', 'Computer Science', 'Biology']} | 8,333 |
Abstract-Mobile-edge computing (MEC) har nyligen utvecklats som en framstående teknik för att frigöra mobila enheter från beräkningsintensiva arbetsbelastningar, genom att avlasta dem till den proximate MEC-servern. För att göra avlastningen effektiv måste radio- och beräkningsresurserna hanteras dynamiskt, för att klara de tidsvarierande beräkningskraven och de trådlösa blekningskanalerna. I detta dokument, utvecklar vi en online gemensam radio-och beräkningsresurshanteringsalgoritm för MEC-system med flera användare, med målet att minimera den långsiktiga genomsnittliga viktade totalförbrukningen av de mobila enheterna och MEC-servern, under förutsättning att en uppgift buffert stabilitet begränsning. Specifikt, vid varje tid slits, den optimala CPU-cykel frekvenser för de mobila enheterna erhålls i slutna former, och den optimala sändningseffekt och bandbredd allokering för beräkning offloading bestäms med Gauss-Seidel-metoden; medan för MEC-servern, både den optimala frekvensen av CPU-kärnor och den optimala MEC-server schemaläggning beslut härleds i slutna former. Dessutom föreslås en mekanism för att minska förseningen av genomförandet. Rigorös prestandaanalys utförs för den föreslagna algoritmen och dess delay-förbättrade version, vilket indikerar att den viktade summan effektförbrukning och genomförandefördröjning lyder en [O (1/V ), O (V )] kompromiss med V som en kontrollparameter. Simuleringsresultat tillhandahålls för att validera den teoretiska analysen och visa effekterna av olika parametrar. Index Terms-Mobile-edge beräkning, dynamisk spänning och frekvensskalning, radio och beräkning resurshantering, Lyapunov optimering. | Formuleringen med gemensam optimering av radio- och beräkningsresurser för MEC-system med flera användare föreslogs i REF för att minimera den långsiktiga genomsnittliga totala strömförbrukningen för MEC-servern och alla dess mobila enheter. | 14,910,649 | Stochastic Joint Radio and Computational Resource Management for Multi-User Mobile-Edge Computing Systems | {'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 8,334 |
Vi rapporterar om en modellbaserad strategi för system-programvara coengineering som är anpassad till de specifika egenskaperna hos kritiska ombordsystem för flyg- och rymdområdet. Metoden stöds av ett system-nivå Integrerad Modellering (SLIM) Språk genom vilket ingenjörer förses med praktiska sätt att beskriva nominell hårdvara och programvara drift, (probabilistiska) fel och deras spridning, fel återvinning, och försämrade driftssätt. Korrektionsegenskaper, säkerhetsgarantier och prestanda- och tillförlitlighetskrav ges med hjälp av egendomsmönster som fungerar som parameteriserade "mallar" till ingenjörerna och därmed erbjuder en begriplig och lättanvänd ram för kravspecifikation. Direkta egenskaper kontrolleras på SLIM-specifikationen med hjälp av toppmoderna formella analysmetoder såsom begränsad SAT-baserad och symbolisk modellkontroll, och probabilistiska varianter därav. Den exakta karaktären hos dessa tekniker tillsammans med den formella SLIM semantik ger en tillförlitlig modellerings- och analysram för system- och programvaruingenjörer som stödjer bland annat automatiserad härledning av dynamiska (dvs. slumpvis timade) felträd, FMEA-tabeller, bedömning av FDIR och automatiserad härledning av observerbarhetskrav. | Språket SLIM (System Level Integrated Modeling Language) utvecklades av COMPASS (Correctness, Modeling Project and Performance of Aero Space Systems) projekt för modellering av hårdvara och programvarusystem för säkerhetsrelaterade uppgifter REF. | 16,314,664 | The COMPASS Approach: Correctness, Modelling and Performability of Aerospace Systems | {'venue': 'SAFECOMP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,335 |
I den här artikeln presenterar vi en omfattande studie som syftar till att beräkna semantisk relation mellan ordpar. Vi analyserar utförandet av ett stort antal semantiska relaterade åtgärder som föreslås i litteraturen med avseende på olika experimentella förhållanden, såsom (i) de datauppsättningar som används, (ii) språket (engelska eller tyska), (iii) den underliggande kunskapskällan, och (iv) utvärderingsuppgiften (beräknar mängder av semantisk relativitet, rangordpar, lösa ordvalsproblem). Enligt vår kunskap är denna studie den första att systematiskt analysera semantisk överensstämmelse på ett stort antal datauppsättningar med olika egenskaper, samtidigt som den betonar den roll som kunskapskällan har sammanställts antingen av "lingvisternas visdom" (dvs. klassiska ordnät) eller av "folkmassornas visdom" (dvs. gemensamt konstruerade kunskapskällor som Wikipedia). Artikeln behandlar fördelar och nackdelar med olika metoder för att utvärdera semantisk tillhörighet. Vi visar att resultaten bör tolkas noggrant för att utvärdera vissa aspekter av semantisk tillhörighet. För första gången använder vi ett vektorbaserat mått på semantisk relativitet, som bygger på ett konceptutrymme byggt från dokument, till det första stycket i Wikipedia-artiklar, till engelska WordNet-glans och till GermaNet-baserade pseudoglans. Tvärtemot tidigare forskning (Strube och Ponzetto 2006; Gabrilovich och Markovitch 2007; Zesch m.fl. 2007) anser vi att "folkmassornas visdom" inte är överlägsen "lingvisternas visdom" baserad på resurser. Vi finner också att det leder till bättre precision att använda det första stycket i en Wikipedia-artikel i motsats till hela artikeln, men minskar recensenten. Slutligen presenterar vi två system som utvecklats för att hjälpa de experiment som presenteras häri och är fritt tillgängliga 1 för forskningsändamål: (i) DEXTRACT, en programvara för att halvautomatiskt konstruera corpus-drivna semantiska relaterade datauppsättningar, och (ii) JWPL, en Java-baserad högpresterande Wikipedia Application Programming Interface (API) för att bygga naturligt språkbehandling (NLP) applikationer. | Dessutom utformar REF en metod som använder lexiska resurser, i motsats till gemensamt konstruerade resurser som Wikipedia, för att mäta relationen. | 684,792 | Wisdom of crowds versus wisdom of linguists – measuring the semantic relatedness of words | {'venue': 'Nat. Lang. Eng.', 'journal': 'Nat. Lang. Eng.', 'mag_field_of_study': ['Computer Science']} | 8,336 |
Projektet OpenStreetMap (OSM), en välkänd källa till fritt tillgängliga globala geodata som samlats in av frivilliga, har upplevt en konsekvent ökning av populariteten under de senaste åren. En av de viktigaste grottorna som är nära relaterade till denna popularitetsökning är olika typer av vandalism som förekommer i projektdatabasen. Eftersom tillämpligheten och tillförlitligheten av crowd-sourced geodata, liksom framgången för hela samhället, påverkas hårt av sådana fall av vandalism, är det viktigt att motverka dessa händelser. Frågan är dock: Hur kan OSM-projektet skydda sig mot data vandalism? För att kunna ge ett sofistikerat svar på denna fråga har olika fall av vandalism i OSM-projektet analyserats i detalj. Dessutom har den nuvarande OSM-databasen och dess bidrag undersökts med hjälp av en rad olika tester baserade på andra verktyg för att upptäcka vandalism i Web 2.0. Resultaten från dessa tidigare steg användes för att utveckla ett regelbaserat system för automatisk upptäckt av vandalism i OSM. Den utvecklade prototypen ger användbar information om vandalismtyperna och deras inverkan på OSM-projektdata. | I REF tar författarna hänsyn till problemet med upptäckt av vandalism i OSM, där bidragsgivarna avsiktligt inför fel i OSM-databasen. | 15,877,870 | Towards Automatic Vandalism Detection in OpenStreetMap | {'venue': 'ISPRS Int. J. Geo-Information', 'journal': 'ISPRS Int. J. Geo-Information', 'mag_field_of_study': ['Computer Science']} | 8,337 |
Semantiska 3D-modeller av byggnader kodar geometrin samt identiteten på nyckelkomponenter i en anläggning, såsom väggar, golv och tak. Att manuellt konstruera en sådan modell är en tidskrävande och felbenägen process. Vårt mål är att automatisera denna process med hjälp av 3D-punktdata från en laserscanner. Vår hypotes är att kontextuell information är viktig för tillförlitlig prestanda i omodifierade miljöer, som ofta är mycket belamrade. Vi använder en Conditional Random Field (CRF) modell för att upptäcka och utnyttja kontextuell information, klassificera planar patchar extraherade från punktmolnsdata. Vi jämför resultaten av vår kontextbaserade CRF-algoritm med en kontextfri metod baserad på L 2 norm legaliserad Logistik Regression (RRR). Vi finner att användningen av viss kontextuell information tillsammans med lokala funktioner leder till bättre klassificeringsresultat. | Xiong och Huber REF införde en Conditional Random Field (CRF) modell för att klassificera en 3D scen planar patcher genom att använda både lokala funktioner och geometriska sammanhang. | 2,346,257 | Using context to create semantic 3d models of indoor environments | {'venue': 'in BMVC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,338 |
Salient objektdetektion har nyligen bevittnat betydande framsteg på grund av kraftfulla funktioner extraheras med hjälp av djupa konvolutionella neurala nätverk (CNN). Befintliga CNN-baserade metoder fungerar dock på patchnivå istället för pixelnivå. Resultatet är vanligtvis suddigt, särskilt nära gränsen för framträdande objekt. Dessutom behandlas bildlappar som oberoende prover även när de överlappar varandra, vilket ger upphov till betydande redundans i beräkning och lagring. I detta dokument föreslår vi ett heltäckande nätverk av djupa kontraster för att övervinna de ovan nämnda begränsningarna. Vårt djupa nätverk består av två kompletterande komponenter, en pixel-nivå helt konvolutionell ström och en segmentvis rumslig pooling ström. Den första strömmen producerar direkt en solid karta med pixelnivå noggrannhet från en ingångsbild. Den andra strömmen extraherar segmentmässigt har mycket effektivt, och bättre modeller Saliency diskontinuities längs objektgränser. Slutligen kan en fullt ansluten CRF-modell eventuellt införlivas för att förbättra den rumsliga sammanhållningen och konturlokaliseringen i de sammanslagna resultaten från dessa två strömmar. Experimentella resultat visar att vår djupa modell avsevärt förbättrar den senaste tekniken. | Sedan föreslår de en djup kontrast nätverk för att kombinera en pixel-nivå ström och segmentvis ström för saliency uppskattning REF. | 6,116,678 | Deep Contrast Learning for Salient Object Detection | {'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 8,339 |
Syfte: I denna studie försökte man fastställa om tankestörning som inducerats hos friska frivilliga med N-metyl-D-asparaginsyra (NMDA) -receptorantagonisten ketamin liknar den tankestörning som finns hos patienter med schizofreni. Metod: Skalan för bedömning av tankar, språk och kommunikation användes för att bedöma tankestörning hos friska frivilliga (N=10) som fick subestetiska doser av ketamin och i en grupp kliniskt stabila slutna patienter med schizofreni (N=15) som inte fick ketamin. Resultat: Medelpoängen på skalan för bedömning av tankar, språk och kommunikation för patienter med schizofreni och friska frivilliga som fick ketamin skilde sig inte signifikant. Dessutom var tre av de fyra högst rankade testpunkterna i båda grupperna desamma. Slutsatser: Dessa data tyder på att ketamininducerad tankestörning hos friska frivilliga inte är olik tankestörningen hos patienter med schizofreni och ger stöd för NMDA-receptorns inblandning i ett kardinalsymtom på schizofreni. (Am J Psychiatry 1999; 156:1646-1649) Flera bevislinjer tyder på att receptorn glutamaterg N-metyl-D-asparaginsyra (NMDA) är involverad i schizofrenins patofysiologi. Studier efter slakt har visat en lägre densitet av glutamaterga receptorer hos patienter med schizofreni och i en studie av CSF rapporterades lägre nivåer av glutamat hos patienter med schizofreni än hos friska försökspersoner (1-3). Det mest övertygande beviset är de psykotomimetiska effekterna av NMDA-antagonisterna fencyklidin (PCP) och ketamin. Hos patienter med schizofreni förvärrar administrering av PCP och ketamin existerande psykotiska symtom och kan återaktivera symtom vid överföring (4- 6). Administrering av PCP eller ketamin till friska frivilliga reproducerar många av symtomen på schizofreni, inklusive aspekter av formella tankestörningar (4, 7, 8). Eftersom effekterna av ketamin liknar många av de kliniska egenskaperna hos schizofreni, har detta ketamininducerade beteendesyndrom föreslagits som modell för schizofreni. Icke desto mindre har få direkta jämförelser gjorts mellan tankestörningen vid schizofreni och den tankestörning som inducerats av NMDA-antagonister. Ketamininducerad tankestörning har primärt utvärderats med Brief Psychiatric Rating Scale (BPRS) (9). Vi har funnit att BPRS begreppsmässigt disorganisering objekt påverkas avsevärt av administreringen av ketamin (7). Krystal m.fl. (8) rapporterade också en markant ketamineffekt på BPRS:s tankestörningsfaktor, som innehåller den begreppsmässiga disorganiseringsartikeln. Många element av formella tankestörningar är dock dåligt mätta av BPRS. Nyligen fann vi att administreringen av ketamin till friska frivilliga avsevärt ökar poäng på skalan för bedömning av tankar, språk och kommunikation (10). Scale for the Assessment of Thought, Language, and Communication är en klinisk, intervjubaserad bedömning av tankestörning (11) som har använts för att bedöma tankestörning i studier av flera psykiatriska diagnoser och tillstånd (12-17). Skalan för bedömning av tankar, språk och kommunikation ger en mer omfattande utvärdering av tankestörningar än BPRS och tillåter en undersökning av subfaktorer (18) som behandlar aspekter av tankestörningar. I denna studie använde vi skalan för bedömning av tankar, språk och kommunikation för att jämföra | Men vanliga kliniska symptom bedömning instrument eller skalor, såsom Brief Psychiatric Rating Scale (BPRS) dåligt fånga många delar av FTD REF. | 16,699,603 | Comparison of Ketamine-Induced Thought Disorder in Healthy Volunteers and Thought Disorder in Schizophrenia | {'venue': 'The American journal of psychiatry', 'journal': 'The American journal of psychiatry', 'mag_field_of_study': ['Psychology', 'Medicine']} | 8,340 |
I detta dokument presenteras ett system för hög nyttolastvattenmärkning för högeffektiv videokodning (HEVC). HEVC är en framväxande videokomprimering standard som ger bättre komprimering prestanda jämfört med sin föregångare, dvs.. H.264/AVC. Ordförande Med tanke på att HEVC kan användas i en mängd olika tillämpningar i framtiden, har den föreslagna algoritmen en hög potential för användning i tillämpningar som innefattar utsändning och döljande av metadata. Vattenmärket är inbäddat i Quantized Transform Koefficienter (QTC) under kodningsprocessen. Senare, under avkodningsprocessen, kan det inbyggda meddelandet upptäckas och extraheras helt. De experimentella resultaten visar att den föreslagna algoritmen inte signifikant påverkar videokvaliteten, inte heller eskalerar den bitrate. Citering: Swati S, Hayat K, Shahid Z (2014) Vattenmärkningsprogram för högeffektiv videokodning (HEVC). PLOS ONE 9(8): e105613. | Nyligen, Swati et. al., föreslog ett system för vattenmärkning för HEVC Ref. | 2,706,192 | A Watermarking Scheme for High Efficiency Video Coding (HEVC) | {'venue': 'PLoS ONE', 'journal': 'PLoS ONE', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 8,341 |
Abstrakt. Nuvarande metoder för finkornig igenkänning gör följande: För det första rekrytera experter för att kommentera en datauppsättning bilder, valfritt också samla in mer strukturerade data i form av del annoteringar och avgränsande rutor. För det andra, träna en modell som använder denna data. Mot målet att lösa finkornig igenkänning, introducerar vi en alternativ strategi, utnyttja gratis, bullriga data från webben och enkla, generiska metoder för igenkänning. Detta tillvägagångssätt har fördelar i både prestanda och skalbarhet. Vi demonstrerar dess effektivitet på fyra finkorniga dataset, som i hög grad överträffar befintliga toppmoderna utan manuell insamling av även en enda etikett, och dessutom visar de första resultaten vid skalning till mer än 10 000 finkorniga kategorier. Kvantitativt uppnår vi topp 1-säkerheter på 92,3% på CUB-200-2011, 85,4% på Birdsnap, 93,4% på FGVC-Aircraft och 80,8% på Stanford Dogs utan att använda sina kommenterade träningsset. Vi jämför vårt tillvägagångssätt med ett aktivt lärande för att utöka finkorniga dataset. | Krause m.fl. REF använder bullriga träningsdata i samband med finkornig klassificering. | 15,080,437 | The Unreasonable Effectiveness of Noisy Data for Fine-Grained Recognition | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 8,342 |
Abstrakt. Virtualiseringsteknik har blivit vanligt förekommande i moderna datacenter och klustersystem, ofta kallade "computing clouds". Framför allt ger den virtuella maskinens (VM) migration flera fördelar såsom högre prestanda, förbättrad hanterbarhet och feltolerans. Dessutom tillåter livemigrering av virtuella maskiner ofta arbetsbelastningsrörelser med en kort driftstoppstid. Det är dock troligt att servicenivån för program som körs kommer att påverkas negativt under en livemigrering av virtuella maskiner. Därför är en bättre förståelse av dess effekter på systemets prestanda mycket önskvärd. I det här dokumentet presenterar vi en prestandautvärdering av effekterna av livemigrering av virtuella maskiner på prestandan hos applikationer som körs inuti virtuella datorer i Xen. Resultaten visar att det i de flesta fall är acceptabelt men inte går att bortse från migreringen, särskilt i system där tjänstetillgänglighet och lyhördhet styrs av strikta servicenivåavtal. Trots det finns det en stor potential för levande migration tillämplighet i datacenter som betjänar företagsklass Internet applikationer. Våra resultat är baserade på en arbetsbörda bestående av en verklig applikation, som täcker domänen för multi-tier Web 2.0-applikationer. | William och Al. REF utvärderade prestandanedbrytningen av Web2.0-program som körs inuti virtuella maskiner medan de migrerades. | 8,574,268 | Cost of Virtual Machine Live Migration in Clouds: A Performance Evaluation | {'venue': 'CloudCom', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,343 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.