src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
Utbildning av storskaliga djupa neurala nätverk begränsas ofta av tillgängliga beräkningsresurser. Vi studerar effekten av begränsad precision data representation och beräkning på neurala nätverk utbildning. Inom ramen för låga precisionsberäkningar, observerar vi avrundningsschemat för att spela en avgörande roll för att bestämma nätverkets beteende under utbildningen. Våra resultat visar att djupa nätverk kan tränas med endast 16-bitars bred fast punkt nummer representation när du använder stokastisk avrundning, och medför lite till ingen försämring i klassificeringen noggrannhet. Vi demonstrerar också en energieffektiv hårdvaruaccelerator som implementerar låg precision fast punkt aritmetik med stokastisk avrundning. | Maskinvaruimplementeringen av en DNN begränsas alltid av tillgängliga beräkningsresurser REF. | 2,547,043 | Deep Learning with Limited Numerical Precision | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 78,982 |
Obemannade luftfartyg förväntas användas i stor utsträckning i framtida trådlös kommunikation på grund av fördelarna med hög rörlighet och enkel användning. De trådlösa kanalerna för sändning till mark för med sig en ny utmaning för informationssäkerheten i UAV-markkommunikationen. Detta dokument tar itu med en sådan utmaning i det fysiska skiktet genom att utnyttja rörligheten för UAV via sin bana design. Vi anser att en UAV-mark kommunikationssystem med flera potentiella tjuvlyssnare på marken, där informationen om platserna för tjuvlyssnare är ofullständig. Vi formulerar ett optimeringsproblem, som maximerar den genomsnittliga värsta fall sekretessen i systemet genom att gemensamt utforma den robusta banan och överföra kraft UAV under en given flygtid. Optimeringsproblemets icke konvexitet och den bristfälliga lokaliseringsinformationen för tjuvlyssnarna gör det svårt att lösa problemet på ett optimalt sätt. Vi föreslår en iterativ suboptimal algoritm för att lösa detta problem effektivt genom att tillämpa blockkoordinatmetoden, S-proceduren och successiv konvex optimeringsmetod. Simuleringsresultat visar att den föreslagna algoritmen kan förbättra den genomsnittliga värsta fallsekretessen avsevärt, jämfört med två andra referensalgoritmer utan robust design. Index Terms-UAV kommunikation, fysisk lagersäkerhet, banoptimering, strömkontroll, robust design. | Genom att beakta ofullständig information om tjuvlyssnarnas platser undersökte författarna i REF ett kommunikationssystem för UAV-mark med flera potentiella tjuvlyssnare på marken. | 49,301,058 | Robust Trajectory and Transmit Power Design for Secure UAV Communications | {'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 78,983 |
Clustering under mest populära objektiva funktioner är NP-hård, även att approximera väl, och så osannolikt att vara effektivt lösbar i värsta fall. Nyligen föreslog Bilu och Linial [11] ett tillvägagångssätt som syftar till att kringgå denna beräkningsbarriär genom att använda egenskaper hos fall som man kan hoppas kunna hålla i praktiken. I synnerhet hävdar de att fall i praktiken bör vara stabila till små perturbationer i det metriska utrymmet och ge en effektiv algoritm för kluster fall av Max-Cut problem som är stabila till perturbationer av storlek O(n 1/2 ). Dessutom antar de att fall stabila till så lite som O(1) perturbationer bör vara lösliga i polynom tid. I detta papper bevisar vi att detta antagande är sant för alla center-baserade klustering mål (såsom k-median, k-medel, och k-center). Specifikt visar vi att vi effektivt kan hitta den optimala klusterbildningen förutsatt att endast stabilitet till faktor-3 perturbationer av den underliggande metriska i utrymmen utan Steiner punkter, och stabilitet till faktor 2 + 3 perturbationer för allmänna mätvärden. I synnerhet visar vi för sådana fall att den populära Single-Linkage algoritmen i kombination med dynamisk programmering kommer att hitta den optimala klusterbildningen. Vi presenterar även NP-hårdhet resultat under ett svagare men relaterat tillstånd. | Awasthi och Al. REF studerade α-perturbation resiliens under centerbaserade klustermål (som inkluderar k-median, k-medelvärden och k-centerklustring samt andra mål) och visade en algoritm för att optimalt lösa 3-perturbationsresilienta fall. | 2,870,931 | Center-based Clustering under Perturbation Stability | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 78,984 |
Vi introducerar ett begrepp om universalitet i samband med optimeringsproblem med partiell information. Universalitet är en ram för att hantera osäkerhet genom att garantera en viss godhetskvalitet för alla möjliga kompletteringar av den partiella informationen. Universala varianter av optimeringsproblem kan definieras som är både naturliga och välmotiverade. Vi överväger universella versioner av tre klassiska problem: TSP, Steiner Tree och Set Cover. Vi presenterar en polynom-tidsalgoritm för att hitta en universell tur på en given metriska utrymme över och hörn så att för varje delmängd av hörnen, den sub-tur som induceras av delmängd är inom Ç" — Ó —Ó — Ó till μ av en optimal tur för delmängd. På samma sätt visar vi att med tanke på ett metriska utrymme över hörn och en rot vertex, kan vi hitta ett universellt spänne träd så att för varje delmängd av hörn som innehåller roten, delträdet som induceras av delmängd är inom Ç ́ —Ó —Ó — — Ó till μ av en optimal Steiner träd för delmängd. Våra algoritmer förlitar sig på en ny uppfattning om glesa partitioner, som kan vara av oberoende intresse. För det speciella fallet med dubbleringsmått, som inkluderar både konstant-dimensionella Euclidean och tillväxtbegränsade mätvärden, våra algoritmer uppnå en Ç" — Ó och μ övre gräns. Vi kompletterar våra resultat för det universella Steiner-trädet med en nedre gräns för en "Ó" --Ó --Ó --Ó ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------ Vi visar också att en liten generalisering av det universella Steiner Tree problemet är coNP-hård och presenterar nästan tighta övre och nedre gränser för en universell version av Set Cover. | Lujun Jia m.fl. REF tillhandahåller approximationsalgoritmer för TSP, Steiner Tree och set cover problem. | 7,046,258 | Universal approximations for TSP, Steiner tree, and set cover | {'venue': "STOC '05", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 78,985 |
Med den senaste tidens framsteg i grafik, har det blivit mer dragbart att träna modeller på syntetiska bilder, potentiellt undvika behovet av dyra kommentarer. Att lära sig av syntetiska bilder kan dock inte uppnå önskad prestanda på grund av ett gap mellan syntetiska och verkliga bilddistributioner. För att minska detta gap föreslår vi Simulated+Oövervakad (S+U) inlärning, där uppgiften är att lära sig en modell för att förbättra realismen i en simulators utdata med hjälp av omärkta verkliga data, samtidigt som annotationsinformationen från simulatorn bevaras. Vi utvecklar en metod för S+U-inlärning som använder ett kontradiktoriskt nätverk som liknar Generative Adversarial Networks (GANS), men med syntetiska bilder som ingångar istället för slumpmässiga vektorer. Vi gör flera viktiga ändringar i standarden GAN algoritm för att bevara kommentarer, undvika artefakter, och stabilisera utbildning: (i) en "självreglering" term, (ii) en lokal kontrarimal förlust, och (iii) uppdatera discriminator med hjälp av en historia av förfinade bilder. Vi visar att detta möjliggör generering av mycket realistiska bilder, som vi demonstrerar både kvalitativt och med en användarstudie. Vi utvärderar kvantitativt de bilder som genereras av träningsmodeller för blickuppskattning och handuppskattning. Vi visar en betydande förbättring jämfört med att använda syntetiska bilder, och uppnå state-of-the-art resultat på MPIIGaze dataset utan någon märkt verkliga data. | I REF genererades realistiska prover från syntetiska bilder och de producerade uppgifterna kunde fungera som utbildning för en klassificeringsmodell på riktiga bilder. | 8,229,065 | Learning from Simulated and Unsupervised Images through Adversarial Training | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 78,986 |
Abstract-Distribuerad lagring som utnyttjar cellulär enhet-till-enhet (D2D) underlay har lockat ökande forskningsintresse på grund av sin potential att avlasta cellulär trafik, förbättra spektral effektivitet och energieffektivitet, och minska överföringsfördröjning. Detta dokument undersöker den totala överföringskostnaden minimering problem baserat på en innehållskodning strategi för att ladda ner en ny innehållsartikel eller reparera en förlorad innehållspost i D2D-baserade distribuerade lagringssystem samtidigt garantera användarnas kvalitet på tjänsten. Förutom optimeringen av kodningsparametrarna, tar kostnadsminimeringsproblemet också hänsyn till distributionen av innehållsobjekt, valet av innehållshjälpare för varje innehållsförfrågan, och spektrumåteranvändning för att upprätta D2D-länkar däremellan. Genom att formulera ett hypergraph-baserat tredimensionellt matchningsproblem bland innehållshjälpare, begärare och cellulära användarresurser presenterar vi en lokal sökbaserad algoritm med låg komplexitet för optimering. Numeriska resultat visar prestanda och effektivitet i vårt föreslagna tillvägagångssätt. | I REF, en hypergraph-baserad matchningsproblem bland CPs, CRs och cellulära användarresurser utformades för att hantera den totala överföringskostnaden minimering problem i ett D2D cachesystem. | 19,548,624 | Hypergraph-Based Wireless Distributed Storage Optimization for Cellular D2D Underlays | {'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']} | 78,987 |
Abstract-Mobile-edge cloud computing är ett nytt paradigm för att tillhandahålla molndatafunktioner i utkanten av genomträngande radionät i nära anslutning till mobila användare. I det här dokumentet studerar vi först problemet med att avlasta flera användare för molndata i en trådlös störningsmiljö med flera kanaler. Vi visar att det är NP-hårdt att beräkna en centraliserad optimal lösning, och därmed anta en spelteoretisk metod för att uppnå effektiv beräkning offloading på ett distribuerat sätt. Vi formulerar den distribuerade beräkningen offloading beslutsfattande problem bland mobila användare som en multi-användare beräkning offloading spel. Vi analyserar den strukturella egenskapen i spelet och visar att spelet medger en Nash jämvikt och har den ändliga förbättring egenskapen. Vi utformar sedan en distribuerad beräkning offloading algoritm som kan uppnå en Nash jämvikt, härleda den övre gränsen för konvergenstiden, och kvantifiera dess effektivitet förhållande över de centraliserade optimala lösningarna i termer av två viktiga prestandamått. Vi utökar ytterligare vår studie till scenariot med fleranvändarberäkningsavlastning i den trådlösa innehållsmiljön med flera kanaler. Numeriska resultat bekräftar att den föreslagna algoritmen kan uppnå överlägsen beräkning offloading prestanda och skala samt användarens storlek ökar. | Chen och Al. REF föreslog ett spelteoretiskt system för beräkning offloading beslutsfattande problem i fleranvändarscenarier och visade att det utformade spelet alltid medger en Nash jämvikt. | 1,663,452 | Efficient Multi-User Computation Offloading for Mobile-Edge Cloud Computing | {'venue': 'TNET', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 78,988 |
Bakgrund: Övervakade inlärningsmetoder behöver kommenterade data för att generera effektiva modeller. Noterade uppgifter är dock en relativt knapp resurs och kan vara dyra att få tag på. För både passiva och aktiva inlärningsmetoder finns det ett behov av att uppskatta storleken på det kommenterade provet som krävs för att nå ett prestationsmål. Vi designade och implementerade en metod som passar en omvänd makt lag modell till punkter i en given inlärningskurva som skapats med hjälp av en liten kommenterad utbildning set. Fäste utförs med hjälp av ickelinjär vägd minsta kvadratoptimering. Den monterade modellen används sedan för att förutsäga klassificeringens prestanda och konfidensintervall för större provstorlekar. För utvärdering tillämpades den ickelinjära viktade kurvmonteringsmetoden på en uppsättning inlärningskurvor som genererades med hjälp av klinisk text- och vågformsklassificering med aktiva och passiva provtagningsmetoder, och förutsägelser validerades med hjälp av standardgoda mått för passform. Som kontroll använde vi en oviktad monteringsmetod. Resultat: Totalt 568 modeller monterades och modellprognoserna jämfördes med de observerade prestationerna. Beroende på datamängden och provtagningsmetoden tog det mellan 80 och 560 kommenterade prov för att uppnå medelvärde och rotmedelvärde i kvadrat under 0,01. Resultaten visar också att vår viktade monteringsmetod överträffade den oviktade metoden vid baslinjen (p < 0,05). Slutsatser: Detta dokument beskriver en enkel och effektiv provstorleksförutsägelsealgoritm som utför viktad montering av inlärningskurvor. Algoritmen överträffade en oviktad algoritm som beskrivs i tidigare litteratur. Det kan hjälpa forskare att bestämma notation provstorlek för övervakad maskininlärning. | Utrustad med den tidigare att övervakade inlärningsmetoder prestanda följer den omvända makt lag, REF utbildade en modell för att förutsäga klassificering noggrannheten av en modell med tanke på ett antal indata. | 580,196 | Predicting sample size required for classification performance | {'venue': 'BMC Medical Informatics and Decision Making', 'journal': 'BMC Medical Informatics and Decision Making', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 78,989 |
Utbildning Deep Neural Networks kompliceras av att fördelningen av varje lagers ingångar förändras under träningen, eftersom parametrarna för de tidigare lagren förändras. Detta saktar ner utbildningen genom att kräva lägre inlärningstakt och noggrann parameter initialisering, och gör det notoriskt svårt att träna modeller med mättande icke-linjäritet. Vi hänvisar till detta fenomen som internt kovariat skifte, och ta itu med problemet genom att normalisera lageringångar. Vår metod tar sin styrka från att göra normalisering en del av modellen arkitektur och utföra normalisering för varje träning mini-batch. Batch Normalization tillåter oss att använda mycket högre inlärningsfrekvenser och vara mindre försiktig med initiering. Det fungerar också som en regularizer, i vissa fall eliminera behovet av avhopp. Basch Normalization tillämpas på en toppmodern bild klassificering modell, uppnår samma noggrannhet med 14 gånger färre träningssteg, och slår den ursprungliga modellen med en betydande marginal. Med hjälp av en ensemble av batchnormaliserade nätverk, vi förbättra på det bäst publicerade resultatet på ImageNet klassificering: nå 4,9% topp-5 valideringsfel (och 4,8% testfel), överstiger noggrannheten hos mänskliga taxrar. | I kontrast, batch normalisering lager var ursprungligen utformade för att minska den interna kovariat skifte för att påskynda utbildningsprocessen REF. | 5,808,102 | Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 78,990 |
Vi studerar möjligheten att förlänga livslängden för ett trådlöst sensornätverk genom att utnyttja mobilitet. I vårt system, en liten andel av nätverk noder är autonomt rörliga, så att de kan flytta i sökandet efter energi, ladda och leverera energi till orörliga, energiutarmade noder. Vi kallar detta för energiskörd. Vi karakteriserar problemet med ojämn energiförbrukning, föreslår energiskörd som en möjlig lösning, och ger en enkel analytisk ram för att utvärdera energiförbrukning och vårt system. Data från inledande genomförbarhetsexperiment med energiupptagning visar lovande resultat. | En annan energi skörd studie REF med fokus på mobila noder har också undersökt genomförbarheten av ett system där mobila noder har möjlighet att flytta i sökandet efter energi och leverans av energi till statiska noder. | 927,859 | Studying the feasibility of energy harvesting in a mobile sensor network | {'venue': '2003 IEEE International Conference on Robotics and Automation (Cat. No.03CH37422)', 'journal': '2003 IEEE International Conference on Robotics and Automation (Cat. No.03CH37422)', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 78,991 |
Vi presenterar en ny "Locality Sensitive Hashing"-plan för det ungefärliga neighbor-problemet under "Norm", baserad på "Stable distributions". Vårt system förbättrar körtiden för den tidigare algoritmen för fallet med 3⁄4 normen. Det ger också den första kända bevisligen effektiva approximativa NN algoritm för fallet och 1⁄2. Vi visar också att algoritmen finner den exakta nära neigbhor i Ç ́ —Ó och μ tid för data som uppfyller vissa "bounded tillväxt" tillstånd. Till skillnad från tidigare system, vårt LSH-system fungerar direkt på punkter i Euclidean utrymme utan inbäddningar. Följaktligen, den resulterande frågetiden bundna är fri från stora faktorer och är enkel och lätt att genomföra. Våra experiment (på syntetiska datamängder) visar att vår datastruktur är upp till 40 gånger snabbare än -trädet. | Lokalhetskänslig hashing baserad på p-stabil distribution (LSH) REF är en av de mest representativa metoderna i dataoberoende hashing kategori. | 747,083 | Locality-sensitive hashing scheme based on p-stable distributions | {'venue': "SCG '04", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 78,992 |
Sexuella kontaktmönster, både i deras temporal och nätverksstruktur, kan påverka spridningen av sexuellt överförbara infektioner (STI). Mest tidigare litteratur har fokuserat på effekter av nätverk topologi; få studier har tagit upp rollen av temporal struktur. Vi simulerar sjukdomsspridning med SI- och SIR-modeller på ett empiriskt temporalt nätverk av sexuella kontakter i avancerad prostitution. Vi jämför dessa resultat med flera andra metoder, inklusive randomisering av data, klassiska medelfältsinflygningar och statiska nätverkssimuleringar. Vi konstaterar att epidemidynamiken i denna kontaktstruktur har väldefinierade, ganska höga epidemitrösklar. Temporala effekter skapar en bred fördelning av utbrottens storlek, även om sannolikheten för överföring per kontakt tas till dess hypotetiska maximum på 100%. I allmänhet drar vi slutsatsen att tidssambanden i vårt nätverk påskyndar utbrotten, särskilt i epidemiernas tidiga fas, medan nättopologin (förutom kontaktfrekvensdistributionen) saktar ner dem. Vi finner att de tidsmässiga sambanden mellan sexuella kontakter avsevärt kan förändra simulerade utbrott i ett stort empiriskt sexuellt nätverk. Därför behövs tidsmässiga strukturer tillsammans med nätverk topologi för att till fullo förstå spridningen av STI. Å ena sidan tyder våra simuleringar vidare på att den specifika typ av kommersiellt kön som vi undersöker inte är en reservoar av stor betydelse för hiv. | I REF undersöktes fördelningen av genomsnittliga utbrottsstorlekar som genererats från specifika kontaktnätstopologier. | 14,332,273 | Simulated Epidemics in an Empirical Spatiotemporal Network of 50,185 Sexual Contacts | {'venue': 'PLoS Computational Biology', 'journal': 'PLoS Computational Biology', 'mag_field_of_study': ['Mathematics', 'Biology', 'Computer Science', 'Physics', 'Medicine']} | 78,993 |
Abstracl-Det är ofta användbart att h o w geografiska positioner noder i ett kommunikationsnät, men lägga GPS-mottagare eller andra sofistikerade sensorer till varje nod kan han dyrt. MDS-MAP är en ny lokaliseringsmetod baserad på flerdimensionell skalning (MDS). Den använder konnektivitet information-vem är inom kommunikationsområdet för vem-för att härleda platserna för noderna i nätverket, och kan dra nytta av ytterligare data, såsom uppskattade avstånd mellan grannar eller kända positioner för vissa ankar noder, om de är tillgängliga. MDS-MAP är dock en inneboende centraliserad algoritm och är därför av Umited nytta i många program. I detta dokument presenterar vi en ny variant av MDS-MAP-metoden, som vi kallar MDS-MAP(P) stående för MDS-MAP vinglappar av relativa kartor, som kan utföras på ett distribuerat sätt. Med hjälp av omfattande simuleringar visar vi att den nya algoritmen inte bara bevarar den ursprungliga metodens gwd-prestanda på relativt enhetliga layouter, utan också presterar mycket bättre än originalet på oregelbundet utformade nätverk. Huvudidén är att bygga en lokal karta vid varje nod i omedelbar närhet och sedan slå ihop dessa kartor till en global karta. Detta tillvägagångssätt fungerar mycket bättre för topologier där den kortaste vägen avståndet mellan två noder inte motsvarar väl deras Euclidean avstånd. Vi diskuterar också ett valfritt förfining steg som förbättrar lösningens kvalitet ännu mer på bekostnad av ytterligare beräkning. | Ett sådant exempel är MDS-MAP(P) REF, som är en ändring av MDS-MAP baserad på ett decentraliserat tillvägagångssätt. | 200,115 | Improved MDS-based localization | {'venue': 'IEEE INFOCOM 2004', 'journal': 'IEEE INFOCOM 2004', 'mag_field_of_study': ['Computer Science']} | 78,994 |
Detta dokument presenterar en nätverksbaserad närhetsanalys och Hidden Markov Model (HMM) baserad mekanism som kan användas för stokastisk identifiering av kroppsställningar med hjälp av ett bärbart sensornätverk. Tanken är att samla in relativ närhetsinformation mellan trådlösa sensorer som är strategiskt placerade över ett försökspersonens kropp för att övervaka de relativa rörelserna i kroppssegmenten, och sedan bearbeta det med hjälp av HMM för att identifiera försökspersonens kroppsställningar. Den viktigaste nyheten med detta tillvägagångssätt är en avvikelse från de traditionella accelerometribaserade tillvägagångssätten där de enskilda kroppssegmentens rörelser, snarare än deras relativa närhet, används för aktivitetsövervakning och positionsdetektering. Genom experiment med kroppsmonterade sensorer visar vi att även om accelerometribaserade metoder kan användas för att differentiera aktivitetsintensiva positioner såsom gång och löpning, är de inte särskilt effektiva för identifiering och differentiering mellan lågaktivitetsställningar såsom sittande och stående. Vi utvecklar ett bärbart sensornätverk som övervakar relativ närhet med hjälp av Radio Signal Strength Indication (RSSI) och sedan konstruerar ett HMM-system för positionsidentifiering i närvaro av sensorfel. Kontrollerade experiment med humana försökspersoner utfördes för att utvärdera exaktheten i de HMM-identifierade positionerna jämfört med en naiv tröskelbaserad mekanism, och dess variationer över olika människor. | Jämfört med accelerometerbaserade metoder, är detta tillvägagångssätt inte begränsat till aktivitetsintensiva hållningar som promenader och löpning, men fungerar också för låg aktivitet hållningar såsom sittande och stående REF. | 12,662,671 | Body posture identification using hidden Markov model with a wearable sensor network | {'venue': 'BODYNETS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 78,995 |
Djupa neurala nätverk (DNN) är sårbara för kontradiktoriska exempel, störningar för korrekt klassificerade exempel som kan orsaka modellen att felklassificera. I bilddomänen är dessa perturbationer ofta praktiskt taget oskiljaktiga för människans uppfattning, vilket får människor och moderna modeller att vara oense. Men i det naturliga språket är små perturbationer tydligt märkbara, och ersättandet av ett enda ord kan drastiskt förändra dokumentets semantik. Med tanke på dessa utmaningar använder vi en populationsbaserad optimeringsalgoritm i svartbox för att generera semantiskt och syntaktiskt liknande kontradiktoriska exempel som lurar vältränade känsloanalys- och textexperimentmodeller med en framgångsgrad på 97 % respektive 70 %. Vi visar dessutom att 92,3% av den framgångsrika känsloanalysens kontradiktoriska exempel klassificeras efter sin ursprungliga beteckning av 20 mänskliga annoterare, och att exemplen är märkbart ganska lika. Slutligen diskuterar vi ett försök att använda kontradiktorisk träning som försvar, men misslyckas med att ge förbättringar, vilket visar styrkan och mångfalden i våra kontradiktoriska exempel. Vi hoppas att våra rön uppmuntrar forskare att sträva efter att förbättra DNN:s robusthet i det naturliga språkdomänen. | REF införde en algoritm för att generera kontradiktoriska exempel på känsloanalys och textförståelse genom att ersätta ord i meningen med liknande tokens som bevarar språkmodellens poängsättning och maximerar målklassens sannolikhet. | 5,076,191 | Generating Natural Language Adversarial Examples | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 78,996 |
I detta dokument överväger vi en klass av rastlösa multiarmade banditprocesser (RMAB) som uppstår i dynamisk flerkanalsåtkomst, användar/server schemaläggning och optimal aktivering i multiagentsystem. För denna klass av RMABs, fastställer vi indexerbarhet och få Whittle index i sluten form för både diskonterade och genomsnittliga belöningskriterier. Dessa resultat leder till ett direkt genomförande av Whittle index policy med anmärkningsvärt låg komplexitet. När armarna är stochastiskt identiska, visar vi att Whittle index policy är optimal under vissa förhållanden. Dessutom har den en semiuniversal struktur som undanröjer behovet av att känna till Markovs sannolikheter för övergång. Optimaliteten och den semiuniversella strukturen är ett resultat av likvärdigheten mellan Whittle-indexpolitiken och den myopiska politik som fastställs i detta arbete. För icke-identiska armar, utvecklar vi effektiva algoritmer för att beräkna en prestanda övre gräns ges av Lagrangian avkoppling. Den övre gränsens täthet och Whittleindexpolitikens nästan optimala prestanda illustreras med simuleringsexempel. Index Terms-Dynamisk kanalval, indexerbarhet, myopisk politik, opportunistisk åtkomst, rastlös multiarmad bandit (RMAB), Whittle index. | I det finita systemet har optimaliteten av Whittle index policy visat sig för vissa speciella familjer av RMAB (se t.ex. REF ). | 261,902 | Indexability of Restless Bandit Problems and Optimality of Whittle Index for Dynamic Multichannel Access | {'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 78,997 |
Abstrakt. Intervallet i(G) för en enkel graf G är det minsta antalet sådana att till varje vertex i G det kan tilldelas en samling av högst finita slutna intervall på den verkliga linjen så att det finns en kant mellan hörn v och w i G om och endast om vissa intervall för v skär några intervall för w. De välkända intervallgrafer är exakt de diagram G med i(G)= <I. Vi bevisar här att för någon graf G med maximal grad d, i(G) <-[1/2(d + 1)]. Denna gräns uppnås med varje regelbunden graf av grad d utan trianglar, så är bäst möjligt. Graden bundet används för att visa att i(G) <-[1/2n] för grafer på n hörn och i(G) <-[/J för grafer med e-kanter. | Klassen av grafer med maximal grad är en underklass av ( ska + 1)/2 - interval grafer REF. | 16,281,028 | Extremal values of the interval number of a graph, II | {'venue': 'Discret. Math.', 'journal': 'Discret. Math.', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 78,998 |
I tredje generationens (3G) trådlösa datanätverk kan upprepade förfrågningar om populära dataobjekt förvärra det redan knappa trådlösa spektrumet. I detta dokument föreslår vi en arkitektur- och protokollram som gör det möjligt för 3G-tjänsteleverantörer att vara värd för effektiva innehållsdistributionstjänster. Vi avlastar den spektrumintensiva uppgiften att distribuera innehåll till ett ad hoc-nätverk. Mindre mobila användare (inhemska abonnenter) ges incitament att gömma populära dataobjekt medan mobila användare (transitabonnenter) får tillgång till dessa data från inhemska abonnenter via ad hoc-nätet. Eftersom deltagarna i detta datadistributionsnät fungerar som själviska agenter, kan de kollidera för att maximera sin individuella vinst. Vårt föreslagna protokoll avskräcker från potentiella samverkansscenarier. I denna arkitektur är målet (social funktion) för 3G-tjänstleverantören att ha den själviskt motiverade abonnenttjänsten så många dataförfrågningar som möjligt. Valet av vilken uppsättning objekt som ska cache lämnas dock till den enskilda användaren. Cachingaktiviteten bland de olika användarna kan modelleras som ett marknadsdelningsspel. I detta arbete studerar vi Nash equilibria av marknadsdelning spel och prestanda av sådan equilibria i termer av en social funktion. Dessa spel är ett speciellt fall av trängsel spel som har studerats i nationalekonomi litteratur. I synnerhet, ren strategi Nash Equilibria för denna uppsättning av spel finns. Vi ger en polynom-tid algoritm för att hitta en ren strategi Nash jämvikt för ett specialfall medan det är NP-Hard att göra det i det allmänna fallet. När det gäller Nash Equilibrias prestation visar vi att priset på anarki - det värsta-fallet-förhållandet mellan den sociala funktionen vid varje Nash-jämvikt och vid den sociala optimal - kan begränsas av en faktor på 2. När populariteten följer en zipf distribution, priset på anarki begränsas av 1,45 i specialfallet Forskning delvis stöds av NSF ANI-0335244. Tillstånd att göra digitala eller papperskopior av hela eller delar av detta arbete för personligt bruk eller klassrum beviljas utan avgift, förutsatt att kopiorna inte görs eller distribueras för vinst eller kommersiella fördelar och att kopiorna är försedda med detta meddelande och den fullständiga hänvisningen på första sidan. För att kopiera på annat sätt, för att återpublicera, för att posta på servrar eller för att omfördela till listor, krävs tidigare specifik behörighet och/eller avgift. där caching något objekt har en positiv belöning för alla spelare. Vi bevisar att det själviska beteendet hos beräknande bundna medel konvergerar till en ungefärlig Nash jämvikt i ett begränsat antal förbättringar. Dessutom visar vi att även med en förbättring av varje spelare, en Ç" — Ó och μ ungefärlig lösning kan erhållas. Våra simuleringsscenarier visar att priset på anarki är 30% bättre än priset på den värsta analysen och att systemet snabbt (1 eller 2 steg) konvergerar till en Nash-jämvikt. | Ingen av dessa tre spel är ett specialfall av den andra, och i synnerhet innehåll kuration spel är en generalisering av "uniform marknadsdelning spel" REF. | 6,480,293 | Market sharing games applied to content distribution in ad-hoc networks | {'venue': "MobiHoc '04", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 78,999 |
Abstract Effektiv drifttids upptäckt kräver identifiering av tjänster baserade på olika tjänsteegenskaper såsom strukturella, beteendemässiga, kvalitetsmässiga och kontextuella egenskaper. De nuvarande tjänsteregistren garanterar dock tjänster som beskrivs med avseende på strukturella egenskaper och ibland kvalitetsegenskaper, och det är därför inte alltid möjligt att anta att tjänsterna i dem kommer att ha alla de egenskaper som krävs för att effektivt upptäcka tjänster. I den här artikeln beskriver vi ett övervakningsbaserat ramverk för upptäckt av runtime-tjänster, MorseD. Ramverket stöder service upptäckt i både push och pull-lägen av frågeutförande. Trycksättet för frågeutförande utförs parallellt med utförandet av ett servicebaserat system, på ett proaktivt sätt. Båda typerna av frågor specificeras i ett frågespråk som kallas SerDiQueL som tillåter representation av strukturella, beteendemässiga, kvalitet, och kontextuella villkor för tjänster att identifieras. Ramverket använder en bildskärm komponent för att kontrollera om beteendemässiga och kontextuella villkor i frågorna kan uppfyllas av tjänster, baserat på översättningar av dessa villkor till egenskaper som representeras i händelse analys, och verifiering av tillfredsställande av dessa egenskaper mot tjänster. Monitorn används också för att identifiera att tjänster som deltar i ett servicebaserat system är otillgängliga och för att identifiera förändringar i tjänsternas beteendemässiga och kontextuella egenskaper. En prototyp för genomförandet av ramverket har tagits fram. Ramverket har utvärderats i form av en jämförelse av dess prestanda när man använder och inte använder övervakningskomponenten. | Ett proof-of-concept genomförande av detta tillvägagångssätt presenterades i REF, men den experimentella utvärderingen indikerade försämring i prestandan av frågeutförande när övervakning används för att verifiera beteendemässiga subqueries. | 5,303,877 | A monitoring approach for runtime service discovery | {'venue': 'Automated Software Engineering', 'journal': 'Automated Software Engineering', 'mag_field_of_study': ['Computer Science']} | 79,000 |
Tjänstebaserade metoder används i stor utsträckning för att integrera heterogena system. Webbtjänster gör det möjligt att definiera mycket dynamiska system där komponenter (tjänster) kan upptäckas och QoS-parametrar förhandlas fram i körtid. Detta motiverar behovet av övervakning av tjänstesammansättningar i körtid. Forskningen i denna fråga är dock fortfarande i sin linda. Vi undersöker hur man kan övervaka dynamiska tjänstesammansättningar med avseende på avtal som uttrycks via påståenden om tjänster. Dynamiska sammansättningar representeras som BPEL-processer som kan övervakas i körtid för att kontrollera om enskilda tjänster uppfyller sina kontrakt. Monitorer kan automatiskt definieras som ytterligare tjänster och kopplas till tjänstens sammansättning. Vi presenterar två alternativa genomföranden av vår övervakningsstrategi: den ena baserad på sen bindning och eftertanke och den andra baserad på ett standardsystem för påståenden. De två genomförandena exemplifieras i en fallstudie. | Baresi m.fl. I REF föreslås ett tillvägagångssätt där BPEL-processer övervakas i drift med hjälp av aspektorienterad teknik för att kontrollera om enskilda tjänster uppfyller sina kontrakt. | 16,360,644 | Smart monitors for composed services | {'venue': "ICSOC '04", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,001 |
Trådlösa sensornätverk (WSN) presenteras som en lämplig lösning för övervakning av skogsbränder. Denna tillämpning kräver dock en utformning av WSN med hänsyn till nätverkets livslängd och den skuggeffekt som träden genererar i skogsmiljön. Kooperativ kommunikation är en lovande lösning för WSN som vid varje humle använder resurser från flera noder för att överföra sina data. Genom att dela resurser mellan noderna förbättras därför överföringskvaliteten. I detta dokument använder vi tekniken för att förstärka lärande genom motståndare modellering, optimera ett samarbete kommunikationsprotokoll baserat på RSSI och nod energiförbrukning i ett konkurrenskraftigt sammanhang (RSSI/energy-CC), det vill säga ett energi-och kvalitet-of-service medvetna-baserade samarbetskommunikation routing protokoll. Simuleringsresultat visar att den föreslagna algoritmen fungerar bra när det gäller nätverkets livslängd, paketförsening och energiförbrukning. | Energi och kvalitet på tjänsten medveten-baserad samarbetskommunikation routing protokoll föreslås i REF. | 16,101,192 | QoS and Energy Aware Cooperative Routing Protocol for Wildfire Monitoring Wireless Sensor Networks | {'venue': 'The Scientific World Journal', 'journal': 'The Scientific World Journal', 'mag_field_of_study': ['Medicine']} | 79,002 |
Abstract-This paper föreslår en ny intrångsdetektering algoritm som syftar till att identifiera skadliga CAN meddelanden injiceras av angripare i CAN buss av moderna fordon. Den föreslagna algoritmen identifierar anomalier i sekvensen av meddelanden som flyter i CAN-bussen och kännetecknas av små minnes- och beräkningsavtryck, som gör det tillämpligt på aktuella ECU. Dess detektionsprestanda visas genom experiment som utförs på verklig CAN-trafik som samlats in från ett omodifierat licensierat fordon. | Marchetti m.fl. analyserade och identifierade avvikelser i sekvensen av CAN REF. | 25,832,817 | Anomaly detection of CAN bus messages through analysis of ID sequences | {'venue': '2017 IEEE Intelligent Vehicles Symposium (IV)', 'journal': '2017 IEEE Intelligent Vehicles Symposium (IV)', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 79,003 |
En data mining algoritm bygger en modell som fångar intressanta aspekter av de underliggande data. Vi utvecklar en ram för att kvantifiera skillnaden, kallad avvikelsen, mellan två datauppsättningar i termer av de modeller de inducerar. Vårt ramverk omfattar ett brett utbud av modeller inklusive frekventa objekt, beslut trädklassning, och kluster, och fångar standardmått för avvikelse såsom felklassificeringsfrekvens och chi-kvadrat metrisk som specialfall. Vi visar också hur statistiska tekniker kan tillämpas på avvikelsemåttet för att bedöma om skillnaden mellan två modeller är meningsfull (dvs. om de underliggande datamängderna har statistiskt signifikanta skillnader i sina egenskaper) och diskuterar flera praktiska tillämpningar. | Ganti m.fl. I Ref föreslås en ram för kvantifiering av skillnaden mellan två datauppsättningar. | 2,994,925 | A framework for measuring changes in data characteristics | {'venue': "PODS '99", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,004 |
SV MULTIOP SC SCL SM SNS WARP Figur 1: Exempel på omriktning av fjärilsbilden som visas i figur 2 till halva storleken. I denna studie utvärderar vi 8 olika bildremålingsmetoder, ber användarna att jämföra sina resultat och undersöka vilka kvaliteter i remålade bilder som betyder något för dem. Vi korrelerar också användarnas preferenser med automatiska bildliknande åtgärder. Våra resultat ger insikter om omriktarproblemet och presenterar ett tydligt riktmärke för framtida forskning inom området. De många arbetena med att omrikta medierna kräver ett metodologiskt tillvägagångssätt för att utvärdera omriktade resultat. Vi presenterar den första omfattande perceptuella studien och analysen av bildretargeting. För det första skapar vi ett riktmärke för bilder och genomför en storskalig användarstudie för att jämföra ett representativt antal state-of-the-art retargeting metoder. För det andra presenterar vi en analys av användarnas svar, där vi finner att människor i allmänhet är överens om utvärderingen av resultaten och visar att vissa remålingsmetoder genomgående är mer gynnsamma än andra. För det tredje undersöker vi om beräkningsavståndet kan förutsäga människans omriktande perception. Vi visar att nuvarande åtgärder som används i detta sammanhang inte nödvändigtvis är förenliga med den mänskliga rangordningen, och visar att bättre resultat kan uppnås med hjälp av bildfunktioner som inte tidigare övervägts för denna uppgift. Vi avslöjar också specifika egenskaper i omriktade medier som är viktigare för tittarna. Vikten av vårt arbete ligger i att främja bättre åtgärder för att bedöma och vägleda omriktande algoritmer i framtiden. Det fullständiga riktmärket vi samlade in, inklusive alla bilder, omriktade resultat och insamlade användardata, är tillgängliga för forskarsamhället för ytterligare utredning på | Översikt över den senaste 2D-bilden omriktande metoder kan hänvisa till REF. | 3,332,468 | A comparative study of image retargeting | {'venue': "SIGGRAPH ASIA '10", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,005 |
Text normalisering tekniker som använder regelbaserad normalisering eller sträng likhet baserad på statiska ordböcker är vanligtvis oförmögna att fånga domänspecifika förkortningar (custy, cx → kund) och shorthands (5ever, 7ever → forever) används i informella texter. I detta arbete utnyttjar vi egendomen som bullriga och kanoniska former av ett visst ord delar liknande sammanhang i en stor bullriga textsamling (miljoner eller miljarder av sociala medier matar från Twitter, Facebook, etc.). Vi lär oss distribuerade framställningar av ord för att fånga begreppet kontextuell likhet och lär oss därefter normaliseringslexikon från dessa framställningar på ett helt oövervakat sätt. Vi experimenterar med linjära och icke-linjära distribuerade representationer erhållna från log-linjära modeller respektive neurala nätverk. Vi tillämpar vårt ramverk för att normalisera kundanteckningar och Twitter. Vi utökar också vårt tillvägagångssätt för att lära sig fras normalisering lexikon (g2g → fick gå) genom utbildning fördelade representationer över sammansatta ord. Vår strategi överträffar Microsoft Word, Aspell och en manuellt kompilerad urban ordbok från webben och uppnår state-of-the-art resultat på en allmänt tillgänglig Twitter dataset. | REF använde distribuerade representationer av ord tränade på en stor Twitter datauppsättning för att extrahera normalisering lexikon baserat på kontextuell likhet. | 10,533,974 | Unsupervised Text Normalization Using Distributed Representations of Words and Phrases | {'venue': 'VS@HLT-NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,006 |
Clustering problem har många tillämpningar och blir mer utmanande när storleken på data ökar. I den här artikeln överväger vi att utforma klusteralgoritmer som kan användas i MapReduce, den mest populära programmeringsmiljön för behandling av stora datamängder. Vi fokuserar på de praktiska och populära klusterproblemen, k-center och k-median. Vi utvecklar snabba kluster algoritmer med konstant faktor approximation garantier. Ur ett teoretiskt perspektiv ger vi den första analysen som visar att flera klusteralgoritmer finns i MRC 0, en teoretisk MapReduce klass introduceras av Karloff et al. [26]................................................................. Våra algoritmer använder provtagning för att minska datastorleken och de kör en tidskrävande klusteralgoritm som lokal sökning eller Lloyds algoritm på den resulterande datamängden. Våra algoritmer har tillräcklig flexibilitet för att användas i praktiken eftersom de körs i ett konstant antal MapReduce rundor. Vi kompletterar dessa resultat genom att utföra experiment med hjälp av våra algoritmer. Vi jämför våra algoritmers empiriska prestanda med flera sekventiella och parallella algoritmer för k-medianproblemet. Experimenten visar att våra algoritmers lösningar liknar eller är bättre än de andra algoritmernas lösningar. Dessutom, på datamängder som är tillräckligt stora, är våra algoritmer snabbare än de andra parallella algoritmer som vi testade. F.2.2 [Analys av algoritmer och problemkomplexitet]: Icke-numeriska algoritmer och problem * Alla författare är de första författarna. † Detta är ett utdraget abstrakt utan bevis. En fullständig version av tidningen kommer att göras tillgänglig på arXiv. | Ene m.fl. föreslog snabb klustring med MapReduce Ref genom att använda en MapReduce-provtagningsteknik för att minska datastorleken. | 9,511,352 | Fast clustering using MapReduce | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 79,007 |
Vi presenterar en metod för författardiskriminering som bygger på frekvensen av bigrams av syntaktiska etiketter som uppstår vid partiell tolkning av texten. Vi visar att denna metod, ensam eller i kombination med andra klassificeringsegenskaper, uppnår en hög noggrannhet när det gäller diskriminering av Annes och Charlotte Brontës arbete, vilket är mycket svårt att göra med traditionella metoder. Dessutom uppnås höga noggrannheter även på textfragment som är lite mer än 200 ord långa. | REF använde tagg bigrams för att skilja mellan Annes och Charlottes arbete med tre experiment med tagg bigrams. | 13,111,019 | Bigrams of syntactic labels for authorship discrimination of short texts | {'venue': 'Literary and Linguistic Computing', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,008 |
ABSTRACT Med allt mer vetenskaplig litteratur publicerad online har en effektiv hantering och återanvändning av denna kunskap blivit problematisk. Behandling av naturligt språk (NLP) kan vara en möjlig lösning genom att extrahera, strukturera och organisera biomedicinsk information i online-litteratur i rätt tid. En viktig uppgift är att känna igen och identifiera genomiska enheter i text. 'Rekognition' kan åstadkommas med hjälp av mönstermatchning och maskininlärning. Men för "identifiering" är dessa tekniker inte tillräckliga. För att identifiera genomiska enheter behöver NLP en omfattande resurs som specificerar och klassificerar genomiska enheter som de förekommer i text och som associerar dem med normaliserade termer och även unika identifierare så att de extraherade enheterna är väl definierade. Online organism databaser är en utmärkt resurs för att skapa en sådan lexikal resurs. Emellertid är gennamn tvetydighet ett allvarligt problem, eftersom det påverkar den lämpliga identifieringen av genen entiteter. I detta dokument undersöker vi problemets omfattning och föreslår sätt att ta itu med det. Resultat: Vi fick geninformation från 21 organismer och kvantifierade namngivande tvetydigheter inom arter, över arter, med engelska ord och medicinska termer. När fallet (av bokstäver) behölls, visade officiella symboler försumbar inom arten tvetydighet (0,02%) och blygsamma tvetydigheter med allmänna engelska ord (0,57%) och medicinska termer (1,01%). Däremot var tvetydigheten mellan olika arter hög (14,20 %). Inbegripandet av gensynonymer ökade inomartens tvetydighet avsevärt och fullständiga namn bidrog i hög grad till gen-medicinsk-term tvetydighet. En omfattande lexisk resurs som täcker geninformation för de 21 organismerna skapades sedan och användes för att identifiera gennamn genom att använda ett enkelt strängmatchningsprogram för att bearbeta 45 000 abstracts associerade med musmodellen organism samtidigt ignorera fall och gennamn som också var engelska ord. Vi fann att 85,1% av korrekt återvunna musgener var tvetydiga med andra gennamn. När gen * Till vem korrespondens bör riktas. namn som också var engelska ord inkluderades, 233% ytterligare "gen" fall återfanns, varav de flesta var falska positiva. Vi fann också att författare föredrar att använda synonymer (74,7 %) till officiella symboler (17,7 %) eller fullständiga namn (7,6%) i sina publikationer. Kontaktuppgifter: | Chen et al REF samlade in geninformation från 21 organismer och kvantifierade namngivande tvetydigheter inom arter, över arter, med engelska ord och med medicinska termer. | 3,172,606 | Gene name ambiguity of eukaryotic nomenclatures | {'venue': 'Bioinformatics', 'journal': 'Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 79,009 |
JavaTM 2 har en säkerhetsarkitektur som skyddar system från obehörig åtkomst via mobil eller statiskt konfigurerad kod. Problemet är att manuellt bestämma vilken uppsättning säkerhetsrättigheter som krävs för att köra ett bibliotek eller en applikation. Den allmänt använda strategin är att köra koden, notera behörighetsfel, allokera ytterligare åtkomsträttigheter, och testa igen. Denna process itererar tills koden framgångsrikt körs för testfallen i hand. Testfall täcker vanligtvis inte alla sökvägar genom koden, så fel kan uppstå i utplacerade system. Omvänt tilldelas en bred uppsättning tillträdesrättigheter till koden för att förhindra att behörighetsfel uppstår. Detta leder dock ofta till en kränkning av "Principle of Least Privilege". I detta dokument presenteras en teknik för att beräkna kraven på åtkomsträttigheter genom att använda en kontextkänslig, flödeskänslig, interprocedural dataflödesanalys. Genom att använda denna analys beräknar vi vid varje programpunkt den uppsättning åtkomsträttigheter som krävs enligt koden. Vi modellerar funktioner som multi-threading, implicit definierade säkerhetspolitik, semantik av Authority.implies metod och generering av en säkerhetspolicy beskrivning. Vi implementerade algoritmerna och presenterade resultaten av vår analys på en uppsättning program. Medan de analystekniker som beskrivs i detta dokument är i samband med Java-koden, är de grundläggande teknikerna tillämpliga på frågor om åtkomsträttigheter analys i icke-Java-baserade system. | Koved m.fl. I REF föreslogs en kontextkänslig, flödeskänslig och kontextkänslig dataflödesanalys (1-CFA) för att automatiskt uppskatta den uppsättning åtkomsträttigheter som krävs vid varje programpunkt. | 2,287,440 | Access rights analysis for Java | {'venue': "OOPSLA '02", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,010 |
Abstract-Image kvalitetsbedömning (IQA) syftar till att använda beräkningsmodeller för att mäta bildkvaliteten konsekvent med subjektiva utvärderingar. Det välkända strukturella likhetsindexet ger IQA från pixel till strukturbaserat stadium. I detta dokument föreslås ett nytt index (FSIM) för fullständig referens IQA baserat på det faktum att det mänskliga visuella systemet (HVS) förstår en bild främst utifrån dess lågnivåfunktioner. I synnerhet används faskongruensen (PC), som är ett dimensionslöst mått på betydelsen av en lokal struktur, som det primära inslaget i FSIM. Med tanke på att PC är kontrast invariant medan kontrastinformationen påverkar HVS uppfattning av bildkvalitet, används bilden gradient magnitud (GM) som sekundär funktion i FSIM. PC och GM spelar kompletterande roller för att karakterisera bildens lokala kvalitet. Efter att ha fått den lokala kvalitetskartan, använder vi PC igen som en viktning funktion för att härleda en enda kvalitet poäng. Omfattande experiment som utförs på sex IQA-databaser visar att FSIM kan uppnå mycket högre överensstämmelse med de subjektiva utvärderingarna än de senaste IQA-måtten. Index Terms-Gradient, bildkvalitetsbedömning (IQA), lågnivåfunktion, faskongruens (PC). | Därför Zhang et al. REF väljer faskongruensen som det primära inslaget. | 10,649,298 | FSIM: A Feature Similarity Index for Image Quality Assessment | {'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 79,011 |
ABSTRACT Motiverad av den senaste tidens explosion av intresse runt blockkedjor, undersöker vi om de gör en bra passform för Internet of Things (IoT) sektorn. Blockchains tillåter oss att ha ett distribuerat peer-to-peer-nätverk där icke-tillförlitliga medlemmar kan interagera med varandra utan en betrodd mellanhand, på ett kontrollerbart sätt. Vi ser över hur denna mekanism fungerar och även titta på smarta kontrakt-skript som finns på blockchain som möjliggör automatisering av flerstegsprocesser. Vi flyttar sedan in i IoT domänen, och beskriver hur en blockchain-IoT kombination: 1) underlättar delning av tjänster och resurser som leder till skapandet av en marknadsplats av tjänster mellan enheter och 2) gör att vi kan automatisera på ett kryptografiskt kontrollerbart sätt flera befintliga, tidskrävande arbetsflöden. Vi påpekar också vissa frågor som bör övervägas innan införandet av en blockchain nätverk i en IoT-inställning: från transaktionsintegritet till det förväntade värdet av de digitaliserade tillgångar handlas på nätverket. Där så är tillämpligt identifierar vi lösningar och lösningar. Vår slutsats är att blockchain-IoT kombinationen är kraftfull och kan orsaka betydande omvandlingar inom flera branscher, banar väg för nya affärsmodeller och nya, distribuerade applikationer. INDEX TERMS Blockchain, distribuerade system, sakernas internet. | Enligt Christidis m.fl. REF, fördelarna med blockchain och IoT kombination är i följande: För det första, det underlättar delning av tjänster och resurser som leder till skapandet av tjänstemarknaden spänner över flera domäner. | 23,397,334 | Blockchains and Smart Contracts for the Internet of Things | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 79,012 |
Abstrakt. Vi beskriver två förbättringar av Gentrys helt homomorfiska system baserat på ideala gitter och dess analys: vi ger en mer aggressiv analys av en av hårdhetsantagandena (den som är relaterad till Sparse Subset Sum Problem) och vi introducerar en probabilistisk dekrypteringsalgoritm som kan implementeras med en algebraisk krets av låg multiplikativ grad. Tillsammans leder dessa förbättringar till ett snabbare helt homomorfiskt system, med en O(λ 3.5 ) bit komplexitet per elementär binär add/mult grind, där λ är säkerhetsparametern. Dessa förbättringar gäller även de helt homomorfiska systemen Smart och Vercauteren [PKC'2010] och van Dijk et al. (Eurocrypt'2010). | Snabbare förbättring av Gentrys modell föreslås av Stehle och Steinfield REF. | 6,980,449 | Faster Fully Homomorphic Encryption | {'venue': 'ASIACRYPT 2010, LNCS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,013 |
I heterogena cellulära nätverk (HCN) korreleras den störning som en användare får över tid, eftersom den kommer från samma uppsättning slumpmässigt placerade basstationer (BS). Detta resulterar i korrelationer mellan länkframgångar, vilket påverkar nätverksprestandan. Enligt antagandena i ett K-tier Poisson-nätverk, starkast långsiktig genomsnittlig partisk-mottagen-kraft-baserad BS-förening, och oberoende Rayleigh blekning, kvantifierar vi först korrelationskoefficienterna för interferens. Vi observerar att interferens korrelationen är oberoende av antalet nivåer, BS densitet, signal-till-interference-ratio (SIR) tröskel, och sända kraft. Därefter studerar vi korrelationerna av länkframgångar i termer av gemensamma framgångsannolikhet över flera tider slots.Vi visar att analys utan att överväga temporal interferens korrelation underskattar den gemensamma framgångsannolikheten. Dessutom undersöker vi effekterna av BS densitet, överföra kraft och användarorganisationer partiskhet på den gemensamma framgångsannolikheten. I synnerhet påverkar BS-tätheten och sändningskraften sannolikheten för gemensamma framgångar för hela nätet genom att påverka associationssannolikheten för varje nivå. Vi avslöjar också att den opartiska cellföreningen överträffar den partiska cellföreningen i termer av den gemensamma framgångsannolikheten. Slutligen utför vi simuleringar för att validera vår analys. Index Termer-heterogena cellulära nätverk, framgång sannolikhet, interferens korrelation, hybrid automatisk upprepa begäran, stokastisk geometri. 978-1-4799-5952-5/15/$31.00 ©2015 IEEE | Effekten av interferens korrelation kvantifieras i REF för ett heterogent cellulärt nätverk under antagande av ett K-tier Poisson oändligt nätverk. | 1,920,183 | Correlations of Interference and Link Successes in Heterogeneous Cellular Networks | {'venue': '2015 IEEE Global Communications Conference (GLOBECOM)', 'journal': '2015 IEEE Global Communications Conference (GLOBECOM)', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 79,014 |
Latent variabla modeller representerar sannolikhetstätheten av data i ett utrymme av flera dimensioner i form av ett mindre antal latenta, eller dolda, variabler. Ett välbekant exempel är faktoranalys, som bygger på en linjär omvandling mellan det latenta rummet och datautrymmet. I denna artikel introducerar vi en form av ickelinjär latent variabel modell som kallas den generativa topografiska kartläggningen, för vilken parametrarna i modellen kan bestämmas med hjälp av förväntan-maximization algoritm. GTM är ett principiellt alternativ till Kohonens allmänt använda självorganiserande karta (1982) och övervinner de flesta av de betydande begränsningarna i SOM. Vi demonstrerar GTM-algoritmens prestanda på ett leksaksproblem och simulerade data från flödesdiagnostik för en flerfasoljeledning. | Samma sak gäller dess probabilistiska motsvarighet, Generativ Topographic Mapping (GTM) REF. | 207,605,229 | GTM: The Generative Topographic Mapping | {'venue': 'Neural Computation', 'journal': 'Neural Computation', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 79,015 |
Vi anser att online distribuerade icke-stokastiska experter problem, där det distribuerade systemet består av en koordinator nod som är ansluten till k platser, och webbplatserna är skyldiga att kommunicera med varandra via koordinatorn. Vid varje gång steg t, en av k plats noder måste välja en expert från uppsättningen {1,.., n}, och samma webbplats får information om utbetalningar av alla experter för den omgången. Målet med det distribuerade systemet är att minimera ånger vid tidshorisonten T, samtidigt hålla kommunikationen till ett minimum. De två extrema lösningarna på detta problem är: (i) Full kommunikation: Detta simulerar i huvudsak den icke-distribuerade inställningen för att få den optimala O( log(n)T ) beklagar bundna till kostnaden för T kommunikation. (ii) Ingen kommunikation: Varje webbplats kör en oberoende kopia - ångra är O( log(n)kT ) och kommunikationen är 0. Detta dokument visar svårigheten att samtidigt uppnå ånger asymptotiskt bättre än ε kT och kommunikation bättre än T. Vi ger en ny algoritm som för en glömsk motståndare uppnår en icke-trivial kompromiss: ångra O( ε k 5(1+ )/6 T ) och kommunikation O(T /k ), för något värde av 0, 1/5). Vi överväger också en variant av modellen, där koordinatorn väljer experten. I denna modell visar vi att den etiketteffektiva prognosmakaren för Cesa-Bianchi et al. (2005) ger oss redan en strategi som nästan är optimal i beklagande jämfört med kompromiss. | Därefter, Ref, studerar kommunikationen kontra ångra kompromiss i en distribuerad miljö med icke-stochastiska banditer. | 1,453,718 | Distributed Non-Stochastic Experts | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 79,016 |
Indoor routing är en viktig funktion som krävs av applikationer och system som tillhandahåller rumslig information om komplexa platser, byggnader och infrastrukturer, t.ex. i fråga om besöksvägledning för mässor och kundnavigering på flygplatser eller tågstationer. Förutom aktuella, exakta 3D-spatiala modeller behöver dessa system och tillämpningar användargränssnitt som centrala systemkomponenter som gör det möjligt för användare att effektivt uttrycka navigeringsmål och att effektivt visualisera routinginformation. För driftskompatibla och flexibla indoor routingsystem behövs gemensamma specifikationer och standarder för inomhusstrukturer, objekt och relationer samt för metadata såsom datakvalitet och säkerhet. I detta dokument introducerar vi en klassificering av inomhusobjekt och strukturer med hänsyn till geometri, semantik och utseende, och föreslår en nivå-av-detaljmodell för dem som stöder generering av effektiv inomhusvägvisualisering. | REF föreslog en LoD-modell för inomhusbruk med hänsyn till geometri, semantik och utseende av inomhusobjekt för visualisering av inomhusrutter. | 2,658,264 | Towards an Indoor Level-of-Detail Model for Route Visualization | {'venue': '2009 Tenth International Conference on Mobile Data Management: Systems, Services and Middleware', 'journal': '2009 Tenth International Conference on Mobile Data Management: Systems, Services and Middleware', 'mag_field_of_study': ['Computer Science']} | 79,017 |
Abstract-I detta papper presenterar vi en hybrid metod för automatisk sammansättning av webbtjänster som genererar semantiska inputoutput baserade kompositioner med optimal end-to-end QoS, minimera antalet tjänster av den resulterande sammansättningen. Den föreslagna metoden har fyra huvudsteg: 1) generering av kompositionsgrafen för en begäran; 2) beräkning av den optimala sammansättningen som minimerar en enda objektiv QoS-funktion; 3) flerstegsoptimering för att minska sökutrymmet genom att identifiera likvärdiga och dominerade tjänster; och 4) hybrid lokal-global sökning för att extrahera den optimala QoS med det minsta antalet tjänster. En omfattande validering med dataseten i Web Service Challenge 2009-2010 och slumpmässigt genererade dataset visar att: 1) kombinationen av lokal och global optimering är en allmän och kraftfull teknik för att extrahera optimala kompositioner i olika scenarier; och 2) hybridstrategin presterar bättre än toppmoderna, erhålla lösningar med mindre tjänster och optimal QoS. | Rodriguez-Mier m.fl. föreslog ett tillvägagångssätt som genererar webbtjänstsammansättning med ett minsta antal tjänster och optimal QoS REF. | 15,683,160 | Hybrid Optimization Algorithm for Large-Scale QoS-Aware Service Composition | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 79,018 |
Detta dokument presenterar en lokal algoritm för att lösa det universella parametriska realtid modellkontroll problemet. Problemet kan formuleras enligt följande: Med tanke på ett realtidssystem och en tidsformel, som båda kan innehålla parametrar, och en begränsning över parametrarna, säkerställer varje tillåten parametertilldelning att realtidssystemet uppfyller formeln? Vår strategi bygger på att översätta dessa modellkontroll problem till predikat ekvationssystem, och sedan använda en effektiv proof-search algoritm för att lösa dessa system. Experimentella data visar att vår metod avsevärt överträffar befintliga metoder för system som innehåller fel, samtidigt som det uppvisar jämförbart beteende för system som är korrekta. Denna snabba feldetekteringsförmåga hos vår teknik gör det särskilt intressant för designmetoder där modellkontroller används "tidigt och ofta" för att upptäcka konstruktionsfel på ett kontinuerligt sätt. Den 26:e IEEE International Real-Time Systems Symposium (RTSS'05) 0-7695-2490-7/05 $20.00 © 2005 IEEE Proceedings of the 26th IEEE International Real-Time Systems Symposium (RTSS'05) 0-7695-2490-7/05 $20.00 © 2005 IEEE Proceedings of the 26th IEEE International Real-Time Systems Symposium (RTSS'05) 0-7695-2490-7/05 $20.00 © 2005 IEEE Procedures of the 26th IEEE International Real-Time Systems Symposium (RTSS'05) 0-7695-2490-7/05 $20,00 © 2005 IEEE Procedures of the 26th IEEE International Real-Time Systems Symposium (RTSS'05) 0-7695-2490-7/05 $20.00 © 2005 IEEE | I REF presenterar författarna en metod för att modellera ett realtidssystem med parametrisk tidsinställd automata när en begränsning över parametern anges. | 1,328,169 | Fast on-the-fly parametric real-time model checking | {'venue': "26th IEEE International Real-Time Systems Symposium (RTSS'05)", 'journal': "26th IEEE International Real-Time Systems Symposium (RTSS'05)", 'mag_field_of_study': ['Computer Science']} | 79,019 |
Abstract-I detta dokument presenterar vi ett nytt riktmärke för utvärdering av RGB-D SLAM-system. Vi spelade in en stor uppsättning av bildsekvenser från en Microsoft Kinect med mycket exakt och tidssynkroniserad mark sanning kamera utgör från en rörelse fånga system. Sekvenserna innehåller både färg- och djupbilder i full sensorupplösning (640 × 480) vid bildhastighet (30 Hz). Mark-sanningsbanan erhölls från ett rörelse-fångsystem med åtta höghastighetskameror (100 Hz). Datasetet består av 39 sekvenser som registrerats i en kontorsmiljö och en industrihall. Datasetet täcker ett stort antal scener och kamerarörelser. Vi tillhandahåller sekvenser för debugging med långsamma rörelser samt längre banor med och utan loop stängningar. De flesta sekvenser spelades in från en handhållen Kinect med okonstruerade 6-DOF-rörelser men vi tillhandahåller även sekvenser från en Kinect monterad på en Pioneer 3-robot som manuellt navigerades genom en rörig inomhusmiljö. För att stimulera jämförelsen av olika tillvägagångssätt tillhandahåller vi automatiska utvärderingsverktyg både för utvärdering av drift av visuella odometrisystem och det globala pose felet hos SLAM-system. Riktmärkeswebbplatsen [1] innehåller alla uppgifter, detaljerade beskrivningar av scenerna, specifikationer av dataformat, urvalskod och utvärderingsverktyg. | TUM RGB-D-dataset REF erbjuder en uppsättning RGB-D-bilder med exakt och tidssynkroniserad mark-truth-kamera från ett rörelsesystem. | 206,942,855 | A benchmark for the evaluation of RGB-D SLAM systems | {'venue': '2012 IEEE/RSJ International Conference on Intelligent Robots and Systems', 'journal': '2012 IEEE/RSJ International Conference on Intelligent Robots and Systems', 'mag_field_of_study': ['Computer Science']} | 79,020 |
Parallella texter (bitexter) har egenskaper som skiljer dem från andra typer av parallelldata. Först, de flesta ord översätta till bara ett annat ord. För det andra är bitextkorrespondens vanligtvis bara delvis många ord i varje text har ingen tydlig motsvarighet i den andra texten. I denna artikel presenteras metoder för att förvanska statistiska översättningsmodeller för att återspegla dessa egenskaper. Utvärdering med avseende på oberoende mänskliga bedömningar har bekräftat att översättningsmodeller som är partiska på detta sätt är betydligt mer exakta än en kunskapsfri grundmodell. Denna artikel visar också hur en statistisk översättningsmodell kan dra nytta av redan befintliga kunskaper som kan finnas tillgängliga om vissa språkpar. Även de enklaste typerna av språkspecifika kunskaper, såsom distinktionen mellan innehållsord och funktionsord, visas för att på ett tillförlitligt sätt öka översättningsmodellernas prestanda på vissa uppgifter. Statistiska modeller som reflekterar kunskap om modelldomänen kombinerar det bästa av både rationalistiska och empiriska paradigm. | Melamed REF visar att de flesta källord tenderar att motsvara endast ett målord och presenterade metoder för att partiskgöra statistiska översättningsmodeller, vilket leder till positiv påverkan på identifieringen av översättningslikvärdighet. | 2,420,674 | Models of Translational Equivalence among Words | {'venue': 'Computational Linguistics', 'journal': 'Computational Linguistics', 'mag_field_of_study': ['Computer Science']} | 79,021 |
Den stora variationen av små, beräkningssvaga enheter, och det ökande antalet beräkningsintensiva uppgifter gör delegeringen av beräkningar till stora datacenter till en önskvärd lösning. Beräkning outsourcing är dock endast användbart när det returnerade resultatet kan lita på, vilket gör kontrollerbar beräkning (VC) ett måste för sådana scenarier. I detta arbete utvidgar vi definitionen av kontrollerbar beräkning i två viktiga riktningar: offentlig delegering och offentlig verifiability, som har viktiga tillämpningar i många praktiska delegeringsscenarier. Befintliga VC-konstruktioner baserade på standardiserade kryptografiska antaganden lyckas dock inte uppnå dessa egenskaper. Som det primära bidraget i vårt arbete etablerar vi en viktig (och något överraskande) koppling mellan kontrollerbar beräkning och attributbaserad kryptering (ABE), en primitiv som har studerats vida omkring. Nämligen visar vi hur man konstruerar ett VC-system med offentlig delegering och offentlig verifierbarhet från alla ABE-system. VC-systemet kontrollerar alla funktioner i den funktionsklass som omfattas av de tillåtna ABE-reglerna. Detta system har en mycket effektiv verifieringsalgoritm som endast beror på utdatastorleken. Förstärka denna anslutning, visar vi en konstruktion av en multi-funktions verifierbara beräkningssystem från en ABE med outsourcade dekryptering, en primitiv definieras nyligen av Green, Hohenberger och Waters (USENIX Security 2011). Ett multifunktionellt VC-system möjliggör en kontrollerbar utvärdering av flera funktioner på samma förbehandlade inmatning. I den andra riktningen utforskar vi också konstruktionen av ett ABE-system från kontrollerbara beräkningsprotokoll. | Parno och al. REF föreslår att man bygger upp ett VC-system med offentlig delegering och offentlig verifierbarhet från alla attributbaserade krypteringssystem. | 6,310,972 | How to delegate and verify in public: Verifiable computation from attribute-based encryption | {'venue': 'PRV12] [PTM+ 06] [Reg05] [Sha84', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,022 |
Problemet med att välja ut små grupper av objekt som representerar data väl har nyligen fått mycket uppmärksamhet. Vi närmar oss problemet genom att söka efter de artiklar som komprimerar data effektivt. Som kompressionsteknik använder vi beslutsträd kombinerat med en förfinad version av MDL. Mer formellt, förutsatt att objekten beställs, skapar vi ett beslutsträd för varje objekt som endast kan bero på de tidigare objekten. Vårt tillvägagångssätt gör att vi kan hitta komplexa interaktioner mellan attributen, inte bara samtidiga förekomster av 1s. Vidare presenterar vi en länk mellan objekten och beslutsträden och använder denna länk för att exportera objekten från beslutsträden. I den här artikeln presenterar vi två algoritmer. Den första är en enkel girig strategi som bygger en familj av artiklar direkt från data. Den andra, med tanke på en samling kandidatartiklar, väljer en liten delmängd av dessa objekt. Våra experiment visar att dessa metoder resulterar i kompakta och högkvalitativa beskrivningar av data. | Pack algoritm REF gör en koppling mellan beslut träd och artiklar, gruvor bra beslut träd, och returnerar objektet som följer från dessa. | 5,708,218 | Finding Good Itemsets by Packing Data | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 79,023 |
Abstrakt. Två mobila agenter med distinkta identifierare och lokaliserade i noder av en okänd anonym ansluten graf, måste mötas på någon nod av grafen. Vi söker snabba deterministiska algoritmer för detta mötesproblem, under två scenarier: samtidig start, när båda agenterna börjar utföra algoritmen samtidigt, och godtycklig start, när starttiderna för agenterna godtyckligt bestäms av en motståndare. Mätningen av prestanda för en mötesplatsalgoritm är dess kostnad: för en given initial placering av agenter i en graf, är detta antalet steg sedan starten av den senare agenten tills mötesplatsen uppnås. Vi visar först att mötesplatsen kan slutföras till priset O(n + log l) på alla n-node träd, där l är den mindre av de två identifierarna, även med godtycklig start. Denna komplexitet i kostnaderna kan inte förbättras för vissa träd, inte ens vid samtidig start. Effektivt möte i träd bygger på snabb nätverksprospektering och kan inte användas när grafen innehåller cykler. Vi studerar vidare det enklaste nätverket, d.v.s. ringen. Vi bevisar att, med samtidig start, optimal kostnad för mötesplats på varje ring är (D log l), där D är det ursprungliga avståndet mellan agenter. Vi fastställer också gränser för möteskostnader i ringar med godtycklig start. För godtyckliga uppkopplade grafer är vårt huvudbidrag en deterministisk mötesplatssalgoritm med kostnadspolynom i n, τ och log l, där τ är skillnaden mellan starttiderna för agenterna. Vi visar också en lägre gräns (n 2 ) på kostnaden för mötesplats i vissa familj av grafer. Om samtidig start antas, vi konstruera en generisk mötesplats algoritm, arbetar för alla anslutna grafer, vilket är optimalt för klassen av grafer av begränsad grad, om det initiala avståndet mellan agenter begränsas. | Algoritmen för Dessmark et al. REF är deterministisk och bygger på upprepade traversaler av grafen, på ett sätt som moduleras av etiketten på agenten, för att uppnå mötesplats i polynom tid. | 27,400,822 | Deterministic Rendezvous in Graphs | {'venue': 'Algorithmica', 'journal': 'Algorithmica', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 79,024 |
Abstract-This paper introducerar en Bayesian nätverksmodell för motivation och psykologi av den skadliga insider. För det första utvecklades en första modell baserad på resultat i forskningslitteraturen, som lyfte fram kritiska variabler för att förutsäga graden av intresse för en potentiellt skadlig insider. För det andra genomfördes en undersökning för att mäta dessa prediktiva variabler i ett gemensamt urval av normala deltagare. För det tredje konstruerades en strukturell ekvationsmodell baserad på den ursprungliga modellen, som uppdaterades på grundval av ett delprov av empiriska undersökningsdata och validerades mot den andra halvan av datauppsättningen. För det fjärde justerades det bayesiska nätverket mot bakgrund av resultaten av den empiriska analysen. För det femte användes den uppdaterade modellen för att utveckla en övre gräns för kvaliteten på modellprognoserna för sina egna simulerade data. När empiriska data om psykologiska prediktorer var indata till modellen, närmade sig förutsägelser om kontraproduktivt beteende den övre gränsen av modellprediktivitet. | Axelrad m.fl. REF införde en Bayesian nätverksmodell för motivation och psykologi av den skadliga insider. | 2,165 | A Bayesian Network Model for Predicting Insider Threats | {'venue': '2013 IEEE Security and Privacy Workshops', 'journal': '2013 IEEE Security and Privacy Workshops', 'mag_field_of_study': ['Computer Science']} | 79,025 |
Sammanfattning av denna webbsida: Prognos om byggnadsenergiförbrukning spelar en viktig roll för att förbättra energiutnyttjandet genom att hjälpa byggherrar att fatta bättre beslut. Men som ett resultat av slumpmässighet och bullriga störningar, är det inte en lätt uppgift att inse exakt förutsägelse av byggnadsenergiförbrukningen. För att uppnå bättre exakthet i prognoserna om energiförbrukningen presenteras i detta dokument ett extremt djupt lärande. Det föreslagna tillvägagångssättet kombinerar staplade autokodrar (SAEs) med den extrema inlärningsmaskinen (ELM) för att dra nytta av sina respektive egenskaper. I detta föreslagna tillvägagångssätt används SAE för att extrahera egenskaperna byggnadsenergiförbrukning, medan ELM används som en prediktor för att få korrekta förutsägelseresultat. För att bestämma indatavariablerna i den extrema djupt lärande modellen, den partiella autokorrelationsanalysmetoden används. Dessutom, för att undersöka resultaten av den föreslagna metoden, det jämförs med några populära maskininlärningsmetoder, såsom den bakåtutbredande neurala nätverket (BPN), stödja vektor regression (SVR), den generaliserade radial bas funktion neurala nätverket (GRBFNN) och multipel linjär regression (MLR). Experimentella resultat visar att den föreslagna metoden har bästa förutsägelseprestanda i olika fall av byggnadsenergiförbrukning. | Li et al., i REF använt djup extrem inlärningsmetod för exakt energiförbrukning förutsägelse i en smart byggnad. | 43,337,949 | Building Energy Consumption Prediction: An Extreme Deep Learning Approach | {'venue': None, 'journal': 'Energies', 'mag_field_of_study': ['Engineering']} | 79,026 |
Vi presenterar ett effekteffektivt system för raderingskodade lagringskluster – ECS 2 – som syftar till att erbjuda hög energieffektivitet med marginell tillförlitlighetsnedbrytning. ECS 2 använder datauppsägningar och uppskjutna skriver för att spara energi. I ECS 2 buffras paritetsblock uteslutande i aktiva datanoder medan paritetsnoder placeras i lågeffektläge. (k + r, k) RS-kodad ECS 2 kan uppnå (r + 1)/2 -feltolerans för k aktiva datanoder och r-feltolerans för alla k + r-noder. ECS 2 använder följande tre optimerade metoder för att förbättra energieffektiviteten i lagringskluster. (1) En adaptiv tröskelpolicy tar hänsyn till systemkonfigurationer och I/O-arbetsbelastningar för att maximera uppehållstiderna; (2) en selektiv aktiveringspolicy minimerar antalet kraftöverföringar i lagringsnoder; och (3) en regionbaserad buffertpolicy påskyndar synkroniseringen genom att migrera paritetsblock i en batchmetod. Efter att ha implementerat en ECS 2-baserad prototyp i ett Linuxkluster utvärderade vi dess energieffektivitet och prestanda med hjälp av fyra olika typer av I/O arbetsbelastningar. De experimentella resultaten tyder på att ECS 2 kan spara den energi som används av lagringskluster upp till 29,8% och 28,0% i läsintensiva och skrivdominerade arbetsbelastningar när k = 6 respektive r = 3. Resultaten visar också att ECS 2 uppnår hög effekteffektivitet i både normala och misslyckade fall utan att märkbart påverka I/O-prestandan hos lagringskluster. | Huang m.fl. REF innehåller ett effekteffektivt system för raderingskodade lagringskluster. | 4,378,696 | Exploiting Redundancies and Deferred Writes to Conserve Energy in Erasure-Coded Storage Clusters | {'venue': 'TOS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,027 |
Vi skulle alla vilja rösta på best man, men han är aldrig en kandidat" -Kin Hubbard Vi studerar mekanismer för kandidatur som försöker minimera den sociala kostnaden, där väljare och kandidater är förknippade med punkter i någon underliggande metriska utrymme. Den sociala kostnaden för en kandidat är summan av dess avstånd till varje väljare. En del av vårt arbete förutsätter att dessa punkter kan modelleras på den verkliga linjen, men andra resultat av vårt arbete är mer allmänna. En fråga som är nära relaterad till kandidaturvalet är att minimera summan av avstånden för anläggningens läge. Skillnaden är att det i vår miljö finns en fast uppsättning kandidater, medan det stora arbetet på anläggningen plats anser att varje punkt i det metriska utrymmet är en möjlig kandidat. Denna inställning ger upphov till tre typer av urvalsmekanismer för kandidater som skiljer sig åt i fråga om storleken på deras inmatningsutrymme (en enda kandidat, rangordnings- och lokaliseringsmekanismer). Vi studerar förhållandet mellan dessa tre kategorier av mekanismer. Även om det kan tyckas att Blacks 1948 medianalgoritm är optimal för kandidatval på linjen, är detta inte fallet. Vi ger matchande övre och nedre gränser för en mängd olika inställningar. Särskilt när kandidater och väljare står på spel ger vår universellt sanningsenliga spikmekanism en [tät] approximation av två. Vid bedömningen av urvalsmekanismer söker vi efter flera önskvärda egenskaper: (a) effektivitet (minimering av den sociala kostnaden) (b) sannfärdighet (dominant strategi incitament kompatibilitet) och (c) enkelhet (en mindre insatsutrymme). Vi kvantifierar den effekt som sannfärdighet och enkelhet medför på effektiviteten. | 1 Det finns också en del samband med anläggningen plats problem, där anläggningen platser (som är kandidaterna) är från en fast uppsättning (snarare än överallt), som utforskas i REF. | 177,413 | On Voting and Facility Location | {'venue': "EC '16", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 79,028 |
Att lösa problemet med personens omidentifiering innebär att matcha observationer av individer över delade kameravyer. Problemet blir särskilt svårt i en upptagen offentlig scen eftersom antalet möjliga matcher är mycket högt. Detta förvärras ytterligare av betydande utseende förändringar på grund av varierande ljusförhållanden, tittarvinklar och kropp poserar över kameravyer. För att ta itu med detta problem fokuserar befintliga metoder på att extrahera eller lära sig diskriminativa funktioner följt av mallmatchning med hjälp av ett avståndsmått. Nytt med detta arbete är att vi omformulerar problemet med personens omidentifiering som ett rankningsproblem och lär oss en subrymd där den potentiella sanna matchningen ges högsta rankning snarare än någon direkt avståndsåtgärd. Genom att göra det konverterar vi personens återidentifieringsproblem från ett absolut poängproblem till ett relativt rankingproblem. Vi utvecklar vidare en ny Ensemble RankSVM för att övervinna skalbarhetsbegränsningsproblemen med befintliga SVM-baserade rankningsmetoder. Denna nya modell minskar avsevärt minnesanvändningen därför är mycket mer skalbar, samtidigt som hög prestanda upprätthålls. Vi presenterar omfattande experiment för att visa resultatvinsten av den föreslagna rankningsmetoden över befintliga modeller för matchning och klassificering av mallar. | RankSVM REF översätter problemet från en av absoluta poäng till en av relativ rankning, och lär sig ett metriska utrymme där det högsta rankningsparet, snarare än det närmaste av direkt avståndsmått, behandlas som en potentiell match. | 11,008,236 | Person reidentification by support vector ranking | {'venue': 'In British Machine Vision Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,029 |
Befintligt arbete med digital kriminalteknik tidslinjegenerering fokuserar på att extrahera tider från en diskavbildning till en tidslinje. Ett sådant tillvägagångssätt kan ge upphov till flera miljoner "lågnivå"-händelser (t.ex. en filändring eller uppdatering av en registernyckel) för en enda disk. I detta dokument föreslås en teknik som automatiskt kan rekonstruera händelser på hög nivå (t.ex. anslutning av ett USB-minne) från denna uppsättning av lågnivåhändelser. I dokumentet beskrivs ett ramverk som extraherar händelser på låg nivå till en SQLite bakgrundslager som automatiskt analyseras för mönster. Härkomsten av händelser på hög nivå bevaras också, vilket innebär att det från en händelse på hög nivå är möjligt att fastställa de händelser på låg nivå som orsakade dess slutledning, och från dessa, de rådata som orsakade att händelsen på låg nivå ursprungligen skapades kan också ses. Papperet visar också hur sådana händelser på hög nivå kan visualiseras med hjälp av befintliga verktyg. | I Ref föreslog de en mönsterbaserad process för att producera händelser på hög nivå ("mänsklig-förståeliga" händelser) från en tidslinje som innehåller händelser på låg nivå (händelser som utvinns direkt från källorna). | 7,843,726 | An automated timeline reconstruction approach for digital forensic investigations | {'venue': None, 'journal': 'Digital Investigation', 'mag_field_of_study': ['Computer Science']} | 79,030 |
Sammanfattning Den kritiska vägen för en parallell tillämpning är ett grundläggande mått för dess utförande. Den representerar den längsta körsekvensen utan väntetider och dikterar därmed den totala körtiden: att lägga till den kritiska banan kommer att öka körtiden direkt, samtidigt som förkorta eller optimera delar av den kritiska banan kommer att resultera i en minskning av den totala körtiden. Å andra sidan, att ändra genomförandetiden för programsektioner inte på den kritiska vägen kommer inte att påverka programmets körtid. Att känna till den kritiska vägen gör det möjligt för användaren att karakterisera programmet och dess kommunikationsbeteende, utforska skillnader i utförandet beteende med avseende på skalning och parameterförändringar, och identifiera potentiella flaskhalsar eller prestandaproblem. Det är också en förutsättning för att hantera skalbarhetsproblem i prestandaanalys och optimering. Det ökande antalet noder i moderna kluster, ofta nå tusentals, gör det omöjligt att undersöka, manuellt analysera, eller ofta bara visualisera prestandadata som samlats in från alla noder. Att känna till den kritiska vägen gör det dock möjligt för oss att begränsa optimeringsarbetet till de relevanta delarna av utförandet. I detta dokument presenterar vi en hybrid online/post-mortem strategi för att identifiera, isolera och visualisera den kritiska vägen för MPI-tillämpningar. Under online-komponenten samlar vi in information om varje processor lokalt, för att inte lägga till ytterligare kommunikationskrav. Efter avslutandet av programmet kombinerar vi de enskilda lokala resultaten för global analys. För att genomföra vår strategi, vi abstraherar programmet som en exekvering graf där alla MPI kommunikationsåtgärder visas som noder. Riktade kanter representerar både sekventiell körning inom en processor samt meddelandehändelser mellan processorer. Den kritiska sökvägen är sedan en delmängd av den fullständiga körkurvan. För att extrahera den bygger vi relevanta undergrupper dynamiskt vid drift med hjälp av ett MPI-omslagsbibliotek som spårar all MPI-kommunikationsverksamhet. Vid varje mottagande operation identifierar vi exekveringskurvans kanter som inte får vänta och som därför potentiellt är en del av den kritiska vägen; vi lagrar dem som en del av en lokal subgraf. Efter avslutandet av programmet, vi slå samman dessa subgrafer, identifiera vilka av de potentiella kanter som lagras i de lokala graferna är faktiskt en del av den avslutade globala kritiska vägen, beskär de återstående noderna, och exportera för att resultera i ett portabelt grafformat för visualisering och vidare bearbetning. Denna graf visar alla avsnitt i programmets utförande som bidrar till den kritiska vägen samt alla kommunikationshändelser som orsakar den kritiska vägen till transitering mellan processorer. Grafformuläret har den ytterligare fördelen, i motsats till profileringsdata eller tabular representationer, att det behåller en stor del av den strukturella informationen från det ursprungliga genomförandet av ansökan och därmed underlättar ytterligare analyssteg på hög nivå. | Det finns också många likheter med den kritiska vägprofilering som lagts fram av Schulz i REF. | 403,696 | Extracting Critical Path Graphs from MPI Applications | {'venue': '2005 IEEE International Conference on Cluster Computing', 'journal': '2005 IEEE International Conference on Cluster Computing', 'mag_field_of_study': ['Computer Science']} | 79,031 |
Även om aktivt lärande utgör en viktig pelare i maskininlärning, är djupinlärningsverktyg inte vanliga inom det. Djupt lärande medför flera svårigheter när det används i en aktiv inlärningsmiljö. För det första är metoder för aktivt lärande (AL) i allmänhet beroende av att man kan lära sig och uppdatera modeller från små mängder data. Den senaste tidens framsteg i fråga om djupinlärning är däremot ökända för sitt beroende av stora mängder data. För det andra är många AL förvärvsfunktioner beroende av modell osäkerhet, men djupt lärande metoder sällan representerar sådan modell osäkerhet. I detta dokument kombinerar vi den senaste tidens framsteg i Bayesian djupt lärande i det aktiva lärandet på ett praktiskt sätt. Vi utvecklar en aktiv inlärningsram för data med hög dimension, en uppgift som hittills varit oerhört utmanande, med mycket sparsam befintlig litteratur. Genom att dra nytta av specialiserade modeller som Bayesian convolutional neural networks demonstrerar vi våra aktiva inlärningstekniker med bilddata, vilket ger en betydande förbättring av befintliga aktiva inlärningsmetoder. Vi visar detta på både MNIST dataset, samt för hudcancer diagnos från lesion bilder (ISIC2016 uppgift). | I det senaste arbetet med att använda AL med djupa neurala nätverk (DNNs), REF använda Bayesian djupa neurala nätverk för att utforma en aktiv lärande ram för högdimensionella data. | 6,318,455 | Deep Bayesian Active Learning with Image Data | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 79,032 |
Felinsprutningsteknik och -verktyg D bedömning av lämpligheten innebär undersökning av fel och fel. Den destruktiva karaktären hos en krasch och lång fellatens gör det svårt att identifiera orsakerna till misslyckanden i den operativa miljön. Det är särskilt svårt att återskapa ett felscenario för ett stort, komplext system. För att identifiera och förstå eventuella fel använder vi ett experimentbaserat tillvägagångssätt för att studera tillförlitligheten hos ett system. Ett sådant tillvägagångssätt tillämpas inte bara under utformnings- och konstruktionsfaserna, utan även under prototyp- och driftsfaserna. För att ta ett experimentbaserat tillvägagångssätt måste vi först förstå ett systems arkitektur, struktur och beteende. Vi måste särskilt känna till dess tolerans för fel och fel, inklusive dess inbyggda detekterings- och återvinningsmekanismer, 3 och vi behöver specifika instrument och verktyg för att injicera fel, skapa fel eller fel, och övervaka deras effekter. Ingenjörer använder oftast lågkostnads-, simuleringsbaserad felinsprutning för att utvärdera tillförlitligheten hos ett system som befinner sig i koncept- och designfaserna. Vid denna tidpunkt är det system som studeras endast en rad abstraktioner på hög nivå; genomförandedetaljerna har ännu inte fastställts. Systemet simuleras alltså på grundval av förenklade antaganden. Simuleringsbaserad felinsprutning, som förutsätter att fel eller fel uppstår enligt förutbestämd distribution, är användbar för att utvärdera effektiviteten hos feltoleranta mekanismer och ett systems tillförlitlighet; det ger snabb återkoppling till systemingenjörer. Det kräver dock exakta indataparametrar, som är svåra att leverera: Konstruktions- och teknikförändringar komplicerar ofta användningen av tidigare mätningar. Genom att testa en prototyp, å andra sidan, kan vi utvärdera systemet utan några antaganden om systemdesign, vilket ger mer exakta resultat. Vid prototypbaserad felinjektion injicerar vi fel i systemet för att • identifiera driftsäkerhet flaskhalsar, • studera systembeteende i närvaro av fel, • bestämma täckningen av feldetekterings- och återvinningsmekanismer, och • utvärdera effektiviteten hos feltoleransmekanismer (såsom omkonfigureringssystem) och prestandaförlust. För prototypbaserad felinsprutning injiceras fel antingen på hårdvarunivå (logiska eller elektriska fel) eller på programvarunivå (kod- eller datakorruption) och effekterna övervakas. Det system som används för utvärdering kan vara antingen en prototyp eller ett fullt fungerande system. Att injicera fel i ett operativt system kan ge information om felprocessen. Felinjektion lämpar sig dock endast för studier av emulerade fel. Det misslyckas också med att tillhandahålla tillförlitliga åtgärder, t.ex. medeltid mellan misslyckanden och tillgänglighet. I stället för att injicera fel kan ingenjörer direkt mäta driftsystem eftersom de hanterar verklig arbetsbelastning. 2 Mätbaserad analys använder faktiska data, som innehåller mycket information om naturligt förekommande fel och fel och ibland om återhämtningsförsök. Analysera dessa data kan ge förståelse för faktiska fel och fel egenskaper och insikt för analytiska modeller. Mätbaserad analys är dock begränsad till upptäckta fel. Dessutom måste data samlas in under lång tid eftersom fel och fel uppstår Felinjektion är viktigt för att utvärdera tillförlitligheten hos datorsystem. Forskare och ingenjörer har skapat många nya metoder för att injicera fel, som kan implementeras i både hårdvara och programvara. | Felinjektion REF ) är en populär teknik som främst används för utvärdering av feltolerans av datorsystem. | 5,155,992 | Fault Injection Techniques and Tools | {'venue': 'IEEE Computer', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,033 |
Vi inleder en teoretisk undersökning av den populära block-chiffer design-mål säkerhet mot "relaterade-key attacker" (RCAs). Vi börjar med att införa definitioner för begreppen PRP och PRF säkra mot klasser av RKAs, varje sådan klass specificeras av en tillhörande uppsättning av "relaterade-key härledda (RKD) funktioner." Sedan för vissa sådana klasser av attacker, visar vi omöjlighet resultat, visar att inget block-chiffer kan motstå dessa attacker medan, för andra, relaterade klasser av attacker som inkluderar populära mål i block chiffer samhället, vi visar möjliga resultat som ger teoretiskt stöd för åsikten att säkerhet mot dem är möjligt. Slutligen visar vi säkerhet för olika block-chifferbaserade konstruktioner som använder relaterade nycklar, inklusive en tweakable block chiffer ges i [17]. Vi tror att detta arbete hjälper block-chiffer designers och kryptoanalytiker genom att klargöra vilka klasser av attacker kan och inte kan vara måltavlor för design. Det hjälper block-chiffer användare genom att ge riktlinjer om de typer av relaterade nycklar som är säkra att använda i konstruktioner, och genom att göra det möjligt för dem att bevisa säkerheten för sådana konstruktioner. Slutligen lägger den fram en ny primitiv för teoretiker att begrunda med avseende på öppna frågor om konstruktioner baserade på minimala antaganden. | En teoretisk behandling av relaterade-nyckelattacker gavs av Bellare och Kohno REF. | 6,857,618 | A theoretical treatment of related-key attacks: RKA-PRPs, RKAPRFs, and applications | {'venue': 'Advances in Cryptology – EUROCRYPT 2003', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,034 |
Stor efterfrågan på beräkningsresurser hindrar i hög grad utbyggnaden av storskaliga Deep Neural Networks (DNN) i resursbegränsade enheter. I detta arbete föreslår vi en strukturerad sparsity Learning (SSL) metod för att reglera strukturer (dvs. filter, kanaler, filter former, och lagerdjup) av DNNs. SSL kan: (1) lära sig en kompakt struktur från en större DNN för att minska beräkningskostnaderna; (2) få en hårdvaruvänlig strukturerad sparhet av DNN för att effektivt påskynda DNN: s utvärdering. Experimentella resultat visar att SSL uppnår i genomsnitt 5,1× och 3,1× speedups av convolutional lagerberäkning av AlexNet mot CPU respektive GPU, med off-the-shelf bibliotek. Dessa uppfarter är ungefär dubbelt så snabba som de icke-strukturerade glesheterna; (3) regularisera DNN-strukturen för att förbättra klassificeringsnoggrannheten. Resultaten visar att för CIFAR-10 kan legalisering på lagerdjup minska 20 lager av ett Deep Residual Network (ResNet) till 18 lager samtidigt som noggrannheten förbättras från 91,25 % till 92,60 %, vilket fortfarande är något högre än för original ResNet med 32 lager. För AlexNet minskar strukturregleringen genom SSL också felet med 1%. Vår källkod finns på https://github.com/wenwei202/caffe/tree/scnn | Strukturerad Sparsity Learning (SSL) REF anpassar DNN strukturer, och använder lokal optimering för att påskynda beräkning. | 2,056,019 | Learning Structured Sparsity in Deep Neural Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 79,035 |
Abstract-Deep-lärande modeller har uppnått hög prestanda på många uppgifter, och har därmed tillämpats på många säkerhetskritiska scenarier. Till exempel, djupt lärande-baserade ansiktsigenkänningssystem har använts för att autentisera användare för att få tillgång till många säkerhetskänsliga program som betalningsappar. Sådan användning av djupinlärningssystem ger motståndarna tillräckliga incitament för att utföra attacker mot dessa system för sina kontradiktoriska syften. I detta arbete överväger vi en ny typ av attacker, kallas bakdörrar attacker, där angriparens mål är att skapa en bakdörr till ett lärande-baserat autentiseringssystem, så att han enkelt kan kringgå systemet genom att utnyttja bakdörren. I synnerhet syftar motståndaren till att skapa bakdörrar fall, så att offer lärande systemet kommer att vilseledas att klassificera bakdörrar fall som en målmärkning som anges av motståndaren. I synnerhet studerar vi bakdörrar förgiftning attacker, som uppnår bakdörrar attacker med hjälp av förgiftningsstrategier. Det vill säga, angriparen injicerar förgiftningsprover i träningen för att uppnå sitt kontradiktoriska mål. Olika från allt befintligt arbete, våra studerade förgiftningsstrategier kan tillämpas under en mycket svag hotmodell: (1) motståndaren har ingen kunskap om modellen och den utbildning som används av offret systemet; (2) angriparen får injicera endast en liten mängd förgiftning prover; (3) bakdörren nyckeln är svårt att märka även av människor för att uppnå smyg. Denna hotmodell är mer realistisk än de som antogs i tidigare arbete, och är lätt att genomföra för en angripare. Att tillfredsställa alla dessa begränsningar är utmanande, och vårt arbete är det första som visar genomförbarheten av bakdörrsförgiftningsattacker under en så svag hotmodell. Framför allt gör vi en utvärdering för att visa att en bakdörrsmotståndare endast kan injicera omkring 50 förgiftningsprover, samtidigt som man uppnår en anfallsfrekvens på över 90 procent. Vi är också det första arbetet med att visa att en dataförgiftningsattack kan skapa fysiskt genomförbara bakdörrar utan att röra vid träningsprocessen. Vårt arbete visar att bakdörrar förgiftning attacker utgör verkliga hot mot ett lärande system, och därmed belyser vikten av ytterligare utredning och föreslå försvarsstrategier mot dem. | Det har visat sig att ett litet antal förgiftade datapunkter (50 prover) behövs för att införa en bakdörr med hög anfallsfrekvens (>90%) REF. | 36,122,023 | Targeted Backdoor Attacks on Deep Learning Systems Using Data Poisoning | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 79,036 |
Energi är en kritisk resurs i sensornätverk. MAC-protokoll som S-MAC och T-MAC samordnar viloscheman för att minska energiförbrukningen. Nyligen, lågeffekt lyssnande (LPL) tillvägagångssätt som WiseMAC och B-MAC utnyttja mycket kort röstning av kanalaktivitet i kombination med långa ingress före varje överföring, spara energi särskilt under lågt nätutnyttjande. Synkroniseringskostnaden, antingen uttryckligen i schemaläggning, eller implicit i långa ingresser, begränsar alla dessa protokoll till tullcykler på 1-2 %. Vi visar att ultralåga arbetscykler på 0,1 % och lägre är möjliga med ett nytt MAC-protokoll som kallas schemalagda kanalröstningar (SCP). Detta arbete föranleder tre nya bidrag: För det första etablerar vi optimala konfigurationer för både LPL och SCP under fasta förhållanden och utvecklar en lägre energiförbrukning. Under dessa förhållanden kan SCP förlänga ett näts livslängd med en faktor på 3–6 gånger över LPL. För det andra är SCP utformad för att anpassa sig väl till varierande trafik. LPL är optimerat för känd, periodisk trafik, och långa ingresser blir mycket kostsamma när trafiken varierar. I ett försök minskar SCP energiförbrukningen med en faktor på 10 under sprucken trafik. Vi visar också hur SCP anpassar sig till tung trafik och strömmar data i multi-hop nätverk, minska latency med 85% och energi med 95% vid 9 humle. Slutligen visar vi att SCP kan fungera effektivt på den senaste hårdvaran såsom 802.15.4 radioapparater. I själva verket minskar energiförbrukningen hos SCP med snabbare radioapparater, men LPL ökar. | Schemalagd kanalröstning (SCP) REF eliminerar behovet av långa ingresser i LPL genom synkroniserade val. | 6,213,125 | Ultra-low duty cycle MAC with scheduled channel polling | {'venue': "SenSys '06", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,037 |
Vi presenterar och utvärderar ett system för återidentifiering av personer för övervakningssystem med flera kameror. Vårt tillvägagångssätt använder matchning av signaturer baserade på interest-points deskriptorer samlade på korta videosekvenser. En av originaliteterna i vår metod är att samla räntepunkter på flera tillräckligt tidsrymda bilder under personspårning inom varje kamera, för att fånga utseendevariabilitet. En första experimentell utvärdering som genomfördes på en allmänt tillgänglig uppsättning videofilmer med låg upplösning i ett kommersiellt köpcentrum visar mycket lovande resultat för omidentifiering av personer mellan kameror (en precision på 82 % för återkallande av 78 %). Det bör också noteras att vår matchningsmetod är mycket snabb: --1/8s för omidentifiering av en målperson bland 10 tidigare sett personer, och ett logaritmiskt beroende av antalet lagrade personmodeller, vilket gör omidentifiering bland hundratals personer som beräknas möjligt på mindre än -1/5 sekund. | För personåteridentifiering i multikamerasystem, Hamdoun m.fl. I Ref föreslogs ett tillvägagångssätt som överensstämmer med signaturer baserade på räntepunkters deskriptorer som samlats in på korta videosekvenser för system för omidentifiering av personer i övervakningssystem med flera kameror. | 2,059,819 | Person re-identification in multi-camera system by signature based on interest point descriptors collected on short video sequences | {'venue': '2008 Second ACM/IEEE International Conference on Distributed Smart Cameras', 'journal': '2008 Second ACM/IEEE International Conference on Distributed Smart Cameras', 'mag_field_of_study': ['Computer Science']} | 79,038 |
Taxitjänster spelar en viktig roll i kollektivtrafiken i stora städer. Att förbättra taxiföretagens effektivitet är ett viktigt samhällsproblem eftersom det skulle kunna förbättra förarnas inkomster och minska gasutsläppen och bränsleförbrukningen. Den senaste forskningen om att söka strategier kanske inte är optimal för de totala intäkterna under en längre tidsperiod, eftersom de bortser från de viktiga effekter som passagerarnas destinationer har på framtida passagerares sökande. För att ta itu med dessa frågor undersöks i detta dokument hur man kan öka intäkternas effektivitet (intäkter per tidsenhet) för taxiförare, och modellerar passageraren söker processen som en Markov beslutsprocess (MDP). För varje entimmes kortplats lär vi oss en rad olika parametrar för MDP från data och hittar det bästa draget för en ledig taxi för att maximera den totala intäkterna i den tiden slot. En fallstudie och flera experimentella utvärderingar av en verklig datauppsättning från en stor stad i Kina visar att vårt föreslagna tillvägagångssätt förbättrar intäktseffektiviteten för oerfarna förare med upp till 15 % och överträffar en baslinjemetod i alla tider. | REF bygger en Markov Decision Process-modell för att optimera taxichaufförernas intäktseffektivitet. | 1,688,740 | The Rich and the Poor: A Markov Decision Process Approach to Optimizing Taxi Driver Revenue Efficiency | {'venue': "CIKM '16", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,039 |
Djupa konvolutionella neurala nätverk (CNN) har levererat överlägsen prestanda i många datorseende uppgifter. I det här dokumentet föreslår vi en ny, djupgående, konvolutionell nätverksmodell för exakt detektering av viktiga föremål. Det viktigaste bidraget från detta arbete är att lära sig djupt osäkra konvolutionella egenskaper (UCF), som uppmuntrar robustheten och noggrannheten i detektionen. Vi uppnår detta genom att införa en omformulerad avhoppning (R-dropout) efter specifika konvolutionslager för att konstruera en osäker ensemble av interna funktionsenheter. Dessutom föreslår vi en effektiv hybriduppsamplingsmetod för att minska kontrollbordets artefakter hos dekonvolutionsoperatörer i vårt dekodernätverk. De föreslagna metoderna kan också tillämpas på andra djupgående konvolutionsnätverk. Jämfört med befintliga metoder för detektering av hållfasthet kan den föreslagna UCF-modellen innehålla osäkerheter för mer exakta objektgränsslutsatser. Omfattande experiment visar att vår föreslagna soliditetsmodell presterar gynnsamt mot toppmoderna metoder. Den osäkra funktionsinlärningsmekanismen och uppsamplingsmetoden kan avsevärt förbättra prestandan på andra pixelvisa visionsuppgifter. | Zhang m.fl. REF byggde en fullt ansluten djup CNN-modell med en konvolutionell encoder-dekoder arkitektur för att lära sig djupa osäkra konvolutionella bildfunktioner via en omformulerad avhopp, och de föreslog en ny hybriduppsampling metod för att minska checkerboard artefakter av dekonvolutionsoperatörer. | 28,019,430 | Learning Uncertain Convolutional Features for Accurate Saliency Detection | {'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 79,040 |
Motivering: PacBio singelmolekyl i realtid sekvensering är en tredje generationens sekvenseringsteknik som producerar långa avläsningar, med jämförelsevis lägre genomströmning och högre felfrekvens. Fel inkluderar många indels och komplicerar nedströmsanalys som kartläggning eller de novo montering. En hybridstrategi som drar nytta av den höga noggrannheten hos andra generationens korta avläsningar har föreslagits för att korrigera långa avläsningar. Kartläggning av korta avläsningar på långa avläsningar ger tillräcklig täckning för att eliminera upp till 99 % av felen, men på bekostnad av oöverkomliga körtider och betydande mängder disk- och minnesutrymme. Resultat: Vi presenterar LoRDEC, en hybrid felkorrigeringsmetod som bygger en koncis de Bruijn graf som representerar korta avläsningar, och söker en korrigerande sekvens för varje felaktig region i de långa avläsningar genom att traversera valda banor i grafen. I jämförelse är LoRDEC minst sex gånger snabbare och kräver minst 93 % mindre minne eller diskutrymme än tillgängliga verktyg, samtidigt som man uppnår jämförbar noggrannhet. Tillgänglighet och genomförande: LoRDEC är skrivet i C++, testat på Linuxplattformar och fritt tillgängligt på http://atgc.lirmm.fr/lordec. | Salmela m.fl. Ref presenterade hybridbaserad felkorrigering med hjälp av de Bruijn grafen. | 215,528,293 | LoRDEC: accurate and efficient long read error correction | {'venue': 'Bioinformatics', 'journal': 'Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 79,041 |
Ordningen och arrangemanget av dimensioner (variater) är avgörande för effektiviteten av ett stort antal visualisering tekniker såsom parallella koordinater, spridningsplotter, rekursiva mönster, och många andra. I detta dokument beskriver vi ett systematiskt tillvägagångssätt för att ordna dimensionerna efter deras likhet. Den grundläggande idén är att omorganisera datadimensionerna så att dimensioner som visar ett liknande beteende placeras bredvid varandra. För likhetskluster av dimensioner måste vi definiera likhetsåtgärder som bestämmer den partiella eller globala likheten av dimensioner. Vi betraktar sedan problemet med att hitta ett optimalt en- eller tvådimensionellt arrangemang av dimensionerna baserat på deras likhet. Teoretiska överväganden visar att både det ena och det tvådimensionella arrangemanget är förvånansvärt svåra problem, dvs. De är NP-kompletterade. Vår lösning på problemet är därför baserad på heuristiska algoritmer. En empirisk utvärdering med hjälp av ett antal olika visualiseringstekniker visar den höga effekten av vår likhetsklustring av dimensioner på visualiseringsresultaten. Visualiseringstekniker blir allt viktigare för analys och prospektering av stora flerdimensionella datamängder, som också kallas datautvinning [Kei 97]. En stor fördel med visualiseringstekniker framför andra (semi-)automatiska data mining tekniker (från statistik, maskininlärning, artificiell intelligens, etc.) är att visualiseringar möjliggör en direkt interaktion med användaren och ger en omedelbar återkoppling samt användarstyrning, vilket är svårt att uppnå i de flesta icke-visuella strategier. Den praktiska betydelsen av visuella data mining tekniker ökar därför stadigt, och i princip alla kommersiella data mining system försöker införliva visualisering tekniker av ett eller annat slag (vanligtvis ganska enkla) [KDD]. Det finns dock också ett antal kommersiella datautvinningsprodukter som använder avancerad visualiseringsteknik för att förbättra datautvinningsprocessen. Ett stort antal visualiseringstekniker som används i dessa system lider dock av ett välkänt problem - det tillfälliga arrangemanget av data dimensionerna 1 i displayen. Det grundläggande problemet är att datadimensionerna måste placeras i något en- eller tvådimensionellt arrangemang på skärmen, och detta görs oftast mer eller mindre av en slump -nämligen i den ordning som dimensionerna råkar visas i databasen. Dimensionernas utformning har emellertid en stor inverkan på visualiseringens uttrycksfullhet. Grundtanken med vårt tillvägagångssätt för att hitta en effektiv dimensionsordning är att ordna dimensionerna efter deras likhet. För detta ändamål måste vi först definiera likhetsåtgärder som avgör likheten mellan två dimensioner. Dessa likhetsåtgärder kan grunda sig på en partiell eller global likhet mellan de berörda dimensionerna (jfr. Avsnitt 2). För att fastställa likheten får ett enkelt Euclidean- eller mer komplext (t.ex. Fourier-baserade) avståndsmått användas. Baserat på likhetsmåttet måste vi sedan bestämma likhetsarrangemanget av dimensioner. Efter att formellt ha definierat de en- och tvådimensionella arrangemangsproblemen (jfr. Underavsnitt 3.1), i underavsnitt 3.2 visar vi att alla varianter av arrangemanget problem är beräknings svårt problem som är NP-komplett. För att lösa problemen måste vi därför använda heuristiska algoritmer (jfr. Underavsnitt 3.3. Avsnitt 4 innehåller en experimentell utvärdering av vår nya idé, som visar dess inverkan på de parallella koordinaterna, cirkelsegmenten och rekursiv mönsterteknik. Problemet med att bestämma likheten av dimensioner (variater) kan karakteriseras som följande: Databasen som innehåller N objekt med d-dimensioner kan beskrivas som d matriser A i, var och en innehåller N reella tal,. Vi är intresserade av att definiera en likhet åtgärd S, som kartlägger två matriser till ett reellt tal (S: ). Alla meningsfulla likhetsåtgärder S måste ha följande egenskaper: där. 1. Vad är det för fel på dig? I samband med detta dokument använder vi termen datadimension som kan utbytas med termen variater (statistiktermiologi) och attribut (databastermiologi). | Den likhetsbaserade dimensionsarrangemang som föreslogs i Ref tog också upp problemet med att arrangera pixelorienterade underfönster (dimensioner) på en 2D-maska. | 12,170,274 | Similarity clustering of dimensions for an enhanced visualization of multidimensional data | {'venue': 'Proceedings IEEE Symposium on Information Visualization (Cat. No.98TB100258)', 'journal': 'Proceedings IEEE Symposium on Information Visualization (Cat. No.98TB100258)', 'mag_field_of_study': ['Computer Science']} | 79,042 |
ABSTRACT Under de senaste åren har frågor om livsmedelssäkerhet väckt växande oro från samhällets sida. För att effektivt kunna upptäcka och förebygga livsmedelssäkerhetsproblem och spåra ansvarsskyldigheten är det nödvändigt att bygga upp ett tillförlitligt spårbarhetssystem. Det är särskilt viktigt att korrekt registrera, dela och spåra de specifika uppgifterna inom hela livsmedelskedjan, inklusive produktion, bearbetning, lagring, transport och detaljhandel. De traditionella spårbarhetssystemen har problem, t.ex. datasynlighet, manipulering och känslig information. Blockkedjan är en lovande teknik för spårbarhetssystemet för livsmedelssäkerhet på grund av egenskaperna, såsom den irreversibla tidsvektorn, smarta kontrakt och konsensusalgoritm. I detta dokument föreslås ett spårbarhetssystem för livsmedelssäkerhet baserat på blockkedjan och EPC Information Services och utvecklar ett prototypsystem. Hantering arkitekturen för on-chain och off-chain data föreslås också, genom vilken spårbarhetssystemet kan lindra problemet med dataexplosion av blockchain för Internet of Things. Dessutom är det smarta avtalet på företagsnivå utformat för att förhindra att uppgifter manipuleras och att känslig information sprids under informationsinteraktion mellan deltagarna. Prototypsystemet implementerades baserat på Ethereum. Enligt testresultaten är den genomsnittliga tiden för informationsförfrågans svar cirka 2 ms, medan mängden data och frågeräkningar på kedjan är 1 GB respektive 1000 gånger/s. | Föreslå ett spårbarhetssystem för livsmedelssäkerhet baserat på blockchain och EPC, Lin et al. REF utformade en dynamisk hanteringsmekanism för data på och utanför kedjan för att lösa problemet med dataexplosion och använde Ethereum för att testa prototypen. | 67,873,849 | Food Safety Traceability System Based on Blockchain and EPCIS | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 79,043 |
Multi-hop överföring beaktas för stora täckningsområden i bandbreddsbegränsade undervattens akustiska nätverk. I detta papper presenterar vi en skalbar routingteknik baserad på platsinformation, och optimerad för minsta energi per bit förbrukning. Det föreslagna protokollet Focused Beam Routing (FBR) är lämpligt för nätverk som innehåller både statiska och mobila noder, som inte nödvändigtvis synkroniseras till en global klocka. En källa nod måste vara medveten om sin egen plats och platsen för sin slutliga destination, men inte de andra noder. FBR-protokollet kan definieras som ett cross-layer-inflygning, där routingprotokollet, den medelstora åtkomstkontrollen och de fysiska lagerfunktionerna är tätt kopplade av effektstyrning. Det kan beskrivas som en distribuerad algoritm, där en rutt är dynamiskt etablerad när datapaketet passerar nätverket mot dess slutdestination. Valet av nästa relä görs vid varje steg på vägen efter det att lämpliga kandidater har föreslagit sig själva. Systemets prestanda mäts i form av energiförbrukning per bit och genomsnittlig end-to-end-fördröjning. Resultaten jämförs med de som erhållits med hjälp av i förväg etablerade rutter, definierade via Dijkstra algoritm för minimal strömförbrukning. Det visas att protokollets prestanda ligger nära det idealiska fallet, eftersom den extra bördan av dynamisk rutt upptäckt är minimal. | Jornet m.fl. I REF föreslogs en distribuerad inflygning – protokollet om fokuserad strålplanering (FBR). | 10,821,401 | Focused beam routing protocol for underwater acoustic networks | {'venue': "WuWNeT '08", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,044 |
Breda kategorier: mekanismteorier och innehållsteorier. Ontologier är innehållsteorier om olika typer av objekt, objekts egenskaper och relationer mellan objekt som är möjliga inom ett specificerat kunskapsområde. De ger potentiella termer för att beskriva vår kunskap om domänen. I den här artikeln undersöker vi den senaste utvecklingen av området ontologier i AI. Vi pekar på de något olika roller som ontologier spelar i informationssystem, naturlig språkförståelse och kunskapsbaserade system. De flesta forskningar om ontologier fokuserar på vad man kan karakterisera som domänfakta kunskap, eftersom knowlede av den typen är särskilt användbar i naturligt språk förståelse. Det finns en annan klass av ontologier som är viktiga i KBS-one som hjälper till att dela kunskap om resonemangsstrategier eller problemlösningsmetoder. I en uppföljande artikel kommer vi att fokusera på metod ontologier. I filosofin är ontologi studiet av de typer av ting som finns. Det sägs ofta att ontologier "skar världen vid dess leder". I AI, termen ontologi har till stor del kommit att betyda en av två relaterade saker. För det första är ontologi ett uttryck för representation, som ofta är specialiserat på något område eller ämne. Mer exakt är det inte vokabulären som sådan som kvalificerar sig som en ontologi, utan begreppen som termerna i vokabulären är avsedda att fånga. Att översätta termerna i en ontologi från ett språk till ett annat, till exempel från engelska till franska, förändrar således inte ontologin begreppsmässigt. I teknisk design kan du diskutera ontologi av en elektronisk-enheter domän, som kan innehålla ordförråd som beskriver konceptuella element-transistorer, operativa förstärkare, och spänningar-och förhållandet mellan dessa element-operativa förstärkare är en typ av elektronisk anordning, och transistorer är en komponent-av operativa förstärkare. Att identifiera en sådan vokabulär-och de underliggande konceptualiseringarna-allmänt kräver noggrann analys av de typer av objekt och relationer som kan existera inom domänen. I sin andra mening används ordet ontologi ibland för att hänvisa till en kunskapssamling som beskriver någon domän, vanligtvis en allmängiltig kunskapsdomän, med hjälp av ett representationsvokabulär. CYC 1 hänvisar till exempel ofta till sin kunskapsrepresentation av något kunskapsområde som sin ontologi. Med andra ord, representation vokabulär ger en uppsättning termer med vilka man kan beskriva fakta i någon domän, medan mängden kunskap som använder detta vokabulär är en samling fakta om en domän. Denna åtskillnad är dock inte så tydlig som den först kan förefalla. I exemplet electronic-device är transistorn en del av en fungerande förstärkare eller att den senare är en typ av elektronisk anordning är lika mycket ett faktum om | 'Ontologi' är en teoretisk representationsmodell i ett kunskapssystem REF. | 15,579,220 | What Are Ontologies, and Why Do We Need Them? | {'venue': None, 'journal': 'IEEE Intelligent Systems & Their Applications', 'mag_field_of_study': ['Computer Science']} | 79,045 |
Abstract-som strömmande videor blir allt populärare, är det viktigt att förstå den end-to-end streaming systemet och att utveckla effektiva algoritmer för kvalitetskontroll. I det här dokumentet tar vi upp problemet med hastighetskontroll för strömmande videor med en kontroll-teoretisk strategi. Bland de olika styrknapparna är videobithastigheten en av de mest effektiva i den meningen att den har en direkt inverkan på samspelet mellan videokodaren och nätverkssystemet. Samtidigt som ökande hastighet minskar den coder-inducerade snedvridningen, kan det också orsaka trängsel vid en flaskhals länk. Paketet förlust på grund av trängsel kommer då att öka snedvridningen av den avkodade videon. Vi modellerar end-to-end video ånga som ett återkopplingskontrollsystem, med hänsyn till video codec och sekvens egenskaper, hastighetskontroll, aktiv köhantering, och mottagaren återkoppling. Vi utvecklar sedan effektiva proportionella (P) regulatorer för att stabilisera den mottagna videokvalitet samt flaskhals länk kö, för både homogena och heterogena videosystem. Simuleringsresultat presenteras för att visa P-regulatorernas effektivitet och livskraften hos den föreslagna kontrollteoretiska metoden. | Huang m.fl. REF föreslog en proportionell styrenhet för att stabilisera den mottagna visuella kvaliteten, samt flaskhalsen länk kö. | 17,908,634 | A Control-Theoretic Approach to Rate Control for Streaming Videos | {'venue': 'IEEE Transactions on Multimedia', 'journal': 'IEEE Transactions on Multimedia', 'mag_field_of_study': ['Computer Science']} | 79,046 |
Den snabba tillväxten av den globala webben innebär aldrig tidigare skådade skalningsutmaningar för generella krypare och sökmotorer. I den här artikeln beskriver vi ett nytt hypertextinformationshanteringssystem som kallas en Focused Crawler. Målet med en fokuserad krypare är att selektivt söka ut sidor som är relevanta för en fördefinierad uppsättning ämnen. Ämnena specificeras inte med nyckelord, utan med hjälp av föredömliga dokument. Istället för att samla in och indexera alla tillgängliga hypertextdokument för att kunna svara på alla möjliga ad-hoc-frågor analyserar en fokuserad krypare sin krypgräns för att hitta de länkar som sannolikt är mest relevanta för krypningen. Det undviker irrelevanta regioner på webben. Detta leder till betydande besparingar i hårdvara och nätverk resurser, och bidrar till att hålla krypa mer uppdaterad. Vi beskriver en prototypimplementation som består av tre program som är integrerade via en relationsdatabas: en krypskytt som lagrar metadata för dokument och länkar i relationstabeller och styrs av olika attribut i dessa tabeller, en hypertextklassificering som uppdaterar metadata med ämnesinformation från en stor taxonomi (som Yahoo!) och ett klassificeringssystem som uppdaterar metadatafält som anger värdet av en sida som åtkomstpunkt för ett stort antal relevanta sidor. De två "gruvmodulerna" styr krånglaren bort från onödig utforskning och fokuserar sina insatser på webbregioner av intresse. Vi rapporterar om omfattande fokuserade experiment med användning av flera ämnen på olika nivåer av specificitet. Focused crawling förvärvar relevanta sidor stadigt medan standard crawling snabbt förlorar sin väg, även om de startas från samma rotuppsättning. Focused crawling är robust mot stora störningar i startuppsättningen av webbadresser. Den upptäcker till stor del överlappande uppsättningar av resurser trots dessa störningar. Den är också kapabel att utforska och upptäcka värdefulla resurser som är dussintals länkar från början uppsättningen, samtidigt försiktigt beskära de miljontals sidor som kan ligga inom samma radie. Våra anekdoter föreslår att fokuserad krypning är mycket effektivt för att bygga högkvalitativa samlingar av webbdokument på specifika ämnen, med hjälp av blygsam skrivbordsmaskinvara. | Däremot syftar fokuserad krypande REF till att endast krypa sidor som är relaterade till ett specifikt ämne. | 206,134,284 | Focused crawling: a new approach to topic-specific web resource discovery | {'venue': 'Computer Networks', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,047 |
Abstrakt. Vi definierar de dynamiska semantiken hos UML State Machines som integrerar statycharts med UML-objektmodellen. Användningen av ASM:er gör det möjligt för oss (a) att noggrant modellera händelsedrivna kör till slutförande schema, inklusive det sekventiella genomförandet av inträde/utträde åtgärder (längs strukturen av stat häckning) och samtidig genomförande av interna aktiviteter; (b) att formalisera objektinteraktionen, genom att kombinera kontroll och dataflöde funktioner på ett sömlöst sätt; och (c) att ge en exakt men ändå bevisligen mest allmänna beräkningsbetydelse till UML termer av atomära och durativa åtgärder / aktiviteter. Vi lånar några funktioner från den rigorösa beskrivningen av UML Activity Diagrams av ASMs i [7]. | E. Börger m.fl. I REF definierades UML:s dynamiska semantik i form av ASM som utvidgades genom ny konstruktion till att omfatta UML-state-machine-funktioner. | 7,198,642 | Modeling the Dynamics of UML State Machines | {'venue': 'Abstract State Machines', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,048 |
Nuvarande träd-till-träd modeller lider av tolkning fel eftersom de brukar använda endast 1-bästa parser för regel extraktion och avkodning. Vi föreslår istället en skogsbaserad träd-till-träd modell som använder packade skogar. Modellen är baserad på en probabilistisk synkron trädsubstitutions grammatik (STSG), som kan läras från likriktade skogspar automatiskt. Dekodern finner sätt att bryta ner träd i källskogen i elementära träd med hjälp av källprojicering av STSG samtidigt som man bygger målskogen parallellt. Jämförbart med det senaste frasbaserade systemet Mose, med hjälp av packade skogar i träd-till-träd översättning resulterar i en betydande absolut förbättring av 3,6 BLEU poäng jämfört med att använda 1-bästa träd. | REF anses vara fullpackade skogar i stället för 1-bästa träd för hela översättningsprocessen. | 2,828,132 | Improving Tree-to-Tree Translation with Packed Forests | {'venue': 'ACL-IJCNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,049 |
I detta papper presenterar vi en mellanliggande programrepresentation, kallad programberoende grafen (PDG), som gör explicit både data och kontrollberoende5 för varje operation i ett program. Databeroende har endast använts för att representera relevanta dataflödesrelationer i ett program. Kontrollberoende5 introduceras för att analogt representera endast de väsentliga kontrollflödesförhållandena i ett program. Kontrollberoendet härleds från den vanliga kontrollflödesgrafen. Många traditionella optimeringar fungerar effektivare på PDG. Eftersom beroenden i PDG kopplar samman datorrelaterade delar av programmet, räcker en enda gång av dessa beroenden för att utföra många optimeringar. PDG tillåter transformationer såsom vektorisering, som tidigare krävt särskild behandling av kontrollberoende, att utföras på ett sätt som är enhetligt för både kontroll och databeroende. Programomvandlingar som kräver interaktion mellan de två beroendetyperna kan också hanteras enkelt med vår representation. Till exempel införs ett stegvist tillvägagångssätt för att ändra databeroendet till följd av radering av filialer eller orullning av slingor. PDG stöder stegvis optimering, vilket gör det möjligt för transformationer att utlösas av varandra och tillämpas endast på drabbade beroenden. | Kontrollberoendena och databeroendena är modellerade i ett programberoende diagram (PDG) REF. | 505,075 | The program dependence graph and its use in optimization | {'venue': 'TOPL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,050 |
Vi visar att lutning nedstigning konvergerar till en lokal minimerare, nästan säkert med slumpmässig initiering. Detta bevisas genom att tillämpa Stable Manifold Theorem från dynamisk systemteori. | Lee och Al. REF visade att GD konvergerar till en lokal minimerare nästan säkert om den ursprungliga punkten väljs slumpmässigt. | 17,905,941 | Gradient Descent Converges to Minimizers | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 79,051 |
Vi anser att problemet med att upptäcka robotiska grepp i en RGB-D-vy av en scen som innehåller objekt. I detta arbete tillämpar vi ett djupt lärande för att lösa detta problem, vilket undviker tidskrävande handdesign av funktioner. Detta innebär två stora utmaningar. För det första måste vi utvärdera ett stort antal sökandes grepp. För att göra detektionen snabb och robust presenterar vi ett tvåstegssystem med två djupa nätverk, där toppdetektionerna från den första omvärderas av den andra. Det första nätverket har färre funktioner, är snabbare att köra, och kan effektivt rensa ut osannolika kandidat grepp. Den andra, med fler funktioner, är långsammare men måste köras endast på de översta få upptäckter. För det andra måste vi hantera multimodala ingångar effektivt, där vi presenterar en metod som tillämpar strukturerad legalisering av vikterna baserat på multimodal gruppreglering. Vi visar att vår metod förbättrar prestandan på en RGBD robot gripa dataset, och kan användas för att framgångsrikt köra grepp på två olika robotplattformar. | I REF används ett djupt nätverk som är utbildat i 1035 exempel för att fastställa ett framgångsrikt grepp baserat på RGB-D-data. | 5,240,721 | Deep learning for detecting robotic grasps | {'venue': None, 'journal': 'The International Journal of Robotics Research', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 79,052 |
Vi presenterar ett robust och realtidsmonokulärt sexgradigt frihetssystem visuellt omlokaliseringssystem. Vi använder Bayesian convolutional neurala nätverk för att regressera 6-DOF kameran posera från en enda RGB-bild. Det är utbildat på ett end-to-end sätt utan behov av ytterligare teknik eller grafoptimering. Algoritmen kan fungera inomhus och utomhus i realtid, vilket tar under 6 ms att beräkna. Den får ca 2m och 6 • noggrannhet för mycket storskaliga utomhusscener och 0,5m och 10 • noggrannhet inomhus. Med hjälp av en Bayesian convolutional neural network implementation får vi en uppskattning av modellens relocalization osäkerhet och förbättra state of the art localization noggrannhet på en stor skala utomhus dataset. Vi utnyttjar osäkerhetsmåttet för att uppskatta metriska omlokaliseringsfel och för att upptäcka närvaron eller frånvaron av scenen i indatabilden. Vi visar att modellens osäkerhet beror på att bilderna skiljer sig från träningsdatasetet i antingen pos eller utseende. | Till exempel, i REF, författarna utforska Bayesian Neural Networks för att producera omlokalisering osäkerhet av den förutsagda pose. | 3,240,382 | Modelling uncertainty in deep learning for camera relocalization | {'venue': '2016 IEEE International Conference on Robotics and Automation (ICRA)', 'journal': '2016 IEEE International Conference on Robotics and Automation (ICRA)', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 79,053 |
Abstract-Vi föreslår en enkel men stark baslinje för tidsserieklassificering från grunden med djupa neurala nätverk. Våra föreslagna baslinjemodeller är rena end-to-end utan någon tung förbearbetning på rådata eller funktionsbearbetning. Det föreslagna Fully Convolutional Network (FCN) uppnår premium prestanda till andra state-of-the-art metoder och vår undersökning av de mycket djupa neurala nätverk med ResNet struktur är också konkurrenskraftig. Den globala genomsnittliga sammanslagningen i vår konvolutionsmodell gör det möjligt att utnyttja CAM (Class Activation Map) för att ta reda på den bidragande regionen i rådata för de specifika etiketterna. Våra modeller ger ett enkelt val för den verkliga applikationen och en bra utgångspunkt för den framtida forskningen. En övergripande analys ges för att diskutera generaliseringsförmågan hos våra modeller, inlärda funktioner, nätverksstrukturer och klassificeringssemantik. | En tre lager helt ansluten Convolutional Neural Network med en genomsnittlig pooling lager utformad för tidsserie klassificering har införts i REF. | 14,303,613 | Time series classification from scratch with deep neural networks: A strong baseline | {'venue': '2017 International Joint Conference on Neural Networks (IJCNN)', 'journal': '2017 International Joint Conference on Neural Networks (IJCNN)', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 79,054 |
Sammanfattning av denna webbsida: I den här artikeln behandlar vi Quality-of-Service (QoS)-aware routing problem för Body Sensor Networks (BSNs) i fördröjning och tillförlitlighet domäner. Vi föreslår en data-centric multiobjektive QoS-Aware routing protokoll, kallas DMQoS, som underlättar systemet för att uppnå anpassade QoS-tjänster för varje trafikkategori differentierad efter de genererade datatyper. Den använder modulär designarkitektur där olika enheter fungerar i samordning för att tillhandahålla flera QoS-tjänster. Deras verksamhet utnyttjar geografiska platser och QoS prestanda grannnoder och implementerar en lokaliserad hop-by-hop routing. Dessutom säkerställer protokollet (nästan) en homogen energiavledningshastighet för alla routing noder i nätverket genom en multiobjektiv Lexicographic Optimization-baserad geografisk vidarebefordring. Vi har genomfört omfattande simuleringar av det föreslagna protokollet, och resultaten visar att DMQoS har betydande prestandaförbättringar över flera state-of-the-art metoder. | DMQoS (Datacentric multi-objektive QoS-aware routing protocol) REF väljer nästa humlenod med hjälp av en multi-objektiv lexikografisk optimering (LO) metod baserad på restenergi och avståndet till destinationen. | 2,802,376 | Data-Centric Multiobjective QoS-Aware Routing Protocol for Body Sensor Networks | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Medicine', 'Computer Science', 'Engineering']} | 79,055 |
Sammanfattning En stor utmaning i att tillämpa Bayesian spårningsmetoder för att spåra 3D mänskliga kroppen pose är den höga dimensionaliteten i pose state utrymme. Det har observerats att 3D-kroppen utgör parametrar som normalt kan antas ligga på ett lågdimensionellt grenrör inbäddat i det högdimensionella rummet. Målet med detta arbete är att approxima den lågdimensionella grenrör så att en lågdimensionell tillstånd vektor kan erhållas för effektiv och effektiv Bayesian spårning. För att uppnå detta mål, en globalt samordnad blandning av faktoranalysatorer läras från rörelse fånga data. Varje faktoranalysator i blandningen är en "lokalt linjär dimensions reducer" som approximerar en del av grenröret. Den globala parametriseringen av grenröret uppnås genom att anpassa dessa lokalt linjära bitar i ett globalt koordinatsystem. För att möjliggöra automatiskt och optimalt urval av antalet faktoranalysatorer och dimensionaliteten hos grenröret, föreslås en variantal Bayesian formulering av den globalt samordnade blandningen av faktoranalysatorer. Fördelarna med den föreslagna modellen visas i en multipel hypotes tracker för att spåra 3D mänskliga kroppen pose. Kvantitativa jämförelser på bänk- | I REF föreslogs modellen Globalt Samordnad Blandning av faktoranalysatorer (GCMFA) som liknar GPLVM-modellerna i den meningen att den utför en stark icke-linjär dimensionsreduktion. | 6,502,701 | 3D Human Motion Tracking with a Coordinated Mixture of Factor Analyzers | {'venue': 'International Journal of Computer Vision', 'journal': 'International Journal of Computer Vision', 'mag_field_of_study': ['Computer Science']} | 79,056 |
Abstract-kränkande transistorgeometrier, aggressiv spänningsskalning och högre driftsfrekvenser har negativt påverkat livstidstillförlitligheten hos inbyggda flerkärniga system. I detta papper föreslås en konvex optimeringsbaserad uppgifts-mapping teknik för att förlänga livslängden för en multiprocessor system-onchip (MPSoCs). Den föreslagna tekniken genererar kartläggningar för alla applikationer som aktiveras på plattformen med variabelt antal kärnor. Baserat på dessa resultat är en ny 3D-optimeringsteknik utvecklad för att distribuera kärnan i en MPSoC bland flera applikationer som aktiveras samtidigt. Dessutom, tillförlitligheten hos de underliggande nätverks-on-chip länkar tas också upp genom att införliva åldrande av länkar i den objektiva funktionen. Våra formuleringar är utvecklade för riktade acykliska grafer (DAG) och synkrona dataflödesgrafer (SDFGs), vilket gör vårt tillvägagångssätt tillämpligt för såväl streaming som icke-streaming applikationer. Experiment som genomförs med syntetiska och verkliga tillämpningsdiagram visar att den föreslagna metoden förlänger livslängden för en MPSoC med mer än 30 % när applikationerna aktiveras individuellt såväl som i tandem. | Författare i REF presenterar en uppgift-mapping teknik för att maximera MTTF av en MPSoC med tanke på åldrandet av NoC-länkar. | 16,310,675 | Reliability-driven task mapping for lifetime extension of networks-on-chip based multiprocessor systems | {'venue': "DATE '13", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,057 |
Abstract-Snakes, eller aktiva konturer, har i stor utsträckning använts i bildbehandlingsapplikationer. Typiska vägspärrar till konsekventa prestanda inkluderar begränsat fångstområde, bullerkänslighet, och dålig konvergens till konkaviteter. I detta dokument föreslås en ny yttre kraft för aktiva konturer, så kallade vektorfältskonvolution (VFC), för att ta itu med dessa problem. VFC beräknas genom att den kantkarta som genereras från bilden sammanställs med den användardefinierade vektorkärnan. Vi föreslår två strukturer för vektorkärnans magnitudfunktion, och vi tillhandahåller en analysmetod för att uppskatta parametern för magnitudfunktionen. Blandade VFC införs för att lindra eventuella läckageproblem som orsakas av att man väljer olämpliga parametrar. Vi visar också att standarden yttre kraft och lutning vektorflödet (GVF) yttre kraft är specialfall av VFC i vissa scenarier. Exempel och jämförelser med GVF presenteras i detta dokument för att visa fördelarna med denna innovation, inklusive överlägsen bullertålighet, minskade beräkningskostnader och flexibiliteten i att skräddarsy kraftfältet. | Li och Acton föreslog ett annat externt kraftfält för utvecklingen av aktiva konturer REF, i vilket den yttre kraften − på utsidan ( ) i (2) ersätts med det yttre kraftfältet V vfc (, ): | 1,905,054 | Active Contour External Force Using Vector Field Convolution for Image Segmentation | {'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Mathematics', 'Medicine', 'Computer Science']} | 79,058 |
Temporal abstraktion är nyckeln till att skala upp lärande och planering i förstärkning lärande. Även om planeringen med tidsförlängda åtgärder är väl förstådd, har skapandet av sådana abstraktioner autonomt från data förblivit en utmaning. Vi tar itu med detta problem inom ramen för alternativen [Sutton, Precup & Singh, 1999; Precup, 2000]. Vi härleder policy gradienter för alternativ och föreslår en ny alternativ-kritisk arkitektur som kan lära sig både den interna politiken och villkoren för uppsägning av alternativ, tillsammans med politiken över alternativ, och utan att behöva ge några ytterligare belöningar eller delmål. Experimentella resultat i både diskreta och kontinuerliga miljöer visar på flexibiliteten och effektiviteten i ramverket. | Bacon m.fl. I REF föreslås en optionskritisk arkitektur som lär sig tidsförlängta alternativ och deras uppsägningsvillkor, tillsammans med policyn över dem. | 6,627,476 | The Option-Critic Architecture | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 79,059 |
Det finns en hel del forskning intresse för att koda variabel längd meningar i fasta längd vektorer, på ett sätt som bevarar meningen betydelser. Två vanliga metoder inkluderar representationer baserade på genomsnitt ordvektorer, och representationer baserade på dolda tillstånd av återkommande neurala nätverk såsom LSTMs. Den mening vektorer används som funktioner för efterföljande maskininlärning uppgifter eller för förutbildning i samband med djupt lärande. Dock är inte mycket känt om de egenskaper som kodas i dessa mening representationer och om den språkinformation de fångar. Vi föreslår en ram som underlättar en bättre förståelse av de kodade representationerna. Vi definierar förutsägelseuppgifter kring isolerade aspekter av meningsstruktur (nämligen meningslängd, ordinnehåll och ordordning) och poäng representationer av förmågan att träna en klassificering för att lösa varje förutsägelse uppgift när du använder representationen som indata. Vi demonstrerar det potentiella bidraget från tillvägagångssättet genom att analysera olika meningsrepresentationsmekanismer. Analysen kastar ljus över de relativa styrkorna hos olika meningar som inbäddar metoder med avseende på dessa lågnivåförutsägelseuppgifter, och över effekten av den kodade vektorns dimensionalitet på de resulterande representationerna. | Adi m.fl. REF analysera mening inbäddningar genom att använda dem som indata för en klassificering som är tränad för att förutsäga meningslängd, ordinnehåll och ordordning. | 6,771,196 | Fine-grained Analysis of Sentence Embeddings Using Auxiliary Prediction Tasks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 79,060 |
Det mest uttrycksfulla sättet människor visar känslor på är genom ansiktsuttryck. I detta arbete rapporterar vi om flera framsteg vi har gjort i att bygga ett system för klassificering av ansiktsuttryck från kontinuerlig videoinmatning. Vi introducerar och testar olika Bayesian nätverk klassificerare för att klassificera uttryck från video, med fokus på förändringar i distributionsantaganden, och funktionsberoende strukturer. I synnerhet använder vi Naive-Bayes klassificerare och ändra fördelningen från Gaussian till Cauchy, och använda Gaussian Tree-Augmented Naive Bayes (TAN) klassificerare för att lära sig beroenden bland olika ansiktsrörelse funktioner. Vi introducerar också en ansiktsuttrycksigenkänning från live videoinmatning med hjälp av timliga signaler. Vi utnyttjar de befintliga metoderna och föreslår en ny arkitektur av dolda Markov modeller (HMMs) för att automatiskt segmentera och känna igen mänskliga ansiktsuttryck från videosekvenser. Arkitekturen utför både segmentering och igenkänning av ansiktsuttryck automatiskt med hjälp av en flernivåarkitektur som består av ett HMM-lager och ett Markov-modelllager. Vi utforskar både personberoende och personoberoende igenkännande av uttryck och jämför de olika metoderna. | Cohen m.fl. REF använder dolda Markov-modeller på videosekvenser. | 8,693,566 | Facial expression recognition from video sequences: temporal and static modeling | {'venue': 'Computer Vision and Image Understanding', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,061 |
Abstrakt. införde ett nytt mått på svårighet för en distribuerad uppgift i ett nätverk. Det minsta antalet bitar av råd av ett distribuerat problem är det minsta antalet bitar av information som måste vara tillgängliga för noder för att utföra uppgiften effektivt. Vårt papper behandlar antalet bitar av råd som krävs för att effektivt utföra grafsökningsproblem i en distribuerad inställning. I denna variant av problemet, alla sökare placeras initialt på en viss nod av nätverket. Syftet med teamet av sökare är att fånga en osynlig och godtyckligt snabb rymling på ett monotont ansluten sätt, dvs. den rensade delen av grafen är permanent ansluten, och aldrig minskar medan sökstrategin utförs. Vi visar att det minsta antalet bitar av råd som tillåter monoton ansluten clearing av ett nätverk i en distribuerad inställning är O(n log n), där n är antalet noder i nätverket, och denna gräns är snäv. Mer exakt ger vi först en märkning av hörnen i någon graf G, med hjälp av totalt O(n log n) bitar, och ett protokoll som använder denna märkning som möjliggör clearing G på en monoton ansluten distribuerat sätt. Sedan visar vi att detta antal bitar av råd är nästan optimalt: inget protokoll med hjälp av ett orakel som ger o(n log n) bitar av råd tillåter monoton ansluten clearing av ett nätverk med hjälp av det minsta antalet sökare. | Författare i REF bestämmer (asymptotiskt) det minsta antal bitar av råd som behöver ges när man kräver en distribuerad sökalgoritm för att använda det minsta antalet sökare och fungera på ett monotont sätt. | 2,304,834 | GRAPH SEARCHING WITH ADVICE | {'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,062 |
Denna korrespondens presenterar en ny hybrid omslags- och filterfunktionsalgoritm för ett klassificeringsproblem med hjälp av ett memetiskt ramverk. Den innehåller en filterrankningsmetod i den traditionella genetiska algoritmen för att förbättra klassificeringsprestandan och påskynda sökningen i identifieringen av de centrala delfunktionerna. Särskilt, metoden lägger till eller tar bort en funktion från en kandidat funktion delmängd baserat på den unika funktionen ranking information. Denna empiriska studie av allmänt använda datauppsättningar från University of California, Irvine arkiv och microarray datauppsättningar visar att den föreslagna metoden överträffar befintliga metoder när det gäller klassificering noggrannhet, antal utvalda funktioner och beräkningseffektivitet. Dessutom undersöker vi flera viktiga frågor om memetisk algoritm (MA) för att identifiera en bra balans mellan lokal sökning och genetisk sökning för att maximera sökkvalitet och effektivitet i hybridfiltret och omslag MA. Index Terms-Chi-kvadrat, funktionsval, filter, vinstkvot, genetisk algoritm (GA), hybrid GA (HGA), memetisk algoritm (MA), relief, omslag. | Referensreferensreferensen används också hybrid av omslags- och filtreringsbaserad funktionsvalsalgoritm vid klassificering tillsammans med memtiska ramar. | 18,382,400 | Wrapper–Filter Feature Selection Algorithm Using a Memetic Framework | {'venue': 'IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics)', 'journal': 'IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics)', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 79,063 |
Sammanfattning De nyaste övervakningstillämpningarna försöker sig på mer komplexa uppgifter som analys av individers och folkmassors beteende. Dessa komplexa uppgifter kan använda ett distribuerat visuellt sensornätverk för att få täckning och utnyttja den inneboende redundansen i det överlappade vyfältet. I den här artikeln presenteras en multiagentarkitektur baserad på modellen Belief-Desire-Intention (BDI) för behandling av information och säkringsdata i ett distribuerat visuellt sensornätverk. I stället för att utbyta råa bilder mellan de agenter som är involverade i det visuella nätverket utförs lokal signalbehandling och endast de viktigaste observerade funktionerna delas. Efter en registrerings- eller kalibreringsfas utför den föreslagna arkitekturen spårning, datafusion och samordning. Med hjälp av den föreslagna multiagentarkitekturen fokuserar vi på sättet att sammansmälta de uppskattade positionerna på markplanet från olika agenter som appliceras på samma objekt. Denna fusionsprocess används för två olika ändamål: 1) för att uppnå kontinuitet i spårningen av de kameror som ingår i det distribuerade nätverket, 2) för att förbättra kvaliteten på spårningen med hjälp av fusionsteknik och genom att kassera icke-tillförlitliga sensorer. Experimentella resultat på två olika scenarier visar att den designade arkitekturen framgångsrikt kan spåra ett objekt även när ocklusioner eller sensorns fel inträffar. Sensorns fel minskas genom att man utnyttjar redundansen hos ett visuellt sensornätverk med överlappat vyfält. | Komplementärt, Castanedo et al. REF beskriver en MAS baserad på BDI-modellen för behandling av information och lagring av data från ett distribuerat visuellt sensornätverk. | 4,517,607 | A Multi-agent Architecture Based on the BDI Model for Data Fusion in Visual Sensor Networks | {'venue': None, 'journal': 'Journal of Intelligent & Robotic Systems', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 79,064 |
Vi har utvecklat ett portabelt bibliotek för automatisk upptäckt av melanom som kallas SkinScan c och som kan användas på smartphones och andra handhållna enheter. Jämfört med stationära datorer har inbäddade processorer begränsad bearbetningshastighet, minne och kraft, men de har fördelen av portabilitet och låga kostnader. I denna studie utforskade vi genomförbarheten av att köra en sofistikerad applikation för automatiserad hudcancer upptäckt på en Apple iPhone 4. Våra resultat visar att det föreslagna biblioteket med avancerade bildbehandlings- och analysalgoritmer har utmärkt prestanda på handdatorer och stationära datorer. Därför kan användning av smartphones som screening enheter för hudcancer och andra hudsjukdomar ha en betydande inverkan på hälso-och sjukvård leverans i undermåliga och avlägsna områden. | Wadhawan, etc. föreslog ett portabelt bibliotek för melanomdetektion på handhållna enheter baserat på den välkända bag-of-features ramverk REF. | 7,830,509 | SkinScan©: A portable library for melanoma detection on handheld devices | {'venue': '2011 IEEE International Symposium on Biomedical Imaging: From Nano to Macro', 'journal': '2011 IEEE International Symposium on Biomedical Imaging: From Nano to Macro', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 79,065 |
I detta dokument presenterar vi ett effektivt system för felåterställning för mobila applikationer som bygger på rörelsebaserad kontroll och loggning. I de nuvarande strategierna görs regelbundna kontroller utan hänsyn till användarens rörlighet. Vårt rörelsebaserade checkpointing-system tar en checkpoint först efter att en tröskel för mobilitetsavlämningar har överskridits. Den optimala tröskeln styrs av felfrekvensen, loggankomsthastigheten och mobilitetsgraden för applikationen och den mobila värddatorn. Detta gör det möjligt att justera kontrollpoängen på en applikation och per mobil värdbas. Vi identifierar den optimala rörelsetröskeln som kommer att minimera återvinningskostnaden per fel som en funktion av mobilnodens mobilitetshastighet, felfrekvens och loggankomsthastighet. Vi beräknar också återvinningsbarheten, d.v.s. sannolikheten för att återvinningen kan göras med en viss återhämtningstid, och diskuterar tillämpligheten av metoden. | Likhet innebär att ett system för kontroll av förflyttningar i Ref tar en kontrollpunkt först efter det att ett tröskelvärde för antalet rörlighetsavlämningar har överskridits. | 18,859,435 | Movement-based checkpointing and logging for recovery in mobile computing systems | {'venue': "MobiDE '06", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,066 |
Abstrakt. Twitter-nätverket är för närvarande överväldigad av stora mängder tweets som genereras av dess användare. För att effektivt organisera och söka tweets, användare måste vara beroende av lämpliga hashtaggar infogas i tweets. Vi börjar vår forskning om hashtaggar genom att först analysera en Twitter-datauppsättning som genererats av mer än 150 000 Singapore-användare under en tremånadersperiod. Bland flera intressanta fynd om hashtag användning av denna användargrupp, har vi hittat en konsekvent och betydande användning av nya hashtaggar på en daglig basis. Detta tyder på att de flesta hashtaggar har mycket kort livslängd. Vi föreslår vidare en ny hashtag rekommendationsmetod baserad på samarbetsfiltrering och metoden rekommenderar hashtaggar som finns i föregående månads data. Vår metod anser att både användarpreferenser och tweetinnehåll vid val av hashtaggar rekommenderas. Våra experiment visar att vår metod ger bättre prestanda än rekommendationer baserade enbart på tweetinnehåll, även genom att beakta hashtaggar som antagits av ett litet antal (1 till 3) användare som delar liknande användarpreferenser. | Kywe och al. REF studerar tidsfördelningen av hashtaggar och sedan föreslår författarna en hashtag rekommendationsmetod baserad på samarbetsfiltrering. | 18,378,679 | On recommending hashtags in twitter networks | {'venue': 'SocInfo', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,067 |
Den grundläggande idén med enhet-till-enhet (D2D) kommunikation är att par av lämpligt utvalda trådlösa enheter återanvända det cellulära spektrumet för att upprätta direkta kommunikationslänkar, förutsatt att de negativa effekterna av D2D-kommunikation på cellulära användare minimeras och cellulära användare ges högre prioritet vid användning av begränsade trådlösa resurser. Trots sin stora potential när det gäller täckning och kapacitetsprestanda innebär genomförandet av detta nya koncept vissa utmaningar, särskilt när det gäller förvaltning av radioresurser. De största utmaningarna beror på ett starkt behov av distribuerade D2D-lösningar som fungerar i avsaknad av exakt kanal- och nätverkskunskap. För att ta itu med denna utmaning studerar detta dokument ett resursfördelningsproblem i ett trådlöst nätverk med en enda cell med flera D2D-användare som delar de tillgängliga radiofrekvenskanalerna med cellulära användare. Vi anser att ett realistiskt scenario där basstationen (BS) är försedd med strikt begränsad kanal kunskap medan D2D och cellulära användare har ingen information. Vi visar en lägre bundet för den cellulära aggregat verktyg i nedlänken med fast BS effekt, vilket gör det möjligt att frikoppla kanalallokering och D2D effektstyrning problem. En effektiv graf-teoretisk metod föreslås för att utföra kanaltilldelningen, som erbjuder flexibilitet med avseende på tilldelningskriterium (aggregerad nyttomaximering, rättvisa, kvalitet på servicegarantin). Vi modellerar power control problemet som en multi-agent lärande spel. Vi visar att spelet är ett exakt potentiellt spel med bullriga belöningar, definieras på en diskret strategi som, och karakteriserar uppsättningen av Nash equilibria. Q-lärande med bättre svarsdynamik används sedan för att uppnå jämvikt. En kort version av detta dokument godtas | Författarna till REF föreslår ett centraliserat diagrambaserat resursfördelningssystem och modellerar problemet med maktstyrning som ett exakt potentiellt spel. | 8,570,645 | Hybrid Centralized-Distributed Resource Allocation for Device-to-Device Communication Underlaying Cellular Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 79,068 |
Abstract-Många organisationer vill förutsäga antalet defekter (fel) i mjukvarusystem, innan de är utplacerade, för att mäta den sannolikt levererade kvalitet och underhåll arbete. För att hjälpa till med detta har ett stort antal programvarumått och statistiska modeller tagits fram, med en motsvarande stor litteratur. Vi ger en kritisk granskning av denna litteratur och den senaste tekniken. De flesta av de många modellerna använder storleks- och komplexitetsmått för att förutsäga fel. Andra bygger på testdata, utvecklingsprocessens "kvalitet" eller en multivariat strategi. Författarna till modellerna har ofta gjort heroiska bidrag till ett ämne som annars berövats empiriska studier. Det finns dock ett antal allvarliga teoretiska och praktiska problem i många studier. Modellerna är svaga på grund av sin oförmåga att hantera det hittills okända sambandet mellan defekter och misslyckanden. Det finns grundläggande statistik- och datakvalitetsproblem som undergräver modellens giltighet. Mer påtagligt många förutsägelser modeller tenderar att modellera endast en del av det underliggande problemet och allvarligt missuppfatta det. För att illustrera dessa punkter "Goldilocks hypotes", att det finns en optimal modulstorlek, används för att visa de betydande problem som ingår i nuvarande fel förutsägelse metoder. Noggrann och genomtänkt analys av tidigare och nya resultat visar att hypotesen saknar stöd och att vissa modeller är vilseledande. Vi rekommenderar holistiska modeller för förutsägelse av programvarudefekter, med hjälp av Bayesian Belief Networks, som alternativa metoder till de single-issue-modeller som används för närvarande. Vi argumenterar också för forskning om en teori om "programvara nedbrytning" för att testa hypoteser om fel introduktion och bidra till att bygga en bättre vetenskap om programvaruteknik. | REF kritiserade de modeller som presenterats hittills, kallade singel-issue modeller, och föreslog istället användning av maskininlärning tekniker för att komma fram till en mer allmän modell för att förutsäga fel i programvara. | 1,084,381 | A Critique of Software Defect Prediction Models | {'venue': 'IEEE Transactions on Software Engineering', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,069 |
Oöverträffad bildöversättning, som syftar till att översätta två oberoende uppsättningar bilder, är utmanande att upptäcka rätt korrespondens utan parade data. Befintliga verk bygger på Generativa Adversarial Networks (Gans) sådan att distributionen av översatta bilder är oskiljaktiga från fördelningen av det uppsatta målet. Sådana begränsningar på viss nivå kan dock inte lära sig korrespondenser på instansnivå (t.ex. Anpassade semantiska delar i objekttransfiguration uppgift). Denna begränsning resulterar ofta i falska positiva (t.ex. geometriska eller semantiska artefakter), och ytterligare leder till läge kollaps problem. För att ta itu med ovanstående frågor föreslår vi en ny ram för till exempel bildöversättning av djup uppmärksamhet GAN (DA-GAN). En sådan design gör det möjligt för DA-GAN att bryta ner uppgiften att översätta prover från två uppsättningar till att översätta instanser i ett välstrukturerat latent utrymme. I synnerhet lär vi oss gemensamt en djup uppmärksamhet kodare, och korrespondenser på instansnivå skulle följaktligen kunna upptäckas genom att närvara vid de inlärda instanserna. Begränsningarna skulle därför kunna utnyttjas på både fastställd nivå och instansnivå. Jämförelser mot flera "state-of-thearts" visar överlägsenheten i vårt tillvägagångssätt, och den breda tillämpningsförmågan, t.ex., utgör morfering, dataförstärkning, etc., driver marginalen för problem med domänöversättning. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. | Mamma och Al. REF föreslog en djup uppmärksamhet kodare som en del av deras modell till exempel nivåöversättning. | 3,355,038 | DA-GAN: Instance-Level Image Translation by Deep Attention Generative Adversarial Networks | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 79,070 |
Mål Detta arbete fokuserar på multiplikationsrelaterade Uniified Medical Language System (UMLS) begrepp, det vill säga begrepp som associeras genom flera relationer. De relationer som är inblandade i sådana situationer granskas för att avgöra om de tillhandahålls av källvokabulärer eller är ett resultat av integreringen av dessa ordförråd i UMLS. Metoder Vi studerar kompatibiliteten av de flera relationer som associerar de begrepp som undersöks och försöker förklara orsaken till varför de inträffar. I detta syfte analyserar vi relationerna både på koncept- och terminsnivå. Dessutom väljer vi slumpmässigt 288 koncept som associeras genom motstridiga relationer och analyserar dem manuellt. Resultat På UMLS-skalan är endast 0,7 % av kombinationerna av relationer motstridiga, medan homogena kombinationer observeras i en tredjedel av fallen. På skalan av källvokabulärer innehåller en tredjedel inte mer än ett samband mellan de begrepp som är föremål för undersökning. Bland de återstående källvokabulärerna uppvisar sju av dem huvudsakligen flera icke-homogena relationer mellan termer. Analys på terminsnivå visar också att endast i en fjärdedel av fallen är källvokabulärer ansvariga för förekomsten av multiplikationsrelaterade begrepp i UMLS. Dessa resultat finns tillgängliga på http://www.isped.u-bordeaux2.fr/ArticleJAMIA/results_multiply_related_concepts.aspx. Diskussion Manuell analys var användbar för att förklara begreppsskillnaden i relationer mellan termer över källvokabulärer. Utnyttjandet av källrelationer var till hjälp för att förstå varför vissa källvokabulärer beskriver flera relationer mellan ett givet par termer. | Mougin m.fl. REF undersökte utförligt multiplikationsrelaterade begrepp inom UMLS, där multiplikationsrelaterade begrepp innebär begrepp kopplade till flera relationer. | 26,352,396 | Auditing the multiply-related concepts within the UMLS. | {'venue': 'Journal of the American Medical Informatics Association : JAMIA', 'journal': 'Journal of the American Medical Informatics Association : JAMIA', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 79,071 |
I detta dokument presenterar vi BlinkDB, en massivt parallell, ungefärlig frågemotor för att köra interaktiva SQL-frågor på stora volymer data. BlinkDB tillåter användare att handlao frågenoggrannhet för svarstid, vilket möjliggör interaktiva frågor över massiva data genom att köra frågor om dataprover och presentera resultat kommenterade med meningsfulla fel bars. För att uppnå detta använder BlinkDB två nyckelidéer: ( ) en adaptiv optimeringsram som bygger och upprätthåller en uppsättning multidimensionella strati ed prover från ursprungliga data över tid, och ( ) en dynamisk urvalsstrategi som väljer en lämplig storlek prov baserat på en fråga noggrannhet eller svarstiden krav. Vi utvärderar BlinkDB mot de välkända TPC-H-riktmärkena och en verklig analytisk arbetsbörda från Conviva Inc., ett företag som hanterar videodistribution över Internet. Våra experiment på en nod kluster visar att BlinkDB kan svara på frågor om upp till TBs data på mindre än sekunder (över × snabbare än Hive), inom ett fel av -. Moderna data analytics applikationer innebär att beräkna aggregat över ett stort antal poster för att rulla upp webbklick, online-transaktioner, innehåll nedladdningar, och andra funktioner längs en mängd olika olika dimensioner, inklusive demografi, innehållstyp, region, och så vidare. Traditionellt har sådana frågor utförts med hjälp av sekventiella genomsökningar över en stor del av en databas. I allt högre grad kräver nya tillämpningar nästan svarsfrekvenser i realtid. Exempel kan vara program som (i) uppdaterar annonser på en webbplats baserat på trender i sociala nätverk som Facebook och Twitter, eller (ii) bestämmer undergruppen av användare som upplever dålig prestanda baserat på deras tjänsteleverantör och / eller geografisk plats. Under de senaste två decennierna har ett stort antal approximativa tekniker föreslagits, som gör det möjligt för snabbt pro-Permission att göra digitala eller hårda kopior av hela eller delar av detta arbete för personligt eller klassrum användning beviljas utan avgift, förutsatt att kopior inte görs eller distribueras för vinst eller kommersiella fördelar och att kopior är märkta med detta meddelande och den fullständiga citeringen på första sidan. För att kopiera på annat sätt, för att återpublicera, för att posta på servrar eller för att omfördela till listor, krävs tidigare specifik behörighet och/eller avgift. April -, Tjeckien Copyright © ACM --- /....................................................................................... Dessa tekniker inkluderar provtagning [, ], skisser [ ], och on-line aggregering [ ]. För att illustrera nyttan av sådana tekniker, överväga följande enkla fråga som beräknar den genomsnittliga SessionTime över alla användare med ursprung i New York: SELECT AVG (SessionTime) FRÅN Sessions Where City = 'New York' Antag att Sessions tabellen innehåller miljoner tuples för New York, och inte kan t i minne. I så fall kan ovanstående fråga ta lång tid att köra, eftersom diskavläsningar är dyra, och en sådan fråga skulle behöva flera diskåtkomst för att strömma genom alla tuples. Antag att vi istället utförde samma fråga på ett prov som endast innehåller, New York tuples, så att hela provet ts i minnet. skulle vara storleksordningar snabbare, men ändå ge ett ungefärligt resultat inom några procent av det faktiska värdet, en noggrannhet tillräckligt bra för många praktiska ändamål. Med hjälp av provtagningsteorin skulle vi till och med kunna ge kondensgränser för exaktheten i svaret [ ]. Tidigare beskrivna approximationstekniker gör olika affärer mellan efficiency och generaliteten i de frågor som de stöder. I ena änden av spektrumet, befintliga provtagning och skissbaserade lösningar uppvisar lågt utrymme och tids komplexitet, men vanligtvis göra starka antaganden om frågebördan (t.ex., de antar att de vet uppsättningen av tuples nås av framtida frågor och aggregering funktioner som används i frågor). Som ett exempel, om vi vet att alla framtida frågor är på stora städer, skulle vi helt enkelt kunna behålla slumpmässiga prover som utelämnar data om mindre städer. I andra änden av spektrumet gör system som onlineaggregation (OLA) [ ] färre antaganden om frågebördan, på bekostnad av mycket varierande prestanda. Med hjälp av OLA, ovanstående fråga kommer sannolikt nish mycket snabbare för sessioner i New York (dvs, användaren kan vara nöjd med resultatet noggrannhet, när frågan ser rst, sessioner från New York) än för sessioner i Galena, IL, en stad med färre än, människor. I själva verket, för en sådan liten stad, OLA kan behöva läsa hela tabellen för att beräkna ett resultat med tillfredsställande fel gränser. I detta dokument hävdar vi att ingen av de tidigare lösningarna är en bra t för dagens big data analytics arbetsbörda. OLA Ordförande | BlinkDB REF upprätthåller en uppsättning stratifierade prover genom att använda en fellatensprofil som erhållits genom att analysera tidigare frågor. | 780,345 | BlinkDB: queries with bounded errors and bounded response times on very large data | {'venue': "EuroSys '13", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,072 |
Ptolemaios är en miljö för simulering och prototypering av heterogena system. Den använder modern objektorienterad programvaruteknik (C++) för att modellera varje delsystem på ett naturligt och effektivt sätt och integrera dessa delsystem i en helhet. Ptolemaios omfattar praktiskt taget alla aspekter av utformning av signalbehandlings- och kommunikationssystem, allt från algoritmer och kommunikationsstrategier, simulering, maskinvaru- och programvarudesign, parallell databehandling och skapande av prototyper i realtid. För att rymma denna bredd, Ptolemaios måste stödja en uppsjö av vitt skilda designstilar. Kärnan i Ptolemaios är en uppsättning objektorienterade klassdefinitioner som gör få antaganden om det system som ska modelleras; snarare tillhandahålls standardgränssnitt för generiska objekt och mer specialiserade, applikationsspecifika objekt härleds från dessa. En grundläggande abstraktion i Ptolemaios är domänen, som förverkligar en beräkningsmodell lämplig för en viss typ av delsystem. Aktuella exempel på domäner inkluderar synkront och dynamiskt dataflöde, diskret händelse, och andra lämpliga för kontroll programvara och inbyggda mikrokontroller. Domäner kan blandas på lämpligt sätt för att förverkliga en övergripande systemsimulering. Vissa aktuella tillämpningar av Ptolemaios inkluderar nätverkande och transport, programvara för samtalsbearbetning och signalering, inbyggda mikrokontroller, signalbehandling (inklusive implementering i realtid), schemaläggning av parallella digitala signalprocessorer, maskinvarutidssimulering på styrelsenivå och kombinationer av dessa. Nyckelord: Heterogenitet, mixed-mode, simulering, prototyping, objektorienterad programmering Ptolemaios är en simulering och snabb prototyping ram för heterogena system. Den är idealisk för tillämpningar där heterogenitet är en viktig egenskap. • Design av multimedianät. • Inbäddad programvara i realtid. • Hardware/Software codesign. • Control and call processing in telecommunication networks. • Snabb prototypering av nya telekommunikationstjänster. • Mixed-mode hårdvarusimulering. • Kartläggning av tillämpningar på heterogena multiprocessorsystem. • Blandad signalbehandling och realtidskontroll. Till exempel, i utformningen av multimedianät, är vi intresserade av att studera samspelet mellan transport, kompression eller sammansättning signalbehandling, och styra programvara i röst- eller videotjänster över cell-relay nätverk. Inom telekommunikationssystem är vi intresserade av att studera samspelet mellan call-processing programvara och hårdvarubrytare element. För att utveckla nya telekommunikationstjänster måste vi gemensamt utforma styrprogramvara, signalbehandling, transport och hårdvaruelement. Inom maskinvarudesign är vi intresserade av modellering av komponenter med varierande detaljer, såsom beteende, logik, timing och krets. Vid konstruktion på systemnivå kanske vi gemensamt vill utforma kommunikationsinfrastrukturen och bearbetningselementen. Vi kan också vilja syntetisera (i kombination) mikrokod för specialiserade processorer, C-kod för generiska processorer, routing tabeller för fältprogrammerbara grindar och anpassade VLSI. Vi kan vilja automatisera kartläggningar på parallella processorer genom att blanda specialiserade schemaläggare, såsom de som mål systoliska matriser Analys av system med hjälp av sådana allmänna beskrivningar är svårt, och effektiva kompilatorer är svåra att genomföra. När det gäller VHDL, till exempel, alla effektiva VLSI syntesverktyg begränsar sin domän till en delmängd av språket. Tyvärr väljer varje verktyg en annan delmängd, vilket upphäver fördelarna med ett standardiserat språk. På samma sätt begränsar effektiva parallellplanerare sitt område till specialfall av Petri-nät. Dessutom kommer komplexiteten och mångfalden i systemnivådesignen bara att öka. Även om någon Turing-ekvivalent modell i princip kan hantera alla beräkningsdesign, klart det finns fördelar med att specialisera specifikationsspråket. Vi anser att vi inte kan förutse alla de språk och modeller för beräkning som kommer att visa sig vara effektiva. Vår strategi är därför att anamma heterogenitet genom att tillåta användaren att blanda olika modellbeskrivningar för delsystem, utan att begränsa dessa beskrivningar. Den viktigaste innovationen i Ptolemaios är en icke-dogmatisk kärna som inte förutsätter ett dataflöde eller funktionell modell, finita-state maskiner, statecharts, kommunicerar sekventiella processer, eller Petri nät. I stället kan Ptolemaios ta emot alla dessa. Det viktigaste är att kombinera beskrivningar så att komplexa system kan utformas på ett heterogent sätt. Ptolemaios kan ses som ett samordningsspråk, men eftersom det inte är ett språk i konventionell mening föredrar vi att beskriva det som en samordningsram. Naturligtvis har våra begränsade resurser gjort det omöjligt att utforska kombinationer av alla de beräkningsmodeller som beskrivs ovan. Därför kan vi ännu inte göra anspråk på att helt ha bevisat vårt koncept. Dessutom visar vår erfarenhet att det inte är trivialt att kombinera mycket olika modeller av beräkningar. Vår förhoppning är att genom att tillhandahålla en öppen arkitektur med väldefinierade gränssnitt kan en gemenskap av användare med mycket olika designmetoder testa våra idéer. Ett typiskt stort system är strukturerat som visas i figur 1. Den består av heterogena delsystem (vissa implementeras i hårdvara, vissa i programvara) tillsammans med ett delsystem för programvarukontroll och en kommunikationsinfrastruktur. Ptolemaios modellerar sådana system väl. Tänk till exempel på en del av en multimediaanslutning genom ett bredbandspaketnät som visas i figur 2. I detta heterogena system, videokompression (signalbehandling), transport (nätverk) och kontroll (programvara) delsystem är mest bekvämt modelleras på mycket olika sätt, och ändå finns det en önskan att studera samspelet mellan dessa delsystem. Ett annat exempel som kräver liknande heterogenitet visas i figur 3. En datorresurs (kanske en futuristisk arbetsstation) består av en bekant UNIX 1-processor, en separat processor som kör ett specialiserat realtidsoperativsystem, en tredje processor för hård-realtidssignalbehandling (utan operativsystem) och programmerbar hårdvara för verkligt intensiva uppgifter (såsom protokollimplementeringar och I/O-gränssnitt till anpassade enheter). En enhetlig miljö för programmering av en sådan 1. UNIX är ett varumärke som tillhör AT&T. En heterogen kombination av datorresurser måste stödja de olika designstilar som skulle användas för varje resurs. Ptolemaios använder objektorienterade programvaruprinciper för att uppnå följande mål: • Agility: Stödja distinkta beräkningsmodeller, så att varje delsystem kan simuleras och prototyperas på ett sätt som är lämpligt och naturligt för det delsystemet. • Heterogenitet: Tillåt distinkta beräkningsmodeller att samexistera sömlöst i syfte att studera interaktioner mellan delsystem. | Ptolemaios REF är en rik plattform med simulerings- och analysverktyg för design av inbyggda streamingsystem: det ger den synkrona dataflödet (SDF) modell för beräkning. | 14,659,487 | Ptolemy : A Framework for Simulating and Prototyping Heterogeneous Systems | {'venue': 'ICPP (2)', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,073 |
Abstract-Vi tar upp problemet med att bestämma korrespondenser mellan två bilder i överensstämmelse med en geometrisk modell som affin, homografi eller tunnplatta spline transformation, och uppskatta dess parametrar. Bidragen från detta arbete är trefaldiga. Först föreslår vi en konvolutionell neural nätverksarkitektur för geometrisk matchning. Arkitekturen är baserad på tre huvudkomponenter som efterliknar standardstegen för funktionsextraktion, matchning och samtidig inlier detektion och modellparameteruppskattning, samtidigt som den kan tränas end-to-end. För det andra visar vi att nätverksparametrarna kan tränas från syntetiskt genererade bilder utan behov av manuell annotering och att vårt matchande lager avsevärt ökar generaliseringsmöjligheterna att aldrig se tidigare bilder. Slutligen visar vi att samma modell kan utföra både instans- och kategori-matchning vilket ger toppmoderna resultat på de utmanande PF, TSS och Caltech-101 dataseten. | På samma sätt föreslog REF en end-toend arkitektur för att lära affin transformationer utan manuell annotering där funktioner för var och en av de två bilderna extraheras genom en siames arkitektur, följt av utbildningsbara matchning och geometrisk parameteruppskattning som ger toppmoderna resultat på förslagsflödesdatauppsättningen. | 47,159,753 | Convolutional Neural Network Architecture for Geometric Matching | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 79,074 |
Trådlösa sensornätverk utlovar finkornig övervakning i en mängd olika miljöer. Många av dessa miljöer (t.ex. inomhusmiljöer eller livsmiljöer) kan vara hårda för trådlös kommunikation. Ur ett nätverksperspektiv är den mest grundläggande aspekten av trådlös kommunikation paketleveransprestandan: paketförlustens spatiotemporala egenskaper och dess miljöberoende. Dessa faktorer kommer i hög grad att påverka resultaten av datainsamlingen från dessa nätverk. I den här artikeln rapporterar vi om ett systematiskt medelstort (upp till sextio noder) mått på paketleverans i tre olika miljöer: en kontorsbyggnad inomhus, en livsmiljö med moderat lövverk och en öppen parkeringsplats. Våra resultat har intressanta konsekvenser för design och utvärdering av routing och medium-access protokoll för sensornätverk. | När det gäller karakterisering av trådlös kommunikation utförde Zhao och Govindan REF experiment som undersökte paketleveransen i tre olika miljöer: en kontorsbyggnad inomhus, en livsmiljö med moderat lövverk och en öppen parkeringsplats. | 420,024 | Understanding packet delivery performance in dense wireless sensor networks | {'venue': "SenSys '03", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Engineering']} | 79,075 |
GPU arkitekturer blir allt viktigare i multi-core eran på grund av deras höga antal parallella processorer. Programmering tusentals massiva parallella trådar är en stor utmaning för programvaruingenjörer, men att förstå prestanda flaskhalsar av dessa parallella program på GPU arkitekturer för att förbättra programprestanda är ännu svårare. De nuvarande metoderna bygger på att programmerare justerar sina tillämpningar genom att utnyttja designutrymmet på ett uttömmande sätt utan att helt förstå prestandaegenskaperna hos deras tillämpningar. För att ge insikter i prestandaflaskhalsarna hos parallella applikationer på GPU-arkitekturer föreslår vi en enkel analytisk modell som uppskattar tiden för exekvering av massiva parallella program. Den viktigaste komponenten i vår modell är att uppskatta antalet parallella minnesförfrågningar (vi kallar detta för minnesvarpparallalism) genom att beakta antalet löpande trådar och minnesbandbredd. Baserat på graden av minnesvarpparallalism beräknar modellen kostnaden för minnesförfrågningar och beräknar därmed den totala genomförandetiden för ett program. Jämförelser mellan resultatet av modellen och den faktiska genomförandetiden i flera GPU:er visar att det geometriska medelvärdet av absolut fel i vår modell på mikro-benchmarks är 5,4% och på GPU computing applikationer är 13,3%. Alla ansökningar är skrivna på CUDA programmeringsspråk. | Hong Ref föreslog en analytisk modell för GPU-arkitektur. | 207,173,155 | An analytical model for a GPU architecture with memory-level and thread-level parallelism awareness | {'venue': "ISCA '09", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,076 |
Vi sammanför idéer från det senaste arbetet med funktionsdesign för egocentrisk handlingsigenkänning inom ett ramverk genom att undersöka användningen av djupa konvolutionella neurala nätverk (CNN). Det senaste arbetet har visat att funktioner som handutseende, objektattribut, lokal handrörelse och kamera ego-rörelse är viktiga för att karakterisera förstapersonsåtgärder. För att integrera dessa idéer under en ram, föreslår vi en dubbel ström nätverk arkitektur, där en ström analyserar utseende information och den andra ström analyserar rörelseinformation. Vårt utseende ström kodar tidigare kunskap om det egocentriska paradigmet genom att uttryckligen träna nätverket att segmentera händer och lokalisera objekt. Genom att visualisera viss neuronaktivering av vårt nätverk visar vi att vår föreslagna arkitektur naturligt lär sig funktioner som fångar objektattribut och handobjektskonfigurationer. Våra omfattande experiment med riktvärden för egocentriska aktionsdata visar att vår djupa arkitektur möjliggör igenkänningshastigheter som avsevärt överträffar toppmoderna tekniker - en genomsnittlig ökning av noggrannheten med 6,6 % över alla datauppsättningar. Genom att lära sig känna igen objekt, åtgärder och aktiviteter gemensamt ökar också utförandet av individuella erkännandeuppgifter med 30 % (insatser) och 14 % (objekt). Vi inkluderar också resultaten av en omfattande ablativ analys för att lyfta fram betydelsen av beslut om nätverksdesign. | I REF, den rumsliga ström segment händer och upptäcker objekt. | 5,229,785 | Going Deeper into First-Person Activity Recognition | {'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 79,077 |
Abstract-I detta dokument föreslås en ny icke-linjär subrymdsinlärningsteknik för klassspecifik datarepresentation. En ny datarepresentation erhålls genom att tillämpa icke-linjära klassspecifika dataprojicering på ett särskiljande funktionsutrymme, där de data som hör till den aktuella klassen framtvingas vara nära deras klassrepresentation, medan de data som tillhör de återstående klasserna framdrivs så långt som möjligt från den. En klass representeras av en optimerad klassvektor, vilket ökar klassdiskrimineringen i det resulterande funktionsutrymmet. Ett iterativt optimeringssystem föreslås för detta ändamål, där både den optimala ickelinjära dataprojiceringen och den optimala klassrepresentationen bestäms i varje optimeringssteg. Det föreslagna tillvägagångssättet testas på tre problem relaterade till mänskligt beteende analys: Ansiktsigenkänning, ansiktsuttryck erkännande, och mänskliga åtgärder erkännande. Experimentella resultat betecknar den föreslagna metodens effektivitet, eftersom den föreslagna klassspecifika referensdiskriminantanalysen överträffar kärndiskriminantanalys, kärnspektrologisk regression och klassspecifik kärndiskriminantanalys, samt i de flesta fall stöder vektormaskinbaserad klassificering. Index Terms-klassspecifik kärndiskriminantanalys (CSKDA), klassspecifik kärnspektral regression, människadatorinteraktion, optimerad klassrepresentation. | Losifidis m.fl. REF tillämpade icke-linjära klassspecifika dataprojicering till ett särskiljande funktionsutrymme med tillämpningar i människabeteendeanalys. | 37,286,396 | Class-Specific Reference Discriminant Analysis With Application in Human Behavior Analysis | {'venue': 'IEEE Transactions on Human-Machine Systems', 'journal': 'IEEE Transactions on Human-Machine Systems', 'mag_field_of_study': ['Computer Science']} | 79,078 |
Abstract-The 3GPP har ökat behovet av att se över utformningen av nästa generations mobilnät för att göra dem kapabla och effektiva att tillhandahålla M2M-tjänster. En av de viktigaste utmaningarna som har identifierats är behovet av att förbättra driften av den slumpmässiga tillträdeskanalen för LTE och LTE-A. Den nuvarande mekanismen för att begära tillträde till systemet är känd för att drabbas av överbelastning och överbelastning i närvaro av ett stort antal anordningar. Därför arbetar olika forskargrupper runt om i världen för att utforma effektivare sätt att hantera tillgången till dessa nätverk under sådana omständigheter. Syftet med detta dokument är att ge en översikt över de alternativ som har föreslagits under de senaste åren för att förbättra driften av den slumpmässiga tillträdeskanalen för LTE och LTE-A. Det ges en omfattande diskussion om de olika alternativen, där man identifierar styrkor och svagheter hos var och en av dem, samtidigt som man drar framtida trender för att styra insatserna över samma skjutlinje. Även om den befintliga litteraturen har varit inriktad på prestanda när det gäller förseningar kommer LTE:s energieffektivitet att spela en viktig roll vid utbyggnaden av M2M-nät. Därför ges i detta dokument en omfattande utvärdering av energieffektiviteten hos LTE:s slumpmässiga tillträdesmekanism. Syftet med denna datorbaserade simuleringsstudie är att fastställa en grundläggande prestanda på vilken nya och mer energieffektiva mekanismer kan utformas inom en snar framtid. | En omfattande utvärdering av energieffektiviteten hos LTE:s slumpmässiga tillträdesmekanism och dess roll för M2M tillhandahålls Ref. | 25,929,315 | Is the Random Access Channel of LTE and LTE-A Suitable for M2M Communications? A Survey of Alternatives | {'venue': 'IEEE Communications Surveys & Tutorials', 'journal': 'IEEE Communications Surveys & Tutorials', 'mag_field_of_study': ['Computer Science']} | 79,079 |
Icke-ortogonal multipelåtkomst (NOMA) har nyligen beaktats i millimetervåg (mmWave) massiva MIMO-system för att ytterligare förbättra spektrumeffektiviteten. Dessutom är samtidig trådlös information och kraftöverföring (SWIPT) en lovande lösning för att maximera energieffektiviteten. I detta dokument undersöker vi för första gången integrationen av SWIPT i mmWave massiva MIMO-NOMA-system. Eftersom mmWave massiv MIMO sannolikt kommer att använda hybridförkodning (HP) för att avsevärt minska antalet erforderliga radiofrekvenskedjor (RF) utan en uppenbar prestandaförlust, där den helt digitala precoden bryts ned i en högdimensionell analog precoder och en lågdimensionell digital precoder, föreslår vi att tillämpa SWIPT i HP-baserade MIMO-NOMA-system, där varje användare kan extrahera både information och energi från de mottagna RF-signalerna genom att använda en strömdelningsmottagare. Specifikt föreslås valet av klusterhuvudalgoritm för att välja en användare för varje stråle först, och sedan är den analoga förkodningen utformad enligt de valda klusterhuvudena för alla strålar. Efter det utförs användargruppering baserat på korrelationen mellan användarnas likvärdiga kanaler. Därefter är den digitala förkodningen utformad genom att välja användare med den starkaste motsvarande kanalvinsten i varje stråle. Slutligen maximeras den uppnåeliga summan genom att gemensamt optimera krafttilldelningen för mmWave massiv MIMO-NOMA och effektdelningsfaktorer för SWIPT, och en iterativ optimeringsalgoritm utvecklas för att lösa det icke-konvexa problemet. Simuleringsresultat visar att den föreslagna HP-baserade MIMO-NOMA med SWIPT kan uppnå högre spektrum- och energieffektivitet jämfört med HP-baserade MIMO-OMA med SWIPT. | Dai m.fl. REF undersökte en millimetervåg med hjälp av NOMA-SWIPT-systemet för att ytterligare förbättra spektrumeffektiviteten. | 52,311,221 | Hybrid Precoding-Based Millimeter-Wave Massive MIMO-NOMA With Simultaneous Wireless Information and Power Transfer | {'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 79,080 |
Vi lägger fram en strategi för gemensamt utnyttjande av enheter och förbindelser i samband med erkännande och analys av åsikter. Vi identifierar två typer av opinionsbildare - uttalanden av yttranden och källor till yttranden - tillsammans med det samband som finns mellan dem. Inspirerad av, Vi använder ett heltal linjär programmering strategi för att lösa den gemensamma åsiktsigenkänning uppgift, och visar att globala, begränsningsbaserade slutsatser kan avsevärt öka prestanda både relationsextraktion och utvinning av åsikter-relaterade enheter. Prestanda förbättras ytterligare när ett semantiskt rollmärkningssystem införlivas. Det resulterande systemet uppnår F-åtgärder på 79 respektive 69 för enhets- respektive relationsextraktion, vilket avsevärt förbättrar tidigare resultat i området. | REF undersöker den gemensamma utvinningen av åsikter och källor från MPQA corpus. | 250,761 | Joint Extraction Of Entities And Relations For Opinion Recognition | {'venue': 'Conference On Empirical Methods In Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,081 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.