src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
De senaste åren har det skett en ökning av sofistikerade attacker inklusive avancerade ihållande hot (APT) som utgör allvarliga risker för organisationer och regeringar. Dessutom, nya malware stammar visas i en högre takt än någonsin tidigare. Eftersom många av dessa malware undvika befintliga säkerhetsprodukter, traditionella försvar utplaceras av företag idag ofta misslyckas med att upptäcka infektioner i ett tidigt skede. Vi tar itu med problemet med att upptäcka tidig APT-infektion genom att föreslå ett nytt ramverk baserat på trosförökning inspirerad av grafteori. Vi visar att våra tekniker fungerar bra på två stora dataset. Vi uppnår hög noggrannhet på två månader DNS-loggar släpptes av Los Alamos National Lab (LANL), som inkluderar APT infektion attacker simuleras av LANL domän experter. Vi tillämpar också våra algoritmer för 38TB webbproxyloggar samlade vid gränsen till ett stort företag och identifiera hundratals skadliga domäner förbises av toppmoderna säkerhetsprodukter.
RSA föreslår ett nytt ramverk baserat på trosförökning i grafteori för att lösa problemet med tidig upptäckt av företagsinfektion REF.
1,545,809
Detection of Early-Stage Enterprise Infection by Mining Large-Scale Log Data
{'venue': '2015 45th Annual IEEE/IFIP International Conference on Dependable Systems and Networks', 'journal': '2015 45th Annual IEEE/IFIP International Conference on Dependable Systems and Networks', 'mag_field_of_study': ['Computer Science']}
8,444
Visuell förklaring gör det möjligt för människor att förstå beslutsfattandet av djupa konvolutionella neurala nätverk (CNN), men det är inte tillräckligt för att bidra till att förbättra CNN prestanda. I detta dokument fokuserar vi på uppmärksamhetskartan för visuell förklaring, som representerar ett högt svarsvärde som uppmärksamhetsplats i bildigenkänning. Denna uppmärksamhetsregion förbättrar CNN:s resultat avsevärt genom att införa en uppmärksamhetsmekanism som fokuserar på en viss region i en image. I detta arbete föreslår vi Attention Branch Network (ABN), som utökar en responsbaserad visuell förklaringsmodell genom att införa en grenstruktur med en uppmärksamhetsmekanism. ABN kan tillämpas på flera bildigenkänningsuppgifter genom att införa en gren för uppmärksamhetsmekanismen och kan tränas för visuell förklaring och bildigenkänning på ett end-to-end-sätt. Vi utvärderar ABN på flera bildigenkänning uppgifter såsom bildklassificering, finkornig igenkänning, och flera ansiktsattribut igenkänning. Experimentella resultat indikerar att ABN överträffar baslinjemodellerna för dessa bildigenkänningsuppgifter och samtidigt skapar en uppmärksamhetskarta för visuell förklaring. Vår kod finns tillgänglig 1.
Multi-ABN är inspirerad av uppmärksamhet grenen nätverk (ABN) REF.
56,895,339
Attention Branch Network: Learning of Attention Mechanism for Visual Explanation
{'venue': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
8,445
Maskininlärning modeller är sårbara för kontradiktoriska exempel, indata illvilligt störd för att vilseleda modellen. Dessa ingångar överför mellan modeller, vilket möjliggör Black-box attacker mot utplacerade modeller. Motståndsträning ökar robustheten mot attacker genom att ge kontradiktoriska exempel på träningsdata. Förvånansvärt nog finner vi att även om de kontradiktoriskt utbildade modellerna uppvisar en stark robusthet i vissa white-box-attacker (dvs. med kunskap om modellparametrarna), är de fortfarande mycket sårbara för överförda kontradiktoriska exempel gjorda på andra modeller. Vi visar att orsaken till denna sårbarhet är modellens beslutsyta som uppvisar skarp krökning i närheten av datapunkterna, vilket hindrar attacker baserade på första ordningens approximationer av modellens förlust, men tillåter svart-box attacker som använder kontradiktoriska exempel överförs från en annan modell. Vi utnyttjar denna observation på två sätt: För det första föreslår vi en enkel men kraftfull ny attack som först tillämpar en liten slumpmässig perturbation på en ingång, innan vi hittar den optimala perturbationen under en första ordningen approximation. Vår attack överträffar tidigare "enstegs" attacker på modeller tränade med eller utan kontradiktorisk träning. För det andra föreslår vi Ensemble Adversarial Training, en förlängning av den kontradiktoriska utbildningen som dessutom utökar träningsdata med perturbed-ingångar som överförs från ett antal fasta förtränade modeller. På MNIST och ImageNet förbättrar ensembleträningen avsevärt robustheten mot attacker i svarta boxar.
Ensemble adversarial utbildning används i REF för att mjuka upp klassifierarens beslutsgränser.
21,946,795
Ensemble Adversarial Training: Attacks and Defenses
{'venue': 'International Conference on Learning Representations (ICLR) 2018', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
8,446
I detta dokument föreslår vi en IR-modell som i princip använder statistiken över underliggande XML-data för att ta itu med dessa utmaningar. Vi föreslår först specifika riktlinjer som en sökmotor ska uppfylla i både sök intention identifiering och relevans orienterad ranking för sökresultat. Sedan bygger vi på dessa riktlinjer, vi utformar nya formler för att identifiera sökning efter noder och söka via noder av en fråga, och presentera en ny XML TF*IDF ranking strategi för att rangordna de enskilda matchningar av alla möjliga sök intentioner. Slutligen, de föreslagna teknikerna implementeras i en XML sökord sökmotor som kallas XReal, och omfattande experiment visar effektiviteten i vår strategi.
Därefter föreslog Bao REF en IR-stil strategi (kallas XReal) som i princip använder statistik över underliggande XML-data för att presentera en ny XML TF*IDF rankningsstrategi för att rangordna de enskilda matchningar av alla möjliga sök intentioner.
777,870
Effective XML Keyword Search with Relevance Oriented Ranking
{'venue': '2009 IEEE 25th International Conference on Data Engineering', 'journal': '2009 IEEE 25th International Conference on Data Engineering', 'mag_field_of_study': ['Computer Science']}
8,447
Abstract-Vi genomför en djupstudie om prestandan hos djupinlärning baserad radiosignalklassificering för radiokommunikationssignaler. Vi anser att en rigorös baslinjemetod med hjälp av högre ordningsmoment och starkt ökad gradient trädklassificering och jämför prestanda mellan de två tillvägagångssätten inom en rad konfigurationer och kanalnedsättningar. Vi anser att effekterna av bärfrekvens offset, symbolhastighet, och multi-path blekning i simulering och genomföra over-the-air mätning av radioklassificering prestanda i labbet med hjälp av programvara radio och jämföra prestanda och utbildningsstrategier för båda. Slutligen avslutar vi med en diskussion om återstående problem, och design överväganden för att använda sådana tekniker.
Å andra sidan tillhandahöll REF en utbildningsdatauppsättning som samlats in från överluftsmätningar av USRP-radiosändningar.
3,449,450
Over the Air Deep Learning Based Radio Signal Classification
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Engineering']}
8,448
I detta dokument studerar vi först effekten av lastplaceringspolicyer på kylning och maximala datacentertemperaturer i molntjänstleverantörer som driver flera geografiskt distribuerade datacenter. Baserat på denna studie föreslår vi sedan dynamiska lastfördelningspolicyer som tar hänsyn till alla elrelaterade kostnader samt övergående kyleffekter. Vår utvärdering studerar förmågan hos olika kylningsstrategier att hantera belastningstoppar, jämför beteendet hos våra dynamiska kostnadsmedvetna policyer med kostnads-unware och statiska policyer, och undersöker effekterna av många parameterinställningar. Bland andra intressanta resultat visar vi att 1) vår politik kan ge stora kostnadsbesparingar, 2) belastningsmigration möjliggör besparingar i många scenarier, och 3) alla elrelaterade kostnader måste beaktas samtidigt för högre och konsekventa kostnadsbesparingar.
En metod för att använda migreringar över geografiskt distribuerade datacenter baserade på kylning effektivitet visas i REF.
331,842
Reducing electricity cost through virtual machine placement in high performance computing clouds
{'venue': '2011 International Conference for High Performance Computing, Networking, Storage and Analysis (SC)', 'journal': '2011 International Conference for High Performance Computing, Networking, Storage and Analysis (SC)', 'mag_field_of_study': ['Computer Science']}
8,449
Abstract-I detta arbete diskuterar vi tekniker för att konsekvent upptäcka turbokodade ortogonala frekvensdivision multiplexade (OFDM) signaler, överförs genom frekvens selektiva Rayleigh (storleken på varje kanal kran är Rayleigh distribueras) bleknings kanaler med en enhetlig effekt fördröjning profil. Kanalutgången förvrängs ytterligare av en bärfrekvens och fas offset, förutom additiv vit Gaussian brus (AWGN). En ny ramstruktur för ODM, bestående av en känd ingress, cykliskt prefix, data och kända postamble föreslås, som har en högre genomströmning jämfört med det tidigare arbetet. En robust turbodekoder föreslås, som fungerar effektivt över ett brett spektrum av signal-till-brusförhållande (SNR). Simuleringsresultat visar att det är möjligt att uppnå en bit-terror-hastighet (Ber) på 10 vid ett SNR per bit så lågt som 8 dB och genomströmning på 82,84 % med hjälp av en enda sändning och två mottagningsantenner. Vi visar också att den praktiska sammanhängande mottagaren kräver knappt 1 dB mer effekt jämfört med en idealisk sammanhängande mottagare, för att uppnå en BER på 10 −5. Det viktigaste bidraget till den praktiska sammanhängande mottagarens goda prestanda beror på användningen av en lång ingress (512 QPSK-symboler), som kanske inte specificeras i någon av de nuvarande standarderna för trådlös kommunikation. Vi har också visat från datorsimuleringar att det är möjligt att få ännu bättre BER prestanda, med hjälp av en bättre kod. En enkel och ungefärlig Cramér-Rao bundet på variansen av frekvens offset uppskattningsfel för sammanhängande detektion, härleds. De föreslagna algoritmerna är väl lämpade för implementering på en DSP-plattform.
Vasudevan REF diskuterar tekniker för att konsekvent detektera turbokodade OFDM-signaler, som överförs via frekvensselektiva Rayleigh-kanaler.
5,688,183
Coherent Detection of Turbo-Coded OFDM Signals Transmitted through Frequency Selective Rayleigh Fading Channels with Receiver Diversity and Increased Throughput
{'venue': None, 'journal': 'Wireless Personal Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
8,450
Tidig upptäckt av förändringar i den mentala hälsan hos personer med allvarlig psykisk sjukdom är avgörande för ett effektivt ingripande. CrossCheck är det första steget mot passiv övervakning av indikatorer för psykisk hälsa hos patienter med schizofreni och banar väg för återfallsprognoser och tidig intervention. I denna uppsats presenterar vi initiala resultat från en pågående randomiserad kontrollstudie, där passiva smartphonesensordata samlas in från 21 öppenvårdspatienter med schizofreni som nyligen släppts ut från sjukhuset under en period som sträcker sig från 2-8,5 månader. Våra resultat visar att det finns statistiskt signifikanta samband mellan automatiskt spårade beteendefunktioner relaterade till sömn, rörlighet, samtal, smartphone-användning och självrapporterade indikatorer på psykisk hälsa vid schizofreni. Med hjälp av dessa funktioner bygger vi inference modeller som exakt kan förutsäga aggregerade poäng av mental hälsa indikatorer vid schizofreni med ett genomsnitt fel på 7,6% av poängen intervallet. Slutligen diskuterar vi resultaten på den nivå av personalisering som behövs för att ta hänsyn till de kända variationerna inom människor. Vi visar att genom att utnyttja kunskap från en befolkning med schizofreni är det möjligt att utbilda noggranna personliga modeller som kräver färre individspecifika data för att snabbt kunna anpassa sig till nya användare.
Wang m.fl. upptäckte betydande samband mellan automatiskt spårade beteendefunktioner relaterade till sömn, rörlighet, samtal, smartphone användning och självrapporterade indikatorer för psykisk hälsa i schizofreni REF.
15,231,059
CrossCheck: toward passive sensing and detection of mental health changes in people with schizophrenia
{'venue': None, 'journal': 'Proceedings of the 2016 ACM International Joint Conference on Pervasive and Ubiquitous Computing', 'mag_field_of_study': ['Computer Science']}
8,451
Live migration av virtuella maskiner (VM) ger en betydande fördel för virtuella servrar rörlighet utan att störa tjänsten. Det används i stor utsträckning för systemhantering i virtualiserade datacenter. Migrationskostnaderna kan dock variera avsevärt för olika arbetsbelastningar på grund av mångfalden av virtuella konfigurationer och arbetsbelastningsegenskaper. För att ta hänsyn till omkostnaderna för migration i migrationsbeslut, undersöker vi designmetoder för att kvantitativt förutsäga migrationens prestanda och energikostnader. Vi analyserar noggrant de nyckelparametrar som påverkar migrationskostnaderna från teori till praktik. Vi konstruerar två tillämpningsoblivious modeller för kostnadsförutsägelsen genom att använda inlärd kunskap om arbetsbelastningen på hypervisor (även kallad VMM) nivå. Detta bör vara den första typen av arbete för att uppskatta den virtuella maskinens kostnader för levande migration både i fråga om prestanda och energi i ett kvantitativt tillvägagångssätt. Vi utvärderar modellerna med hjälp av fem representativa arbetsbelastningar på en virtualiserad Xen-miljö. Experimentella resultat visar att den förfinade modellen ger en noggrannhet som är högre än 90 % jämfört med den uppmätta kostnaden. Modellstyrda beslut kan avsevärt minska migrationskostnaderna med mer än 72,9 % vid en energibesparing på 73,6 %.
I REF presenteras två modeller som bygger på förutsägelser för att utvärdera migrationskostnaderna både i fråga om prestanda och energi.
36,569,536
Performance and energy modeling for live migration of virtual machines
{'venue': 'HPDC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,452
På grund av den heterogena karaktären av XML-data för internetapplikationer är exakt matchning av frågor ofta otillräcklig. Behovet uppstår för att snabbt identifiera underträd av XML-dokument i en samling som liknar ett givet mönster. Likhet innebär båda taggar, som inte krävs för att sammanfalla, och struktur, där inte alla relationer mellan noder i trädstrukturen strikt bevaras. I detta dokument presenterar vi ett effektivt tillvägagångssätt för identifiering av liknande underträd, som bygger på ad hoc-indexeringsstrukturer. Metoden gör det möjligt att snabbt upptäcka, i en heterogen dokumentsamling, de minimala delar som uppvisar viss likhet med mönstret. Dessa kandidat portioner är sedan rangordnade efter deras faktiska likhet. Metoden stöder olika begrepp om likhet, vilket gör att den kan anpassas till olika tillämpningsområden. I dokumentet föreslås och jämförs tre olika liknande åtgärder. Metoden är experimentellt validerad och de experimentella resultaten diskuteras ingående.
Sanz m.fl. REF utvecklar ett liknande inverterat index för att identifiera regioner av XML-dokument som liknar ett givet mönster.
16,541,767
Fragment-based approximate retrieval in highly heterogeneous XML collections
{'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,453
Protokollet Abstract Dedicated Short Range Communication (DSRC) är en viktig möjliggörande teknik för att förbättra trafiksäkerheten och transporteffektiviteten. Wireless Access in Vehicular Environments (Wave) 1609.4 är en ny ändring som möjliggör flerkanalsverksamhet i DSRC. Driftsintervallen är indelade i växelstyrda Control Channel (CCH) Intervals och Service Channel (SCH) Intervals med en identisk längd. Denna alternerande funktion orsakar stora paketförluster i CCH och låg genomströmning i SCH, och därmed hindrar införandet av detta protokoll. Målet med vårt arbete är att tillhandahålla tillräcklig tillförlitlighet för säkerhetsmeddelanden i CCH samtidigt som vi optimerar leveransen av icke-säkerhetstjänster i SCH. Vi utvecklar analytiska modeller för att utforska relationen mellan trafiktäthet, CCH-paketförlustkvot, SCH-genomströmning och varaktigheten av varje typ av intervall. Vi utformar också en flerkanalig samordningsalgoritm som anpassar intervalltiden för att uppnå bättre prestanda och tillförlitlighet baserat på dessa modeller. Teoretisk analys och omfattande simuleringsresultat visar att vår modell är korrekt och att den föreslagna algoritmen är effektiv.
I REF, Xiong et al. studerade förhållandet mellan antalet fordon, förlustkvoten för paket på CCH, genomströmningen av SCH och varaktigheten för CCHI och SCHI.
32,974,064
Solving the performance puzzle of DSRC multi-channel operations
{'venue': '2015 IEEE International Conference on Communications (ICC)', 'journal': '2015 IEEE International Conference on Communications (ICC)', 'mag_field_of_study': ['Computer Science']}
8,454
Abstrakt. En optimal modellbaserad neural utvärderingsalgoritm och en iterativ gradientoptimeringsalgoritm som används vid bildrenovering och statistisk filtrering presenteras. Förhållandet mellan de två algoritmerna studeras. Vi visar att under symmetriskt positivt-definit tillstånd, ett tillstånd som lätt tillfredsställs i återställning och filtrering, intra-pixelsekventialbehandling (IPSP) av modellbaserad neuron utvärdering är likvärdig med den iterativa gradientoptimering algoritm. Vi visar också att även om båda metoderna ger genomförbara lösningar för snabb rumslig domänimplementering av återställnings- och filtreringstekniker, är den iterativa gradientalgoritmen i själva verket effektivare än IPSP neuronutvärderingsmetoden. Visuella exempel ges för att jämföra de två metodernas prestanda.
I REF föreslog Guan en modellbaserad Hopfield neural nätverk utvärdering och iterativ gradient optimering och statistisk filtrering.
17,796,282
Model-based neural evaluation and iterative gradient optimization in image restoration and statistical filtering
{'venue': 'J. Electronic Imaging', 'journal': 'J. Electronic Imaging', 'mag_field_of_study': ['Computer Science']}
8,455
ABSTRACT Detta dokument ger en omfattande kartläggning av innehållsplaceringsalgoritmer (CP) för molnbaserade innehållsleveransnätverk (CCDNs). CP-algoritmer är viktiga för leverans av innehåll för deras viktiga roll i valet av innehåll som ska lagras i de geografiskt distribuerade surrogatservrarna i molnet för att möta slutanvändarnas krav med servicekvalitet (QoS). Det är uppenbart att de viktigaste målen för CP, dvs. kostnaden och QoS, konkurrerar. Kostnaden bestäms av den underliggande kostnadsmodellen för CCDN-infrastrukturen medan den levererade QoS bestäms av var innehållet placeras i CCDN. Därför ger vi en översikt över innehållet och CCDN-infrastrukturen. Översikten över innehållet innehåller innehållsegenskaper och påverkan av Online Social Networking på CP. I översikten över CCDN-infrastrukturen ingår elasticitets- och kostnadsmodellen, som påverkar CP. Vårt mål är att ge ett helhetsperspektiv på de aspekter som påverkar CP-algoritmer och deras effektivitet. Från de inflytelserika faktorerna härleder vi en uppsättning designkriterier för CP-algoritmer i CCDN. Vi diskuterar de toppmoderna CP-algoritmerna för CCDN och utvärderar dem mot de välmotiverade konstruktionskriterierna. Vi beskriver också praktiska konsekvenser och avslöjar framtida forskningsutmaningar. INDEX TERMS Cloud-baserade innehåll leveransnätverk, innehåll placering algoritmer, innehåll korrelation, innehåll popularitet, online sociala nätverk relationer, kvalitet på tjänsten, resursutnyttjande, användargenererat innehåll.
I samband med molnbaserade innehållsdelivery Networks (CCDNs) tillhandahölls en omfattande undersökning av innehållsplaceringsalgoritmer för CCDNs i REF.
3,297,262
A Survey on Content Placement Algorithms for Cloud-Based Content Delivery Networks
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
8,456
Många studier har gjorts genom att använda maskininlärning tekniker, inklusive neurala nätverk, för att förutsäga aktieavkastning. Nyligen har en metod som kallas djupinlärning, som uppnår hög prestanda främst i bildigenkänning och taligenkänning, väckt uppmärksamhet inom maskininlärningsområdet. Detta dokument implementerar djup inlärning för att förutsäga en månad-efter-stock avkastning i tvärsnittet på den japanska aktiemarknaden och undersöker hur metoden fungerar. Våra resultat visar att djupa neurala nätverk i allmänhet överträffar ytliga neurala nätverk, och de bästa nätverken överträffar också representativa modeller för maskininlärning. Dessa resultat indikerar att djupinlärning visar löfte som en skicklig maskininlärning metod för att förutsäga aktieavkastning i tvärsnittet.
REF utvidgade denna modell till att omfatta djupinlärning och undersökte metodens prestanda på den japanska aktiemarknaden.
3,416,265
Deep Learning for Forecasting Stock Returns in the Cross-Section
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Economics', 'Computer Science']}
8,458
Abstract-Isosurfaces är allestädes närvarande inom många områden, inklusive visualisering, grafik och vision. De är ofta den viktigaste beräkningskomponenten i viktiga processrörledningar (t.ex. , ytrekonstruktion), och används i stor utsträckning i praktiken. Den klassiska metoden för att beräkna isoytan är att tillämpa Marching Cubes algoritm, som även om robust och enkel att genomföra, genererar ytor som kräver ytterligare bearbetning steg för att förbättra triangelns kvalitet och maskstorlek. En viktig fråga är att i vissa fall är de ytor som skapas av Marching Cubes irreparabelt skadade, och viktiga detaljer går förlorade som inte kan återvinnas genom efterföljande bearbetning. Den främsta motivationen för detta arbete är att utveckla en teknik som kan konstruera högkvalitativa och högkvalitativa isoytor. Vi föreslår en ny avancerande frontteknik som kan skapa högkvalitativa isoytor från regelbundna och oregelbundna volymdata. Vårt arbete förlänger den vägledande ramen för Schreiner et al. till implicita ytor, och förbättrar den på betydande sätt. I synnerhet beskriver vi en uppsättning provtagningsförhållanden som garanterar att ytegenskaper kommer att fångas upp av algoritmen. Vi beskriver också en effektiv teknik för att beräkna ett minimalt vägledningsfält, vilket avsevärt förbättrar prestandan. Våra experimentella resultat visar att vår teknik kan generera högkvalitativa maskor från komplexa dataset.
Dessutom föreslogs nyligen en avancerande frontalgoritm för att skapa isoytan från regelbundna och oregelbundna volymetriska dataset REF.
16,186,320
High-Quality Extraction of Isosurfaces from Regular and Irregular Grids
{'venue': 'IEEE Transactions on Visualization and Computer Graphics', 'journal': 'IEEE Transactions on Visualization and Computer Graphics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
8,459
Abstract-A denoising algoritm syftar till att ta bort buller, fel, eller störningar från en signal. Omfattande forskning har ägnats åt denna arena under de senaste årtiondena, och som ett resultat, dagens denoisers kan effektivt ta bort stora mängder additiv vit Gaussian buller. En komprimerad sensor (CS) rekonstruktionsalgoritm syftar till att återställa en strukturerad signal förvärvad med hjälp av ett litet antal randomiserade mätningar. Typiska CS rekonstruktionsalgoritmer kan gjutas som iterativt uppskatta en signal från en störd observation. Detta dokument besvarar en naturlig fråga: Hur kan man effektivt använda en generisk denoiser i en CS rekonstruktionsalgoritm? Som svar på detta utvecklar vi en förlängning av det ungefärliga ramverket för meddelandeövergång (AMP), som kallas denoising-based AMP (D-AMP), som kan integrera en bred klass av denoisers i dess iterationer. Vi visar att när D-AMP används med en högpresterande denoiser för naturliga bilder, erbjuder D-AMP den state-of-theart CS återhämtning prestanda samtidigt som den arbetar tiotals gånger snabbare än konkurrerande metoder. Vi förklarar D-AMP:s exceptionella prestanda genom att analysera några av dess teoretiska egenskaper. Ett viktigt element i D-AMP är användningen av en lämplig Onsager korrektion term i dess iterationer, som tvingar signalen perturbation vid varje iteration att vara mycket nära den vita Gaussian buller som denoizers är typiskt utformade för att ta bort.
Metzler m.fl. föreslå att en väldefinierad BM3D-denoiser integreras i den approximativa message-ramen (AMP) för CS-rekonstruktion REF.
1,025,475
From Denoising to Compressed Sensing
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
8,460
Abstract-In distribuerade realtid inbyggda system (DRE), är det vanligt att modellera en applikation som en uppsättning av uppgifter kedjor. Varje kedja aktiveras cykliskt och måste slutföras innan tidsfristen löper ut. Varje uppgift i kedjan är bunden att utföra på en viss bearbetning element. Komplexiteten i att utforma och analysera en DRE kan minskas genom att tillämpa en komponentbaserad metod: varje rörledning kan ses som en komponent med dess tidskaraktär som sammanfattas i dess gränssnitt. Analys kan utföras i två olika steg: 1) härledning av tidsgränssnittet för en komponentrörledning; 2) analys av hela systemet genom integrering av komponenternas tidsgränssnitt. I detta dokument föreslår vi att beskriva tidsgränssnittet för en uppgift rörledning med en uppsättning efterfrågebundna funktioner (dbf), en per varje nod som rörledningen utför, och vi beskriver en algoritm för att beräkna dbfs. För det första visar vi att scenariot med strikt periodiska aktiveringar inte är det värsta när rörledningarna är sporadiskt aktiverade. Sen föreslår vi en exakt algoritm för att beräkna dbfs. Vi visar genom experimentell analys att beräkningstiden för algoritmen på rörledningar med rimlig storlek är under en sekund på vanliga datorer. Slutligen uppskattar vi den pessimism som införts genom vår analys med avseende på holistisk analys genom en omfattande uppsättning simuleringar. Dagens applikationer utvecklas ofta av olika leverantörer, som var och en tillhandahåller separata komponenter. Eftersom ansökan är distribuerad över flera bearbetningselement, komponenter är också av distribuerad natur. Detta är till exempel det typiska scenariot i fordonssammanhang [1], [2]. I analysen av ett sådant system är det av avgörande betydelse att se till att i) varje leverantör endast tillhandahåller syntetisk information om den utvecklade komponenten (kallas komponentgränssnitt), och ii) integreringen av komponenterna görs endast på den information som finns i gränssnittet. I realtidssystem är en komponent också utrustad med ett tidsgränssnitt som innehåller information om den mängd beräkningsresurs som krävs av komponenten över tid. Analysen utförs sedan i två steg: i det första steget analyseras varje komponent isolerat och sammanfattar dess temporalbeteende med en (eventuellt liten) uppsättning temporalparametrar. Sådana tidsparametrar kommer att
Pappersarbetet i REF inramade en algoritm för den efterfrågebundna funktionen (DBF) som är en av kärnan i vår bekräftade metod.
13,540,744
The Demand Bound Function Interface of Distributed Sporadic Pipelines of Tasks Scheduled by EDF
{'venue': '2010 22nd Euromicro Conference on Real-Time Systems', 'journal': '2010 22nd Euromicro Conference on Real-Time Systems', 'mag_field_of_study': ['Computer Science']}
8,461
Abstract-Många aktiva inlärningsmetoder hör till omskolning-baserade metoder, som väljer en omärkt instans, lägga till den till utbildningen uppsättning med sina möjliga etiketter, omskola klassificeringen modell, och utvärdera de kriterier som vi baserar vårt urval på. Eftersom den rätta etiketten för den valda instansen är okänd, används dock dessa metoder för att beräkna genomsnitts- eller sämre-resultat med avseende på den okända etiketten. I detta dokument föreslår vi en annan metod för att lösa detta problem. I synnerhet syftar vår metod till att använda osäkerhetsinformationen för att förbättra resultaten av omskolningsbaserade modeller. Vi tillämpar vår metod på två toppmoderna algoritmer och utför omfattande experiment på ett brett utbud av verkliga datauppsättningar. Resultaten visar tydligt hur effektiv den föreslagna metoden är och visar att den kan minska arbetet med att märka människor i många tillämpningar i verkligheten.
Nyligen föreslog Ref att man skulle förbättra de omskolningsbaserade algoritmerna genom att integrera osäkerhetsinformationen i urvalskriteriet.
10,043,414
Active learning using uncertainty information
{'venue': '2016 23rd International Conference on Pattern Recognition (ICPR)', 'journal': '2016 23rd International Conference on Pattern Recognition (ICPR)', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
8,462
Modellfria djupt förstärkande inlärningsalgoritmer (RL) har demonstrerats på en rad utmanande besluts- och kontrolluppgifter. Dessa metoder lider dock vanligtvis av två stora utmaningar: mycket hög prov komplexitet och spröd konvergens egenskaper, vilket kräver noggrann hyperparameter tuning. Båda dessa utmaningar begränsar allvarligt tillämpningen av sådana metoder till komplexa, verkliga domäner. I detta dokument föreslår vi mjuka skådespelare-kritiker, en icke-politisk aktör-kritisk djup RL-algoritm baserad på maximal entropi förstärkning läranderam. I detta sammanhang syftar skådespelaren till att maximera den förväntade belöningen samtidigt som den maximerar entropi. Det vill säga att lyckas med uppgiften samtidigt som man agerar så slumpmässigt som möjligt. Tidigare djupgående RL-metoder baserade på detta ramverk har formulerats som Q-learning-metoder. Genom att kombinera off-policy uppdateringar med en stabil stokastisk skådespelare-kritisk formulering, vår metod uppnår state-of-the-art prestanda på en rad kontinuerliga kontroll benchmarking uppgifter, överträffar tidigare on-policy och off-policy metoder. Dessutom visar vi att, i motsats till andra icke-politiska algoritmer, vår strategi är mycket stabil, uppnå mycket liknande prestanda i olika slumpmässiga frön.
En annan populär algoritm är den mjuka skådespelare-kritiska metoden (SAC) REF, som maximerar förväntad belöning och entropi samtidigt.
28,202,810
Soft Actor-Critic: Off-Policy Maximum Entropy Deep Reinforcement Learning with a Stochastic Actor
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
8,463
Abstract-termiska heta fläckar och temperaturgradienter på die måste minimeras för att tillverka tillförlitliga system samtidigt som energi och prestanda begränsningar. I detta arbete löser vi uppgiften schemaläggning problem för multiprocessor system-on-chips (MPSoCs) med Integer Linear Programmering (ILP). Målet med vår optimering är att minimera de heta fläckarna och balansera temperaturfördelningen på die för en känd uppsättning uppgifter. Enligt de givna antagandena om uppgiftsegenskaper är lösningen optimal. Vi jämför vår teknik mot optimala schemaläggningsmetoder för energiminimering, energibalansering och varmpunktsminimering, och visar att vår teknik uppnår betydligt bättre värmeprofiler. Vi utökar också vår teknik för att hantera arbetsbelastningsvariationer vid körtid.
Till exempel Coskun et al. I REF föreslogs ett ILP-baserat tillvägagångssätt för att minimera hotspots och balans temperaturfördelning på die för en uppsättning uppgifter.
10,893,540
Temperature-aware MPSoC scheduling for reducing hot spots and gradients
{'venue': "ASP-DAC '08", 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,464
Användarberoende modeller anpassas från UBM och igenkänningspoängen normaliseras med hjälp av UBM-poängen. Vi föreslår ett personautentiseringssystem med hjälp av ögonrörelsesignaler. I säkerhetsscenarier har eyetracking tidigare använts för blickbaserad lösenordsinmatning. Några författare har också använt fysiska funktioner i ögonrörelsesignaler för autentisering i ett aktivitetsberoende scenario med matchade tränings- och testprover. Vi föreslår och genomför ett uppgiftsoberoende scenario där utbildnings- och testprover kan vara godtyckliga. Vi använder kortsiktiga ögon blickriktning för att konstruera funktion vektorer som modelleras med Gaussian blandningar. Resultaten tyder på att det finns personspecifika funktioner i ögonrörelserna som kan modelleras på ett uppgiftsoberoende sätt. Utbudet av möjliga applikationer sträcker sig utöver säkerhetstypen av autentisering till proaktiva och användarvänliga system.
Kinnunen m.fl. I REF föreslogs ett nytt personautentiseringssystem med hjälp av ögonrörelsesignaler 2010.
12,588,991
Towards task-independent person authentication using eye movement signals
{'venue': "ETRA '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,465
Abstract-Energy skördare används för att driva autonoma system, men deras uteffekt är variabel och intermittent. För att upprätthålla beräkningen integrerar dessa system batterier eller superkondensatorer för att jämna ut snabba förändringar i skördarutgången. Energilagringsanordningar kräver tid för att ladda och öka systemens storlek, massa och kostnad. Området transient computing rör sig bort från detta tillvägagångssätt, genom att driva systemet direkt från skördarens utdata. För att förhindra ett program från att behöva starta om beräkningen efter ett strömavbrott, tillvägagångssätt som Hibernus tillåter dessa system att dvala när leveransfel är nära förestående. När leveransen når drifttröskeln återställs det senast sparade tillståndet och verksamheten fortsätter från den punkt då den avbröts. I detta dokument föreslås Hibernus++ att intelligent anpassa dvala och återställa trösklar som svar på källdynamik och systembelastningsegenskaper. Speciellt, kapaciteter är inbyggda i systemet för att självständigt karakterisera hårdvaruplattformen och dess prestanda under dibernation för att ställa in dibernationströskeln på en punkt som minimerar bortkastad energi och maximerar beräkningstiden. På samma sätt kalibrerar systemet automatiskt återställningströskeln beroende på balansen mellan energiförsörjning och energiförbrukning för att maximera beräkningstiden. Hibernus++ valideras både teoretiskt och experimentellt på mikrocontroller hårdvara med hjälp av både syntetiserade och verkliga energi skördare. Resultaten visar att Hibernus++ ger en genomsnittlig minskning av energiförbrukningen med 16 % och en förbättring av tillämpningstiden med 17 % jämfört med den senaste tekniken.
Hibernus++ REF är en uppdaterad version av samma metod, som dynamiskt justerar besparings- och restaureringströsklarna, beroende på den fordonsbaserade frikopplingen av kapacitansen och den tillgängliga avverkade energin.
13,890,678
Hibernus++: A Self-Calibrating and Adaptive System for Transiently-Powered Embedded Devices
{'venue': 'IEEE Transactions on Computer-Aided Design of Integrated Circuits and Systems', 'journal': 'IEEE Transactions on Computer-Aided Design of Integrated Circuits and Systems', 'mag_field_of_study': ['Computer Science']}
8,466
Abstrakt. Vi betraktar problem med bildomvandling, där en indatabild omvandlas till en utdatabild. Nya metoder för sådana problem tränar normalt feed-forward konvolutionella neurala nätverk med hjälp av en per-pixel förlust mellan utdata och mark-truth bilder. Parallellt arbete har visat att högkvalitativa bilder kan genereras genom att definiera och optimera perceptuella förlustfunktioner baserat på hög nivå funktioner som extraheras från preutbildade nätverk. Vi kombinerar fördelarna med båda tillvägagångssätten och föreslår användning av perceptuella förlustfunktioner för utbildning av feed-forward-nätverk för bildomvandlingsuppgifter. Vi visar resultat på överföring av bildstil, där ett feed-forward-nätverk utbildas för att lösa det optimeringsproblem som Gatys et al föreslår i realtid. Jämfört med den optimeringsbaserade metoden ger vårt nätverk liknande kvalitativa resultat men är tre storleksordningar snabbare. Vi experimenterar också med en-bild super-upplösning, där ersätta en per-pixel förlust med en perceptuell förlust ger visuellt tilltalande resultat.
I REF kombinerades fördelarna med båda tillvägagångssätten, utbildade konvolutionella neurala nätverk och perceptuella förlustfunktioner baserade på högnivåfunktioner som utvunnits från preutbildade nätverk och föreslog att perceptuella förlustfunktioner skulle användas för utbildning av feedfore-nätverk för bildomvandling.
980,236
Perceptual Losses for Real-Time Style Transfer and Super-Resolution
{'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,467
Med den snabba utvecklingen av mobila enheter och crowdsourcing plattformar, den rumsliga crowdsourcing har fått mycket uppmärksamhet från databasgemenskapen, specifikt, rumsliga crowdsourcing avser att skicka en plats-baserad begäran till arbetstagare beroende på deras positioner. I detta dokument anser vi att det är ett viktigt rumsligt crowdsourcing problem, nämligen tillförlitlig mångfaldsbaserad rumslig crowdsourcing (RDB-SC), där rumsliga uppgifter (t.ex. att ta videor/foton av ett landmärke eller fyrverkerier, och kontrollera om parkeringsplatser finns tillgängliga) är tidsbegränsade, och arbetstagare rör sig mot vissa riktningar. Vårt RDB-SC problem är att tilldela arbetstagare till rumsliga uppgifter så att slutförande tillförlitlighet och rumsliga/temporala skillnader i rumsliga uppgifter maximeras. Vi bevisar att RDB-SC-problemet är NP-hårdt och svårhanterligt. Därför föreslår vi tre effektiva approximationsstrategier, inklusive giriga, provtagningar och splitter-och-konquer algoritmer. För att förbättra effektiviteten utformar vi också ett effektivt kostnadsmodellbaserat index, som dynamiskt kan underhålla rörliga arbetstagare och rumsliga uppgifter med låga kostnader, och på ett effektivt sätt underlätta insamlingen av RDB-SC-svar. Genom omfattande experiment demonstrerar vi effektiviteten och effektiviteten i våra föreslagna strategier över både verkliga och syntetiska dataset. där parametern β till [0, 1]. Här är β en viktbalansering mellan SD och TD, som beror på det tillämpningskrav som anges av uppgiftsbegäran om ti. När β = 0, vi anser endast TD; när β = 1, vi kräver SD endast i den rumsliga uppgiften ti. Därför, under möjliga världar semantik, i detta dokument, kommer vi att överväga den förväntade rumsliga/temporala mångfalden (definierad senare) i våra crowdsourcing problem. RDB-SC-problemet. Vi definierar vårt RDB-SC-problem nedan. I denna förordning gäller följande definitioner: (Tillförlitlig mångfald-baserade rumsliga Crowdsourcing, RDB-SC) Med tanke på m tidsbegränsade rumsliga uppgifter i T, och ndy-I j,k e i −s i) · log( I j,k e i −s i ), för j ≤ k; dessutom MT D [j][k] = 0, om j > k. Formellt, för j ≤ k, har vi:
I REF, Chen et al. Överväga att flytta arbetare till spatio-temporala uppgifter.
4,251,767
Reliable Diversity-Based Spatial Crowdsourcing by Moving Workers
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
8,468
Täckning Path Planning (CPP) är uppgiften att bestämma en väg som passerar över alla punkter i ett område eller volym av intresse samtidigt undvika hinder. Denna uppgift är integrerad i många robotiska applikationer, såsom vakuumrengöring robotar, målarrobotar, autonoma undervattensfordon skapar bildmosaik, minröjning robotar, gräsklippare, automatiserade skördare, fönsterputsare och inspektion av komplexa strukturer, bara för att nämna några. En betydande mängd forskning har tagit itu med CPP-problemet. Under de senaste tio åren har det dock inte lagts fram några uppdaterade undersökningar om CPP som återspeglar de senaste framstegen på området. I detta dokument presenterar vi en översyn av de mest framgångsrika CPP-metoderna, med fokus på de framsteg som gjorts under det senaste årtiondet. Vidare diskuterar vi rapporterade fälttillämpningar av de beskrivna CPP-metoderna. Detta arbete syftar till att bli en utgångspunkt för forskare som initierar sina insatser inom CPP. Syftet med detta arbete är också att presentera en omfattande översyn av de senaste genombrotten på området, med kopplingar till de mest intressanta och framgångsrika verken.
Galceran och Carreras REF beskrev banplanering för täckning som en uppgift att hitta en väg som passerar genom alla punkter utan hinder.
1,177,069
A survey on coverage path planning for robotics
{'venue': 'Robotics Auton. Syst.', 'journal': 'Robotics Auton. Syst.', 'mag_field_of_study': ['Computer Science']}
8,469
Abstract-In Locator-Identifier Separation Protocol (LISP) är det befintliga systemet för rörlighetskontroll baserat på ett centraliserat tillvägagångssätt, där Map Server används som ett mobilitetsankare. Ett sådant centraliserat system har dock vissa begränsningar, inklusive trafik omkostnader på central server, servicenedbrytning genom en enda punkt av fel, och större leveransfördröjning. I denna skrivelse föreslår vi en nätverksbaserad distribuerad mobilitetskontroll i lokala mobila LISP-nätverk. Numerisk analys visar att det föreslagna distribuerade systemet kan ge bättre resultat än det befintliga centraliserade systemet när det gäller signalbelastningar för bindande uppdatering/krav och fördröjning av överlämnandet.
Dessutom gav de en enda punkt av misslyckande på grund av att använda den centraliserade kartservern REF.
9,536,997
Network-Based Distributed Mobility Control in Localized Mobile LISP Networks
{'venue': 'IEEE Communications Letters', 'journal': 'IEEE Communications Letters', 'mag_field_of_study': ['Computer Science']}
8,470
Abstract-binary kodanalys gör det möjligt att analysera binär kod utan att ha tillgång till motsvarande källkod. En binär, efter demontering, uttrycks i ett monteringsspråk. Detta inspirerar oss att närma oss binär analys genom att utnyttja idéer och tekniker från Natural Language Processing (NLP), ett fruktbart område fokuserat på bearbetning av text av olika naturliga språk. Vi märker att binär kodanalys och NLP delar många analoga ämnen, såsom semantik extraktion, klassificering, och kod / text jämförelse. Detta arbete lånar alltså idéer från NLP för att ta itu med två viktiga likhetsproblem. (I) Med tanke på ett par grundläggande block av olika instruktionsuppsättning arkitekturer (ISAs), avgöra om deras semantik är liknande; och (II) ges en kod av intresse, bestämma om det ingår i en annan kod av en annan ISA. Lösningarna på dessa två problem har många tillämpningar, såsom korsarkitektur sårbarhet upptäckt och kod plagiat upptäckt. Trots den uppenbara betydelsen av problem I är befintliga lösningar antingen ineffektiva eller otydliga. Inspirerad av Neural Machine Translation (NMT), som är ett nytt tillvägagångssätt som hanterar text över naturliga språk mycket väl, vi betraktar instruktioner som ord och grundläggande block som meningar, och föreslår en ny kors-(montering) språk djup inlärningsmetod för att lösa problem I, uppnå hög effektivitet och precision. Många lösningar har föreslagits för att avgöra om två koder, t.ex. funktioner, är likvärdiga (som kallas ekvivalensproblem), vilket skiljer sig från problem II (som kallas inneslutningsproblem). Att lösa problemet med korsarkiveringskodens inneslutning är en ny och mer utmanande uppgift. Genom att använda vår teknik för att jämföra basblock mellan arkitekturer föreslår vi den första lösningen på problem II. Vi implementerar ett prototypsystem INNEREYE och genomför en omfattande utvärdering. En jämförelse mellan vår strategi och befintliga strategier för problem Jag visar att vårt system överträffar dem i fråga om noggrannhet, effektivitet och skalbarhet. De fallstudier som tillämpar systemet visar att vår lösning på problem II är effektiv. Dessutom visar denna forskning hur man tillämpar idéer och tekniker från NLP till storskalig binär kodanalys.
Zuo m.fl. REF använder NMT tekniker för att hantera en korsarkitektur kod likhet jämförelse.
52,004,699
Neural Machine Translation Inspired Binary Code Similarity Comparison beyond Function Pairs
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
8,471
Abstract-"Kognitiv radio" är en ny teknik för att förbättra utnyttjandet av radiospektrum i trådlösa nätverk. I detta dokument överväger vi problemet med spektrumdelning mellan en primäranvändare och flera sekundära användare. Vi formulerar detta problem som en oligopol marknadskonkurrens och använder en Cournot spel för att få spektrum tilldelning för sekundära användare. Nash jämvikt betraktas som lösningen på detta spel. Vi presenterar först formuleringen av en statisk Cournot spel för fallet när alla sekundära användare kan observera de antagna strategier och utbetalningen av varandra. Detta antagande kanske dock inte är realistiskt i vissa kognitiva radiosystem. Därför formulerar vi en dynamisk Cournot spel där strategin för en sekundär användare väljs enbart baserat på den prisinformation som erhållits från den primära användaren. Stabilitetssituationen i det dynamiska beteendet för detta spektrumdelningssystem undersöks.
Författarna till REF studerade underlay-metoden genom att formulera ett dynamiskt spel där strategin för en SU väljs enbart baserat på prisinformationen.
16,827,313
A Game-Theoretic Approach to Competitive Spectrum Sharing in Cognitive Radio Networks
{'venue': '2007 IEEE Wireless Communications and Networking Conference', 'journal': '2007 IEEE Wireless Communications and Networking Conference', 'mag_field_of_study': ['Computer Science']}
8,472
Sammanfattning I Tester Den ökande komplexiteten hos system-on-a-chip med den åtföljande ökningen av deras testdata storlek har gjort behovet av testdata minskning nödvändigt. I detta papper introducerar vi en ny och mycket efJicient förlustfri kompressionsteknik för att testa system-on-a-chip baserat på geometriska former. Tekniken utnyttjar omordning av testvektorer för att minimera antalet former som behövs för att koda testdata. Teknikens effektivitet för att uppnå hög kompressionskvot visas på de största ISCAS85- och fullscannade versionerna av ISCAS89-riktmärkeskretsar. I detta dokument antas att en inbäddad kärna kommer att användas för att utföra dekompressionsalgoritm och dekomprimera testdata.
I REF föreslås en testvektorkompressionsteknik baserad på geometriska primitiver.
12,262,989
A geometric-primitives-based compression scheme for testing systems-on-a-chip
{'venue': 'Proceedings 19th IEEE VLSI Test Symposium. VTS 2001', 'journal': 'Proceedings 19th IEEE VLSI Test Symposium. VTS 2001', 'mag_field_of_study': ['Computer Science']}
8,473
Konvolutionella nätverk är kraftfulla visuella modeller som ger hierarkier av funktioner. Vi visar att konvolutionsnätverken själva, tränade end-to-end, pixlar till pixel, överskrider toppmoderna i semantisk segmentering. Vår nyckelinsikt är att bygga "fullständigt konvolutionella" nätverk som tar input av godtycklig storlek och producerar motsvarande storlek utdata med effektiv slutledning och lärande. Vi definierar och specificerar utrymmet för helt konvolutionella nätverk, förklarar deras tillämpning på rumsligt täta förutsägelser uppgifter, och ritar anslutningar till tidigare modeller. Vi anpassar dagens klassificeringsnät (AlexNet [20], VGG-nätet [31] och GoogLeNet [32]) till helt konvolutionella nätverk och överför deras inlärda representationer genom finjustering [3] till segmenteringsuppgiften. Vi definierar sedan en skippa arkitektur som kombinerar semantisk information från ett djupt, grovt lager med utseende information från ett grunt, fint lager för att producera exakta och detaljerade segmenteringar. Vårt helt konvolutionella nätverk uppnår toppmodern segmentering av PASCAL VOC (20 % relativ förbättring till 62,2 % genomsnittlig IE 2012), NYUDv2 och SIFT Flow, medan slutsatsen tar mindre än en femtedel av en sekund för en typisk bild. 3431 978-1-4673-6964-0/15/$31.00 ©2015 IEEE
Ett av de mest populära CNN-baserade arbetet är Fully Convolutional Network (FCN) REF.
56,507,745
Fully convolutional networks for semantic segmentation
{'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
8,474
De flesta av de befintliga djupt lärande-baserade metoder för 3D hand och människa pose uppskattning från en enda djup karta bygger på en gemensam ram som tar en 2D djup karta och direkt regresserar 3D koordinater av keypoints, såsom hand eller mänskliga kroppsleder, via 2D konvolutionala neurala nätverk (CNNs). Den första svagheten i detta tillvägagångssätt är närvaron av perspektivförvrängning i 2D-djupkartan. Medan djupkartan är i sig 3D-data, många tidigare metoder behandlar djupkartor som 2D-bilder som kan förvränga formen på det verkliga objektet genom projektion från 3D till 2D-utrymme. Detta tvingar nätverket att utföra perspektiv distorsion-invariant uppskattning. Den andra svagheten i det konventionella tillvägagångssättet är att direkt regresserande 3D-koordinater från en 2D-bild är en mycket icke-linjär kartläggning, vilket orsakar svårigheter i inlärningsprocessen. För att övervinna dessa svagheter, vi först kasta 3D hand och människa utgör uppskattningsproblem från en enda djup karta i en voxel-till-voxel förutsägelse som använder en 3D voxelized rutnät och uppskattar sannolikheten per voxel för varje nyckelpunkt. Vi designar vår modell som en 3D CNN som ger korrekta uppskattningar samtidigt som den körs i realtid. Vårt system överträffar tidigare metoder i nästan alla allmänt tillgängliga 3D-hand- och mänskliga pose estimeringsdata och placeras först i HANDS 2017 rambaserade 3D-handen utgör estimering utmaning. Koden finns i 1.
Följaktligen är det djupa nätet sannolikt att producera perspektiv snedvridningar i formen och utgör uppskattningar REF.
4,434,393
V2V-PoseNet: Voxel-to-Voxel Prediction Network for Accurate 3D Hand and Human Pose Estimation from a Single Depth Map
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
8,475
Att bedöma kvaliteten på användargenererat innehåll är ett viktigt problem för många webbforum. Medan kvalitet utvärderas för närvarande manuellt, föreslår vi en algoritm för att bedöma kvaliteten på foruminlägg automatiskt och testa det på data som tillhandahålls av Nabble.com. Vi använder toppmoderna klassificeringstekniker och experimenterar med fem funktionsklasser: Ytan, Lexical, Syntaktic, Forum-specifika och Liknande funktioner. Vi uppnår en noggrannhet på 89% på uppgiften att automatiskt bedöma postkvalitet i programvarudomänen med hjälp av forumspecifika funktioner. Utan forumspecifika egenskaper uppnår vi en noggrannhet på 82%.
Inom området för onlinediskussioner har kvaliteten på inlägg automatiskt bedömts med hjälp av en kombination av funktioner från kategorier med följande beteckningar: yta, lexik, syntaktik, forumspecifika, och likhet REF.
5,886,250
Automatically Assessing the Post Quality in Online Discussions on Software
{'venue': '45th Annual Meeting of the Association for Computational Linguistics Companion Volume Proceedings of the Demo and Poster Sessions', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,476
I den här artikeln presenterar vi ett system som automatiskt genererar frågor från naturlig språktext med discussion Samband. Vi undersöker nyttan av diskursen bindväv för frågegeneration (QG) som ser på problemet bortom meningsnivå. Vårt arbete delar upp QG-uppgiften i innehållsval och frågebildning. Innehållsval består i att hitta den relevanta delen i texten för att ställa frågor från medan frågebildning innebär en känsla av disambigering av diskursen Samband, identifiering av frågetyp och tillämpning av syntaktiska transformationer på innehållet. Systemet utvärderas manuellt för syntaktisk och semantisk korrekthet.
Å andra sidan övervägde REF problemet med frågegenerering bortom meningsnivå och föreslog ett tillvägagångssätt som använder discussion Samband för att generera frågor från en viss text.
5,361,302
Automatic Question Generation using Discourse Cues
{'venue': 'Proceedings of the Sixth Workshop on Innovative Use of NLP for Building Educational Applications', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,477
Med tanke på bristerna i Apriori förening regel gruvdrift algoritm som behövs för att skanna databasen ofta och generera en uppsättning stora kandidat. I detta papper, den binära strängen användes för att uttrycka information granule, med hjälp av korn-bit binär extraktion frekventa objektuppsättningar och upptäcka föreningsregler. Genom experiment, den klassiska Apriori algoritmen och algoritmen som bygger på granular computing förening regler extraktion jämfördes med de experimentella resultaten analyseras. Resultaten visar att algoritmen baserad på granular computing för gruvföreningsregler är genomförbar och effektiv.
Xiaojun REF innehåller korn bit binär extraktion till min frekventa artiklar.
121,238,278
An Algorithm of Mining Association Rules Based on Granular Computing
{'venue': None, 'journal': 'Physics Procedia', 'mag_field_of_study': ['Physics']}
8,478
Abstract-Feedforward djupa neurala nätverk som använder flera dolda lager visar hög prestanda i många applikationer, men de kräver komplex hårdvara för genomförande. Hårdvarans komplexitet kan minskas mycket genom att minimera ordlängden av vikter och signaler, men direkt kvantisering för fastpunktsnätverksdesign ger inte bra resultat. Vi optimerar den fasta-punkt design genom att anställa backpropagation baserad omskolning. De konstruerade fasta punktnäten med ternära vikter (+1, 0 och -1) och 3-bitarssignal visar endast försumbara prestandaförluster jämfört med flyttalsmotsvararna. Den backpropagation för omskolning använder kvantiserade vikter och fast punktsignal för att beräkna utdata, men använder hög precision värden för att anpassa nätverken. Ett teckenigenkänningsexempel och ett foneme-igenkänningsexempel presenteras.
REF fokuserade på en fast-punkt neurala nätverk design och uppnådde prestanda nästan identisk med den för flyttal-punkt arkitektur.
16,104,422
Fixed-point feedforward deep neural network design using weights +1, 0, and −1
{'venue': '2014 IEEE Workshop on Signal Processing Systems (SiPS)', 'journal': '2014 IEEE Workshop on Signal Processing Systems (SiPS)', 'mag_field_of_study': ['Computer Science']}
8,479
I detta dokument studeras den informationsteoretiska sekretessprestandan i storskaliga cellulära nätverk baserat på en stokastisk geometriram. Placeringarna för både basstationer och mobila användare är modellerade som oberoende tvådimensionella Poisson-punktprocesser. Vi anser att två viktiga egenskaper hos cellulära nätverk, nämligen informationsutbyte mellan basstationer och cellbindning, ska karakterisera deras inverkan på den uppnåeliga sekretessgraden för en godtycklig nedlänköverföring med en viss del av de mobila användare som agerar som potentiella tjuvlyssnare. I synnerhet presenteras dragbara resultat under olika antaganden om tillgängligheten av tjuvlyssnarnas lokaliseringsinformation vid den serverande basstationen, som fångar upp fördelarna med utbytet av lokaliseringsinformation mellan basstationer.
I REF utvärderade författarna den uppnåeliga sekretessgraden för nedlänköverföringar i cellulära nät.
1,999,614
Physical Layer Security in Cellular Networks: A Stochastic Geometry Approach
{'venue': 'IEEE Trans. on Wireless Commun., vol. 12, no. 6, pp. 2776-2787, Jun. 2013', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
8,480
I detta dokument presenteras en metod för att kombinera fråge-relevans med informations-nyhet i samband med textsökning och sammanfattning. Kriteriet Maximal Marginal Relevance (MMR) strävar efter att minska redundansen samtidigt som frågerelevansen bibehålls vid omvärdering av hämtade dokument och vid val av apprw priate passager för textsammanfattning. Preliminära resultat tyder på vissa fördelar för MMR mångfald rankning i dokumenthämtning och i enkel dokumentsammanfattning. De senare bekräftas av de senaste resultaten från SUMMAC-konferensen i utvärderingen av sammanfattande system. Den tydligaste fördelen är dock att man konstruerar icke-redundanta sammanfattningar av flera dokument, där MMR-resultaten är klart bättre än icke-MMR-passageval.
Den Maximal Marginal Relevance (MMR) summeringsmetod, som är baserad på en girig algoritm, beskrivs i REF.
6,334,682
The use of MMR, diversity-based reranking for reordering documents and producing summaries
{'venue': "SIGIR '98", 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,481
Abstract-The mobile edge computing (MEC) har införts för att tillhandahålla datorkapacitet i utkanten av nätverk för att förbättra latency prestanda för trådlösa nätverk. I detta dokument tillhandahåller vi den nya ramen för MEC-aktiverade heterogena nätverk (HetNets), som består av multi-tier-nätverk med accesspunkter (APs) (dvs. MEC-servrar), som har olika överföringskraft och olika datorfunktioner. I detta ramverk överväger vi också flera typer av mobila användare med olika storlekar av beräkningsuppgifter, och de avlastar uppgifterna till en MEC-server, och tar emot beräkning resulterande data från servern. Vi härleder den framgångsrika kant computing sannolikhet med tanke på både beräkning och kommunikation prestanda med hjälp av kö teori och stokastisk geometri. Vi analyserar sedan effekterna av nätverksparametrar och partiska faktorer i MEC-server association på den framgångsrika kant computing sannolikhet. Vi tillhandahåller hur de optimala partiska faktorerna i termer av framgångsrik kant computing sannolikhet kan ändras beroende på användartyp och MEC nivå, och hur de skiljer sig från de konventionella som inte beakta datorkapacitet och uppgiftsstorlekar. Det visas också hur de optimala partiska faktorerna kan ändras vid minimering av den genomsnittliga latency istället för framgångsrik kant computing sannolikhet. Denna studie ger designinsikter för optimal konfiguration av MEC-aktiverade HetNets.
Vid MEC-installationer samlokaliseras multi-tier MEC-servrar vid BS och har olika beräknings- och överföringskapacitet (dvs. MBS är högeffekts- och högkomputerande noder) REF.
5,022,378
Mobile Edge Computing-Enabled Heterogeneous Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
8,482
Vi introducerar förökningskärnor, en allmän graf-kärna ram för att effektivt mäta likheten av strukturerade data. Förökningskärnor baseras på övervakning av hur information sprids genom en uppsättning givna grafer. De utnyttjar tidiga distributioner från spridningsprogram som slumpmässiga promenader för att fånga in strukturell information kodad i nodetiketter, attribut och kantinformation. Detta har två fördelar. För det första kan off-the-shelf-utbredningsprogram användas för att naturligt konstruera kärnor för många graftyper, inklusive märkta, delvis märkta, omärkta, riktade och tilldelade grafer. För det andra, genom att utnyttja befintliga effektiva och informativa förökningsprogram, kan förökningskärnor vara betydligt snabbare än den senaste tekniken utan att offra prediktiva prestanda. Vi kommer också att visa att om graferna har en regelbunden struktur, till exempel när man modellerar bild- eller videodata, kan man utnyttja denna regelbundenhet för att skala kärnberäkningen till stora databaser med grafer med tusentals noder. Vi stöder våra bidrag genom uttömmande experiment på ett antal verkliga grafer från en mängd olika tillämpningsområden.
Förökningskärnor REF utnyttja tidiga distributioner av slumpmässiga promenader för att fånga strukturell information gömd i vertex grannskapet.
14,487,732
Propagation kernels: efficient graph kernels from propagated information
{'venue': 'Machine Learning', 'journal': 'Machine Learning', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
8,483
Abstract-Color kontinuitet är förmågan att mäta färger på objekt oberoende av färgen på ljuskällan. En välkänd färgbeständighetsmetod är baserad på det grå-världen antagande som antar att den genomsnittliga reflektansen av ytor i världen är akromatisk. I detta dokument föreslår vi en ny hypotes om färgbeständighet, nämligen den gråkantshypotesen, som förutsätter att den genomsnittliga kantskillnaden i en scen är akromatisk. Baserat på denna hypotes föreslår vi en algoritm för färgbeständighet. I motsats till befintliga färgbeständighet algoritmer, som beräknas från noll-ordning struktur av bilder, vår metod är baserad på derivatstrukturen av bilder. Dessutom föreslår vi ett ramverk som förenar en mängd kända (gray-world, max-RGB, Minkowski norm) och de nyligen föreslagna grå-edge och högre ordningen grå-edge algoritmer. Kvaliteten på de olika ögonblicken i ramverket testas och jämförs med de toppmoderna färgbeständighetsmetoderna på två stora datamängder av bilder som registrerar objekt under ett stort antal olika ljuskällor. Experimenten visar att de föreslagna färgbeständighetsalgoritmerna får jämförbara resultat som de toppmoderna färgbeständighetsmetoderna med förtjänsten att vara beräkningseffektivare.
Något annorlunda från den allmänna grå-världen hypotes, den grå-kant hypotes REF tyder på att pth-Minkowsky normen av den första-eller högre ordningen bildderivat i en scen är akromatisk; därför, det tar den normaliserade pthMinkowsky norm över alla derivatvärden med en specifik ordning (beräknad i varje kanal) att vara den lysande färgen. .......................................
1,055,992
Edge-Based Color Constancy
{'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Medicine']}
8,484
Idag testas datorseendesystem genom deras noggrannhet när det gäller att upptäcka och lokalisera fall av objekt. Som ett alternativ, och motiverat av människans förmåga att ge mycket rikare beskrivningar, även berätta en historia om en bild, konstruerar vi ett "visuell Turing test": en operatörsassisterad enhet som producerar en stokastisk sekvens av binära frågor från en given testbild. Förfrågan motorn föreslår en fråga; operatören antingen ger rätt svar eller förkastar frågan som tvetydig; motorn föreslår nästa fråga ("just-in-time threaking"). Testet administreras sedan till datorvisionssystemet, en fråga i taget. När systemets svar har registrerats får systemet det rätta svaret och nästa fråga. Tolkning är trivialt och deterministiskt; det system som testas kräver ingen behandling av naturligt språk. Förfrågan motorn använder statistiska begränsningar, lärt av en utbildning uppsättning, för att producera frågor med i huvudsak oförutsägbara svar svaret på en fråga, med tanke på historien om frågor och deras korrekta svar, är nästan lika sannolikt att vara positiva eller negativa. I detta avseende handlar testet bara om vision. Systemet är utformat för att producera strömmar av frågor som följer naturliga historia linjer, från ögonblick av ett unikt objekt, genom en undersökning av dess egenskaper, och på dess relationer med andra unikt ögonblickliga objekt. För att åtminstone gå tillbaka till mitten av tjugotalet har det förts en aktiv debatt om framstegen inom artificiell intelligens och hur den skall mätas. Alan Turing [1] föreslog att det slutliga testet av huruvida en maskin kunde "tänka", eller tänka minst lika bra som en person, skulle vara att en mänsklig domare inte kunde avgöra vilken som var vilken som var baserad på samtal i naturligt språk i ett lämpligt dolt scenario. I en mycket omdiskuterad variation (som ibland kallas "standardtolkningen") är målet att mäta hur väl en dator kan imitera en människa [2] i någon begränsad uppgift som normalt förknippas med intelligent beteende, även om den praktiska nyttan av "imitering" som ett kriterium för prestanda också har ifrågasatts [3]. I själva verket har det överväldigande fokus för den moderna AI community varit att bedöma maskinens prestanda mer direkt genom dedikerade tester för specifika uppgifter snarare än att debattera om allmänna "tänkande" eller Turing-liknande tävlingar mellan människor och maskiner. I detta dokument genomför vi ett nytt, frågebaserat test för datorseende, ett av de mest levande områdena inom modern AI-forskning. Genom hela detta papper använder vi "datorseende" mer eller mindre synonymt med semantisk bildtolkning -"bilder till ord". Men naturligtvis omfattar datorseendet många andra aktiviteter; det innefattar teori och praktik av bildbildning ("sensorer till bilder"); bildbehandling ("bilder till bilder"), matematiska representationer; videobehandling; metrisk scenrekonstruktion; och så vidare. Faktum är att det kanske inte är möjligt att tolka scener på semantisk nivå utan att ta hänsyn till åtminstone några av dessa områden, särskilt det geometriska förhållandet mellan en bild och den underliggande 3D-scenen. Men vårt fokus är hur man utvärderar ett system, inte hur man bygger ett. Förutom framgångsrika kommersiella och industriella tillämpningar, såsom ansiktsdetektorer i digitala kameror och feldetektering i tillverkningen, har det också gjorts betydande framsteg i mer generiska uppgifter, såsom att upptäcka och lokalisera fall från flera generiska objekt klasser i vanliga inomhus och utomhus scener, i "fine-grained" klassificering såsom att identifiera växt- och djurarter, och att erkänna attribut för objekt och aktiviteter av människor. Resultaten av utmaningar och tävlingar (se [4, 5] ) tyder på att framsteg har sporrats av stora framsteg i att utforma mer beräkningseffektiva och invarianta bildrepresentationer [6, 7, 8], i stokastisk och hierarkisk modellering [9, 10, 11, 12], i att upptäcka latent struktur genom att träna flerskiktsnätverk med stora mängder oövervakade data [13]; och i delar-baserad statistisk inlärning och modellering tekniker [14, 15, 16], särskilt kombinera diskriminerande deldetektorer med enkla modeller av arrangemang av delar [17]. Helt nyligen har skarpa förbättringar i att upptäcka föremål och relaterade uppgifter gjorts genom att träna konvolutionella neurala nätverk med mycket stora mängder kommenterade data [18, 19, 20, 21, 22]. Mer allmänt ligger maskiner dock mycket långt efter människor i "förståelsebilder" i betydelsen att generera rik semantisk annotation. Till exempel system som försöker hantera ocklusion, sammanhang och oförutsedda arrangemang, som alla hanteras lätt av människor, vanligtvis stöter på problem. Följaktligen är det ingen mening med att utforma en "konkurrens" mellan datorseende och mänsklig vision: att tolka verkliga scener (såsom de i figur 1 ) är praktiskt taget "trivial" (åtminstone enkelt och nästan ögonblickligt) för människor, medan man bygger en "beskrivningsmaskin" att kommentera rådata bilddata förblir en grundläggande utmaning. Vi söker ett kvantitativt mått på hur väl ett datorseendesystem kan tolka vanliga bilder av naturliga scener. Medan vi fokuserar på stadsgator, skulle vårt genomförande lätt kunna utvidgas till andra bildpopulationer och den grundläggande logiken och motivationen förbli densamma. "Score" av vårt test bygger på svaren av ett system under utvärdering på en rad binära frågor om existensen av människor och objekt, deras aktiviteter och attribut, och relationer mellan dem, alla i förhållande till en bild. Vi har valt bildbaserade snarare än scenbaserade frågor (se Scener vs. bilder). Antag att en bild sub-befolkning I har specificerats ("urban street scenes" i Figur 1 ), tillsammans med en "vokabulary" och en motsvarande uppsättning binära frågor (se Ordförråd och frågor). Vår prototyp "Visual Turing test" (VTT) illustreras i figur 2. Frågor ställs sekventiellt till datorseendesystemet med hjälp av I datorseende, liksom inom andra områden av AI, metoderna för utvärdering definierar till stor del den vetenskapliga ansträngningen. De flesta aktuella utvärderingar mäter detektionsnoggrannhet, betonar klassificeringen av regioner enligt objekt från ett fördefinierat bibliotek. Men upptäckt är inte detsamma som förståelse. Vi presenterar här ett annat utvärderingssystem, där en frågemotor förbereder ett skriftligt test ("visual Turing test") som använder binära frågor för att sondera ett systems förmåga att identifiera attribut och relationer förutom att känna igen objekt.
Inledningsvis föreslås som ett "Visual Turing Test" REF, VQA-format har entusiastiskt anammats som grund för ett antal skräddarsydda datauppsättningar och riktmärken.
8,687,210
Visual Turing test for computer vision systems
{'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Computer Science', 'Medicine']}
8,485
Vi betraktar uppgiften med finkornig känsloanalys från perspektivet av flera instans lärande (MIL). Vår neurala modell är tränad på dokumentkänslor, och lär sig att förutsäga känslan av textsegment, d.v.s. meningar eller elementära diskursenheter (EDU), utan övervakning på segmentsnivå. Vi introducerar en uppmärksamhetsbaserad polaritet scoring metod för att identifiera positiva och negativa textslippar och en ny datauppsättning som vi kallar SPOT (som shorthand för Segment-nivå POlariTy kommentarer) för att utvärdera MILstyle-känslor modeller som vår. Experimentella resultat visar en överlägsen prestanda jämfört med flera baslinjer, medan en utvärderingsstudie visar att EDU-baserad åsiktsextraktion ger mer informativa sammanfattningar än meningsbaserade alternativ.
På senare tid föreslår REF MILNET, en flerfaldig inlärningsnätverksmodell för analys av känslor.
33,864,324
Multiple Instance Learning Networks for Fine-Grained Sentiment Analysis
{'venue': 'Transactions of the Association for Computational Linguistics', 'journal': 'Transactions of the Association for Computational Linguistics', 'mag_field_of_study': ['Computer Science']}
8,486
Det relativa noggrannhetsproblemet är att avgöra, med tanke på tuples t1 och t2 som avser samma enhet e, om t1[A] är mer exakt än t2[A], dvs. t1[A] är närmare det verkliga värdet av A-attributet e än t2 [A]. Detta har varit en långvarig fråga för datakvalitet, och är utmanande när de verkliga värdena för e är okända. I detta dokument föreslås en modell för att fastställa relativ noggrannhet. (1) Vi inför en klass av noggrannhetsregler och ett slutsystem med ett jaktförfarande, för att härleda relativ noggrannhet. (2) Vi identifierar och studerar flera grundläggande problem för relativ noggrannhet. Med tanke på en uppsättning tupler som hänför sig till samma enhet e och en uppsättning noggrannhetsregler, dessa problem är att avgöra om jaktprocessen slutar, är Church-Rosser, och leder till en unik mål tuple te består av de mest exakta värden från Ie för alla attribut e. (3) Vi föreslår ett ramverk för att härleda exakta värden med användarinteraktion. (4) Vi tillhandahåller algoritmer som ligger till grund för ramverket, för att hitta det unika målet tuple te när det är möjligt; när det inte finns tillräckligt med information för att bestämma en komplett te, beräknar vi top-k kandidatmål baserat på en preferensmodell. (5) Med hjälp av verkliga och syntetiska data verifierar vi experimentellt effektiviteten och effektiviteten i vår metod.
Till exempel kan de relativa noggrannhetsbegränsningarna bestämma den relativa noggrannheten hos olika tuples REF.
15,268,649
Determining the relative accuracy of attributes
{'venue': "SIGMOD '13", 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,487
Abstract-Den optimala och distribuerade avsättning av hög genomströmning i nätnät är känd som ett grundläggande men svårt problem. Situationen förvärras i en trådlös miljö på grund av störningar mellan lokala trådlösa sändningar. I detta dokument föreslår vi ett cross-layer optimeringsramverk för throughput maximization i trådlösa mesh nätverk, där data routing problem och det trådlösa medium innehållsproblem är gemensamt optimerade för multihop multicast. Vi visar att genomströmningsmaximering problemet kan brytas ner i två subproblem: en data routing subproblem på nätverkslagret, och en effektkontroll subproblem på det fysiska lagret med en uppsättning Lagrangian dubbla variabler som samordnar interlayer koppling. Olika effektiva lösningar diskuteras för varje delproblem. Vi betonar nätverkskodningstekniken för multicast routing och en spelteoretisk metod för interferenshantering, för vilken effektiva och distribuerade lösningar härleds och illustreras. Slutligen visar vi att den föreslagna ramen kan utvidgas för att ta hänsyn till fysisk-lager trådlös multisändning i nätnät.
Yuan m.fl. föreslog ett cross-layer optimeringsramverk för throughput maximization joint multicast routing problem och det trådlösa medium stridsproblem i trådlösa mesh nätverk REF; men de inte överväga frågan om multicast överbelastning kontroll.
1,040,413
A Cross-Layer Optimization Framework for Multihop Multicast in Wireless Mesh Networks
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']}
8,489
Abstract-Vi fokuserar på integritet-noggrannhet kompromiss som möter en användare som vill släppa vissa data till en analytiker, som är korrelerad med hans privata data, i hopp om att få lite nytta. Vi förlitar oss på en allmän statistisk inferensram, enligt vilken data förvrängs innan den släpps, enligt en probabilistisk integritetsmekanism utformad under bruksmässiga begränsningar. Med hjälp av de senaste resultaten om maximal korrelation och hyperkontraktivitet av Markov processer, föreslår vi först nya tekniker för att utforma nyttomedvetna integritetsmekanismer mot inference attacker, när endast partiell statistisk kunskap om den tidigare distributionen länka privata data och data som ska släppas är tillgänglig. Vi föreslår sedan optimala integritetsmekanismer i klassen additiva bullermekanismer, för både kontinuerliga och diskreta utgivna data, vars design kräver endast kunskap om andra ordningens ögonblick av data som ska släppas. Vi vänder sedan vår uppmärksamhet till multi-agent system, där flera data releaser förekommer, och använda tensorization resultat av maximal korrelation för att analysera hur integritetsgarantier komponera efter samverkan eller komposition. Slutligen visar vi relationen mellan olika befintliga integritetsmått, i synnerhet skillnader i integritet, och differentiell integritet.
På samma sätt, Makhdoumi et al. Ref överväga inställningen där en användare vill släppa vissa data i utbyte mot något verktyg.
17,809,355
Privacy-utility tradeoff under statistical uncertainty
{'venue': '2013 51st Annual Allerton Conference on Communication, Control, and Computing (Allerton)', 'journal': '2013 51st Annual Allerton Conference on Communication, Control, and Computing (Allerton)', 'mag_field_of_study': ['Computer Science']}
8,490
Inom det mänskliga lärandet är det vanligt att man använder flera informationskällor gemensamt. De flesta befintliga inlärningsmetoder lär sig dock bara av en enda uppgift. I detta dokument föreslår vi ett nytt nätverk med många uppgifter för att lära oss allmänna visuella representationer på hög nivå. Eftersom lärande med multitask kräver kommentarer för flera egenskaper hos samma träningstillfälle, tittar vi på syntetiska bilder för att träna vårt nätverk. För att övervinna domänskillnaden mellan verkliga och syntetiska data använder vi en oövervakad rymddomänanpassningsmetod baserad på kontradiktoriskt lärande. Med tanke på en indatasyntetisk RGB-bild, förutser vårt nätverk samtidigt sin yta normal, djup och instans kontur, samtidigt som funktionen utrymme domänskillnader mellan verkliga och syntetiska data minimeras. Genom omfattande experiment, visar vi att vårt nätverk lär sig mer överförbara representationer jämfört med en-task baslinjer. Vår lärda representation producerar toppmoderna överföringsresultat om PAS-CAL VOC 2007 klassificering och 2012 detektion.
Ren och al. REF använder en oövervakad domänanpassningsmetod baserad på kontradiktoriskt lärande för att överföra inlärda funktioner från syntetiska till verkliga bilder.
4,625,569
Cross-Domain Self-Supervised Multi-task Feature Learning Using Synthetic Imagery
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
8,491
ABSTRACT Patienter med Parkinsons sjukdom (PD) kan ha svårigheter att tala på grund av minskad koordination av de muskler som kontrollerar andning, fontation, artikulation och prosody. Symtom som kan uppstå är försvagning av volymen av rösten, rösten monotoni, förändringar i kvaliteten på rösten, talhastigheten, okontrollerad upprepning av ord, och svårt tal begriplighet. Hittills har bedömningen av taluppfattbarheten gjorts på grundval av den enhetliga PD-värderingsskalan. I synnerhet, avsnitt 3.1 (equence) i den citerade skalan ger specialisten några tips för att utvärdera patientens talförmåga. I syfte att utvärdera taluppfattbarheten genom att mäta variationen i parametrar på ett objektivt sätt, visar vi att ett tal-till-text-system (STT) kan hjälpa specialister att få ett korrekt och objektivt mått på tal, fras och orduppfattbarhet i PD. STT-systemen bygger på metoder och tekniker som gör det möjligt för datorer och datoriserade enheter att känna igen och översätta det talade språket till text. Vi bestämde oss för att basera vår studie på Google STT konvertering. Vi utökar Voxtester, ett mjukvarusystem för digital bedömning av röst- och talförändringar i PD, för att utföra denna studie. Inga tidigare studier har lagts fram för att ta itu med de nämnda utmaningarna på grundval av STT. De experiment som presenteras här är relaterade till detektion/klassificering mellan patologiskt tal från patienter med PD och regelbundet tal från friska kontrollgrupp. Resultaten är mycket intressanta och är ett viktigt steg mot att bedöma begripligheten i PD-patienters tal. Parkinsons sjukdom, talanalys, automatisk taligenkänning, mänsklig röst, tal till text.
Endast några försök att kvantifiera patientens begriplighet har utförts med hjälp av tal-till-text verktyg REF.
26,379,261
Assessment of Speech Intelligibility in Parkinson’s Disease Using a Speech-To-Text System
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
8,492
Syfte: I denna studie undersöktes effekten av typen, nivån och mängden fysisk aktivitet vid fall och fallrelaterade skador. Metod: Deltagare var 506 personer i åldern 450 år (390 kvinnor: 67,7 AE 6,8 år och 116 män: 69,6 AE 6,6 år). Fall, fallskador (lätta och svåra) och fysisk aktivitet (typ, nivå och energiutgifter) utvärderades genom frågeformulär. Bland medgrundarna fanns komorbiditeter, rädsla för fall, miljörisker och fysisk kondition. Resultat: Efter justering för confounders, logistisk analys visade att sannolikheten för att falla med 2% för varje 100 metabola utgifter (MET-min/vecka) av total fysisk aktivitet och ökade med 5% för varje 100 MET-min/vecka av kraftig intensitet fysisk aktivitet; total fysisk aktivitet 41125 MET-min/vecka och kraftig fysisk aktivitet 5500 MET-min/vecka identifierades som brytvärden som skiljer icke-fallande från fallna. Jämfört med den låga fysiska aktivitetsnivån minskade ökningen av fysisk aktivitet sannolikheten för allvarliga fallrelaterade skador med 76 % (måttlig) och 58 % (hög; p50,05) hos fallare. Slutsatser: Att vara aktiv, särskilt tillräckligt aktiv, minskar fallrelaterade skador genom minskande fall och genom att skydda mot svåra skador när fall inträffar. Minst 1125 MET-min/vecka av total fysisk aktivitet inklusive 4500 MET-min/vecka av kraftig intensitet tycks förhindra fall och därmed fallrelaterade skador. Att vara tillräckligt aktiv minskar fallrelaterade skador genom att minska fall och genom att skydda mot allvarlig skada när fall inträffar För varje ytterligare mängd av total fysisk aktivitet finns det en motsvarande direkt (på grund av effekten av isolerad fysisk aktivitet) och indirekt (på grund av att personen ökar i kondition) minskning av risken för fall och därmed skada. Kraftig fysisk aktivitet leder till ökad total fysisk aktivitet, men leder också till en ökad risk för fall och skada Total fysisk aktivitet på minst 1125 MET-min/vecka med lika med eller lägre än 500 MET-min/vecka (dvs. mindre än $1 h/vecka, enligt IPAQ-kriterier) av kraftig intensitet avsevärt minskar fall och därför skada
Effekten av typ, nivå och mängd fysisk aktivitet vid fall och fallrelaterade skador undersöktes i REF.
11,327,821
Role of physical activity in the occurrence of falls and fall-related injuries in community-dwelling adults over 50 years old
{'venue': 'Disability and rehabilitation', 'journal': 'Disability and rehabilitation', 'mag_field_of_study': ['Medicine']}
8,493
Abstract-Energieffektivitet är ett av de avgörande konstruktionskriterierna för trådlösa sensornätverk. Tomgångslyssnande utgör en stor del av energislöseriet, och därför har lösningar som t.ex. belastningscykling och användning av uppvaknande radioapparater föreslagits för att minska overksamt lyssnande och spara energi. Jämfört med arbetscykling sparar väckarradion mer energi genom att minska onödiga uppvaknanden och kollisioner. I detta dokument undersöker vi genomförbarheten och de potentiella fördelarna med att använda passiv RFID som en väckarradio. Vi introducerar först ett fysiskt införande av sensornoder med passiva RFID-väckarradior och mäter deras energikostnad och vakenhetsannolikhet. Sedan jämför vi prestandan hos våra RFID-väckarsensornoder med arbetscykling i ett Data MULE-scenario genom simuleringar med realistiska tillämpningsparametrar. Resultaten visar att användningen av en passiv RFID-väckarradio ger betydande energieffektivitetsvinster på bekostnad av fördröjning och den extra billiga RFID-hårdvaran, vilket gör RFID-väckarradion fördelaktig för många delay-toleranta sensornätverkstillämpningar.
Såvitt vi vet är den enda maskinvaruimplementeringen av en passiv väckarradio vår WISPMote REF.
17,063,088
Feasibility and Benefits of Passive RFID Wake-Up Radios for Wireless Sensor Networks
{'venue': '2010 IEEE Global Telecommunications Conference GLOBECOM 2010', 'journal': '2010 IEEE Global Telecommunications Conference GLOBECOM 2010', 'mag_field_of_study': ['Computer Science']}
8,494
Konvolutionskärnor stöder modellering av komplex syntaktisk information i maskininlärningsuppgifter. Sådana modeller är dock mycket känsliga för typen och storleken på den syntaktiska struktur som används. Det är därför en viktig utmaning att automatiskt identifiera understrukturer med hög effekt som är relevanta för en viss uppgift. I denna uppsats presenterar vi en systematisk studie som undersöker (kombinationer av) sekvenser och konvolutionskärnor med hjälp av olika typer av substrukturer i dokument-nivå känslor klassificering. Vi visar att minimala understrukturer som utvinns ur valkretsar och beroende träd vägleds av en polaritet lexikon visar 1,45 punkt absolut förbättring i noggrannhet över en påse-of-words klassificerare på en allmänt använd känsla corpus.
REF föreslog ett tillvägagångssätt där man använder sig av tolkningsfunktioner med hög effekt för konvolutionskärnor i känsloigenkänning på dokumentnivå.
8,293,889
Identifying High-Impact Sub-Structures for Convolution Kernels in Document-level Sentiment Classification
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,495
ABSTRACT Långsiktigt utvecklingstrådlöst lokalnät (LTE-WLAN) aggregering (LWA) har nyligen vuxit fram som ett lovande tredje generationens partnerskapsprojekt (3GPP) Släpp 13 teknik för att effektivt aggregera LTE och WLAN i paketdatakonvergensprotokollskiktet, vilket möjliggör upplänktrafik på LTE och nedlänk på både LTE och WLAN. Detta tar bort alla tvisteproblem i WLAN och möjliggör en optimal användning av både licensierat och olicensierat band för nedlänk. I detta dokument presenterar vi ett nytt inslag i LWA, dess flödeskontrollsystem, som kontrollerar hur man aggregerar nedlänktrafik i licensierade och olicensierade band. Denna aggregeringsteknik utnyttjar användarens utrustningsbaserade flödesstyrningsfeedback i form av LWA-statusrapporter, och kan utökas till att fungera med ett antal frekvensband och radioteknik. Samma begrepp gäller för 5G-nät, även om den resultatutvärdering som ges här är en del av LTE-Advanced Pro. Simuleringar resulterar i ett typiskt företag scenario visar att LWA kan förbättra användarens prestanda upp till 8 gånger över LTE endast, och 3,7 gånger över WLAN endast nätverk, respektive. Effekterna av filstorleken och LWA:s statusrapporteringsfrekvens på nätverksprestanda undersöks också. INDEX TERMS Mobila nätverk, långsiktig utveckling (LTE), trådlöst lokalt nätverk (WLAN), LTE WLAN-aggregation (LWA), flödeskontroll, aggregering.
Paketförseningen och ombeställningen av latensen beaktades i transportörens aggregation mellan licensierat och olicensierat band REF.
30,340,731
Long Term Evolution-Wireless Local Area Network Aggregation Flow Control
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
8,496
Maskininlärning erbjuder en rad verktyg för utbildningssystem från data, men dessa metoder är bara så bra som den underliggande representationen. I detta dokument föreslås att man skaffar sig representationer för maskininlärning genom att läsa text skriven för att ta hänsyn till mänskligt lärande. Vi föreslår en ny form av semantisk analys som kallas läsning för att lära, där målet är att få en hög nivå semantisk abstrakt av flera dokument i en representation som underlättar lärande. Vi får detta abstrakt genom en generativ modell som inte kräver några märkta data, istället utnyttjar repetition över flera dokument. Det semantiska abstraktet omvandlas till en transformerad funktionsyta för lärande, vilket resulterar i förbättrad generalisering av en relationell inlärningsuppgift.
REF använder semantiska abstraktioner på hög nivå av dokument i en representation för att underlätta relationsbaserat lärande med hjälp av induktiv logisk programmering och en generativ språkmodell.
1,174,836
Reading to Learn: Constructing Features from Semantic Abstracts
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,497
Ett naturligt alternativ för att fråga i ett bildsökningssystem är att helt enkelt rita vad man har i åtanke. Att teckna var i själva verket det primitiva sättet att kommunicera mellan människor. Ett av målen med en bildsökning scenario är att ge användarna en enkel modalitet för att fråga. Därmed innebär en ritning en enkel handritad skiss som endast består av drag som användarna enkelt kan göra, saknar färg eller struktur. Exempel på handritade skisser visas i figur 1. Denna fråga modalitet leder till skissbaserad bildsökning problem (SBIR) som är ett utmanande problem på grund av två huvudsakliga skäl: (i) bilder som vi vill hämta är inte skisser, (ii) frågeskisser visar viss nivå av tvetydighet av naturen som kan göra en metod blir förvirrad lätt. Följaktligen uppvisar SBIR:s toppmoderna metoder [2, 4] fortfarande låga prestanda. Därför, med några idéer om den mänskliga visuella perceptionen, presenterar vi en ny metod för skissbaserad bildsökning. Vår metod, är baserad på att upptäcka förekomsten av mid-level mönster på en skiss. I detta syfte räknar vi ut en uppsättning mönster (lärda keyshapes) genom en oövervakad inlärningsprocess. Vi bygger sedan ett histogram som räknar förekomsten av mönster i den underliggande skissen. Histogrammet är byggt med hjälp av soft-voting, rumslig uppdelning och kvadratrot normalisering. Vi visar nya toppmoderna resultat i två tillgängliga datauppsättningar som fördubblar precisionen som uppnås med nuvarande metoder. Vårt förslag består av två steg (figur 2 ): (1) räkna ut en uppsättning av keyshapes, (2) generera LKS deskriptorer baserat på den upptäckta uppsättningen av keyshapes, som kommer att användas senare för likhetssökning.
I REF föreslogs en ny metod för att beskriva handritade skisser genom att upptäcka inlärda keyshapes (LKS).
11,324,587
Sketch based Image Retrieval using Learned KeyShapes (LKS).
{'venue': 'BMVC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,498
Syfte -Att utveckla en metod för att öka företagets resursplaneringssystem (ERP) med den diskreta händelsesimuleringens inneboende förmåga att hantera osäkerheterna. Design/metodologi/approach – ERP-systemet innehåller och använder fortfarande materialkravsplaneringslogiken (MRP) som sin centrala planeringsfunktion. Som ett resultat av detta ärver ERP-systemet ett antal brister i samband med MRP-systemet, bland annat orealistiskt fastställande av ledtid. Den utvecklade metoden använder dubbelriktad återkoppling mellan det icke-stokastiska ERP-systemet och den diskreta händelsesimuleringsmodellen tills en uppsättning konvergerade ledtider har fastställts. Fynden -Ett exempel på att bestämma realistiska produktions ledtidsdata i ERP-systemet presenteras för att illustrera hur ett sådant äktenskap kan uppnås. Forskningens begränsningar/implikationer -Forskningen visar att ERP-systemets begränsade planeringsfunktion kan kompletteras med externa system såsom diskreta händelsesimuleringsmodeller. De specifika steg som utvecklats för denna forskning kan användas för andra förbättringar i olika men jämförbara situationer. Praktiska konsekvenser -De organisationer som har använt den diskreta händelsesimuleringen i sina planerings- och beslutsprocesser kan integrera sina simuleringsmodeller och ERP-systemet efter de steg som presenteras i detta dokument. Idéerna i detta dokument kan användas för att leta efter automatisk datainsamling för att uppdatera eller bygga simuleringsmodellerna. Originalitet / värde - ERP genomförande är en betydande investering för alla företag. När genomförandet av ERP har slutförts framgångsrikt, företagen måste leta efter sätt att maximalt avkastning på sina investeringar. Forskningsresultaten kan användas för att förbättra de implementerade ERP-systemen eller för att fullt ut utnyttja kapaciteten i ett företag.
Förbättra ERP-systemets funktionalitet med diskret händelsesimulering REF.
16,518,820
Enhancing ERP system's functionality with discrete event simulation
{'venue': 'Industrial Management and Data Systems', 'journal': 'Industrial Management and Data Systems', 'mag_field_of_study': ['Engineering', 'Computer Science']}
8,499
Abstract-This paper considers a wireless powered communication network (WPCN), där flera användare skördar energi från en dedikerad kraftstation och sedan kommunicerar med en informationsmottagning. Vårt mål är att undersöka nätverkets maximala energieffektivitet (EE) genom gemensam tidstilldelning och kraftstyrning samtidigt som hänsyn tas till varje användares initiala batterienergi. Vi först studera EE maximization problem i WPCN utan någon systemgenomströmning krav. Vi visar att EE maximering problem för WPCN kan kastas i EE maximering problem för två förenklade nätverk genom att utnyttja sin speciella struktur. För varje problem tar vi fram den optimala lösningen och ger den motsvarande fysiska tolkningen, trots att problemen inte är konvexa. Därefter studerar vi EE maximization problem under ett minimum system throughput restriktion. Genom att utnyttja delprogrammeringsteorin omvandlar vi det resulterande icke-konvexa problemet till ett standardproblem med konvex optimering. Detta gör det möjligt för oss att karakterisera den optimala lösningsstrukturen för gemensam tidstilldelning och kraftstyrning och att härleda en effektiv iterativ algoritm för att erhålla den optimala lösningen. Simuleringsresultat verifierar våra teoretiska resultat och visar effektiviteten i den föreslagna gemensamma tids- och effektoptimeringen.
Wu och Al. ansågs vara ett trådlöst kommunikationsnät, och undersökte energieffektivitetsmaximeringsproblem via gemensam tidstilldelning och kraftstyrning i REF.
607,596
Energy-Efficient Resource Allocation for Wireless Powered Communication Networks
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
8,500
Med ökningen av foto-delning webbplatser som Facebook och Flickr har kommit dramatisk tillväxt i antalet fotografier på nätet. Ny forskning i objektigenkänning har använt sådana platser som en källa till bilddata, men testbilderna har valts ut och märkts för hand, vilket ger relativt små valideringsuppsättningar. I detta dokument studerar vi bildklassificering på en mycket större datauppsättning på 30 miljoner bilder, varav nästan 2 miljoner har märkts i en av 500 kategorier. Datauppsättningen och kategorierna bildas automatiskt från geotaggade foton från Flickr, genom att leta efter toppar i den rumsliga geotag-distributionen som motsvarar ofta fotograferade landmärken. Vi lär oss modeller för dessa landmärken med en multiklass stöd vektor maskin, med vektor-kvantifierade räntepunkter deskriptorer som funktioner. Vi undersöker också den icke-visuella information som finns tillgänglig på moderna fotodelningsplatser, vilket visar att texttaggar och tidsbegränsningar leder till betydande förbättringar av klassificeringsfrekvensen. Vi finner att enbart bildfunktioner i vissa fall ger jämförbar klassificeringsnoggrannhet till att använda texttaggar samt till prestandan hos mänskliga observatörer.
Ref forskar med landmärkesklassificering på en samling av 500 landmärken och 2 miljoner bilder.
206,769,680
Landmark classification in large-scale image collections
{'venue': '2009 IEEE 12th International Conference on Computer Vision', 'journal': '2009 IEEE 12th International Conference on Computer Vision', 'mag_field_of_study': ['Computer Science']}
8,501
Abstrakt. Nya studier har föreslagit olika metoder för gruvdrift frekventa episoder. I detta arbete studerar vi problemet med slutna gruvepisoder baserat på minimala förekomster. Vi studerar egenskaperna hos minimala förekomster och designar effektiva beskärningstekniker för att beskära icke-stängda episoder. En effektiv gruvalgoritm Clo_episode föreslås för att bryta alla stängda avsnitt efter en bredd-första sökordning och integrera beskärningstekniker. Experimentella resultat visar att vår gruvalgoritm är effektiv och att gruvresultatet är kompakt.
REF föreslog gruvslutna serieepisioner baserade på Minepi-metoden, utan att lösa detta fel.
9,265,793
Mining Closed Episodes from Event Sequences Efficiently
{'venue': 'PAKDD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,502
Generativa modeller av 3D mänsklig rörelse är ofta begränsade till ett litet antal aktiviteter och kan därför inte generalisera väl till nya rörelser eller tillämpningar. I detta arbete föreslår vi en djupinlärning ram för mänsklig rörelse fånga data som lär sig en generisk representation från en stor corpus av rörelse fånga data och generaliserar väl till nya, osynliga, rörelser. Med hjälp av ett kodning-avkodning nätverk som lär sig att förutsäga framtida 3D-poser från det senaste förflutna, extraherar vi en funktion representation av mänskliga rörelser. De flesta arbeten med djupinlärning för sekvensförutsägelse fokuserar på video och tal. Eftersom skelettdata har en annan struktur presenterar och utvärderar vi olika nätverksarkitekturer som gör olika antaganden om tidsberoenden och korrelationer mellan extremiteter. För att kvantifiera de inlärda funktionerna använder vi utdata från olika lager för åtgärdsklassificering och visualiserar de mottagliga fälten i nätverksenheter. Vår metod överträffar den senaste tekniken inom skelettrörelseförutsägelse även om dessa använder åtgärdsspecifika träningsdata. Våra resultat visar att djupa feedforward nätverk, utbildade från en generisk mocap databas, framgångsrikt kan användas för funktionsextraktion från mänskliga rörelsedata och att denna representation kan användas som en grund för klassificering och förutsägelse.
Med hjälp av en kodare-dekoder struktur, REF ) extrahera egenskaper representationer av mänsklig rörelse för förutsägelse och klassificering.
2,469,127
Deep Representation Learning for Human Motion Prediction and Classification
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
8,503
Abstract-This paper omarbetar problemet med särdrag placering i källkod som ett beslutsfattande problem i närvaro av osäkerhet. Lösningen på problemet formuleras som en kombination av olika experters åsikter. Experterna i detta arbete är två befintliga tekniker för funktionsplacering: en scenariobaserad probabilistisk rankning av händelser och en informations-retrieval-baserad teknik som använder Latent Semantic Indexing. Kombinationen av dessa två experter utvärderas empiriskt genom flera fallstudier, som använder källkoden för Mozilla webbläsare och Eclipse integrerad utvecklingsmiljö. Resultaten visar att kombinationen av experter avsevärt förbättrar funktionens effektivitet jämfört med var och en av de experter som används självständigt.
Poshyvanyk m.fl. I REF formulerades problemet med lokalisering som en kombination av olika experters åsikter.
9,938,922
Feature Location Using Probabilistic Ranking of Methods Based on Execution Scenarios and Information Retrieval
{'venue': 'IEEE Transactions on Software Engineering', 'journal': 'IEEE Transactions on Software Engineering', 'mag_field_of_study': ['Computer Science']}
8,504
Abstract-Vi anser att den kanoniska delade länk caching nätverk som bildas av en källa nod, värd ett bibliotek av m information meddelanden (filer), ansluten via en ljudlös multicast länk till n användarnoder, var och en utrustad med en cache av storlek M-filer. Användare begär filer självständigt slumpmässigt enligt en a-prioriterad känd efterfrågan distribution q. Ett kodsystem för detta nätverk består av två faser: cacheplacering och leverans. cacheplaceringen är en kartläggning av biblioteksfilerna på användarcacherna som kan optimeras som en funktion av efterfrågestatistiken, men som är agnostisk för den faktiska efterfrågan. Efter användarens krav avslöjas, under leveransfasen skickar källan ett kodord (funktion av biblioteksfiler, cacheplacering och krav) till användarna, så att varje användare hämtar sin begärda fil med godtyckligt hög sannolikhet. Målet är att minimera den genomsnittliga sändningslängden för leveransfasen, kallad hastighet (uttryckt i kanalsymboler per fil). När det gäller deterministiska krav har den optimala min-max-hastigheten karakteriserats inom en konstant multiplikativ faktor, oberoende av nätverksparametrarna. Fallet med slumpmässiga krav togs tidigare upp genom att tillämpa det beställningsoptimala min-max-systemet separat inom grupper av filer som begärts med liknande sannolikhet. Ingen fullständig karakterisering av orderoptimaliteten tillhandahölls dock tidigare för slumpmässiga krav enligt prestationskriteriet för genomsnittlig hastighet. I detta dokument tar vi hänsyn till den slumpmässiga efterfrågeinställningen och för det speciella men relevanta fallet med en Zif-efterfrågan erbjuder vi en omfattande karakterisering av orderoptimalräntan för alla system av systemparametrarna, samt ett uttryckligt placerings- och leveranssystem som uppnår orderoptimala priser. Vi presenterar också numeriska resultat som bekräftar vårt systems överlägsenhet i förhållande till tidigare föreslagna system för samma inställning. Index Terms-Content distribution, kodad caching, slumpmässiga krav, indexkodning, order optimal hastighet.
[19] och REF beaktade slumpmässigheten i användarnas krav och syftade till att minska den genomsnittliga överföringshastigheten.
17,568,852
Order-Optimal Rate of Caching and Coded Multicasting With Random Demands
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
8,505
Stora Semantiska Web kunskapsbaser är ofta bullriga, felaktiga och ofullständiga när det gäller typinformation. Automatisk typ förutsägelse kan bidra till att minska sådan ofullständighet, och, som tidigare verk visar, statistiska metoder är väl lämpade för denna typ av data. Eftersom de flesta semantiska webbaserade kunskapsbaser kommer med en ontologi som definierar en typhierarki, formulerar vi om typförutsägelseproblemet som ett hierarkiskt multimärkningsproblem. Vi föreslår SLCN, en ändring av den lokala klassificeringen per nod metod, som utför funktionsval, exempel provtagning, och klassbalansering för varje lokal klassificering. Vår strategi förbättrar skalbarheten och underlättar dess tillämpning på stora semantiska webbdataset med högdimensionella funktioner och etikettutrymmen. Vi jämför prestandan för vår föreslagna metod med en toppmodern typ prediktionsmetod och populära hierarkiska multimärkningsklassificeringar, och rapporterar om experiment med storskaliga RDF-datauppsättningar.
Melo m.fl. REF införde en typförutsägelsemetod kallad SLCN för att ta itu med typbrist i Semantic Webs kunskapsbaser med en ontologi som definierar en typhierarki.
631,016
Type Prediction in RDF Knowledge Bases Using Hierarchical Multilabel Classification
{'venue': "WIMS '16", 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,506
Att lära sig allmänt kausalt och tidsmässigt samband mellan händelser är ett av de stora stegen mot djupare språkförståelse. Detta är ännu viktigare för att förstå berättelser och manusinlärning. En förutsättning för att lära sig manus är ett semantiskt ramverk som gör det möjligt att fånga rika händelsestrukturer. I detta dokument introducerar vi en ny semantisk notationsram, kallad Causal and Temporal Relation Scheme (CaTerS), som är unik genom att samtidigt fånga upp en omfattande uppsättning tidsmässiga och orsakssamband mellan händelser. Genom att notera sammanlagt 1.600 meningar i samband med 320 noveller med fem meningar som samlats in från ROCStories corpus, visar vi att dessa berättelser verkligen är fulla av kausala och tidsmässiga relationer. Dessutom visar vi att CaTerS-annotationssystemet möjliggör hög inter-annotator-avtal för bred täckning händelseenhet annotation och måttlig överenskommelse om semantisk länk annotation.
Dessutom kommenterade REF både tidsmässiga och orsakssamband i 320 korta berättelser (fem meningar i varje berättelse) tagna från ROCStories Corpus och angav starka samband mellan orsakssamband och tidsmässiga relationer.
8,387,007
CaTeRS: Causal and Temporal Relation Scheme for Semantic Annotation of Event Structures
{'venue': 'EVENTS@HLT-NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,507
Många tillämpningar, såsom medicinsk avbildning, genererar intensiv datatrafik mellan FPGA och off-chip minne. Väsentliga förbättringar i utförandet tid kan uppnås med effektiv användning av on-chip (cratchpad) minnen, i samband med noggrann programvara-baserad data återanvändning och kommunikation schemaläggning tekniker. Vi presenterar ett helt automatiserat ramverk för C-to-FPGA för att ta itu med detta problem. Vårt ramverk implementerar effektivt data återanvändning genom aggressiv loop transformation-baserade program omstrukturering. Dessutom implementerar vårt föreslagna ramverk automatiskt kritiska optimeringar för prestanda såsom parallellisering på uppgiftsnivå, rörledning och förhämtning av data. Vi utnyttjar kraften och expressiviteten i polyhedral sammanställning modell för att utveckla ett multi-objektivt optimeringssystem för off-chip kommunikationshantering. Vår teknik kan tillfredsställa hårdvaruresurser begränsningar (scratchpad storlek) samtidigt aggressivt utnyttja data återanvändning. Vårt tillvägagångssätt kan också användas för att minska buffertstorleken på chipet under förutsättning att bandbredden begränsas. Vi implementerar också en snabb teknik för rymdprospektering för effektiv optimering av programprestanda med hjälp av Xilinx högnivåsyntesverktyg.
I REF används polyhedralmodellen för att syntetisera optimerade acceleratorer genom högnivåsyntes.
12,671,526
Polyhedral-based data reuse optimization for configurable computing
{'venue': "FPGA '13", 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,508
I detta arbete studeras den gemensamma designen av moln- och kantbearbetning för nedlänken till ett dimradionät (F-RAN). I en F-RAN utförs molnbehandling av en basbandsenhet (BBU) som är ansluten till förbättrade fjärrradiohuvuden (eRRH) med hjälp av fronthaullänkar. Kantbehandling aktiveras istället genom lokal caching av populärt innehåll på eRRHs. Med fokus på utformningen av leveransfasen för en godtycklig förhämtningsstrategi föreslås en ny superpositionskodningsmetod som bygger på hybridanvändning av fronthaullänkarna i både hård överförings- och mjuköverföringslägen. Med den tidigare, non-cached filer kommuniceras över fronthaul länkar till en delmängd av eRRHs, medan, med den senare, fronthaul länkar används för att förmedla kvantiserade basband signaler som i ett moln RAN (C-RAN). Problemet med att maximera leveranshastigheten hanteras under fronthaulkapacitet och per-eRRH effektbegränsningar. Numeriska resultat tillhandahålls för att validera prestandan hos det föreslagna hybridleveranssystemet för olika referensstrategier för förhämtning. Index Terms-Cloud radio access nätverk, dim nätverk, caching, förkodning.
Park m.fl. REF utvecklade en gemensam optimering av moln- och kantbearbetning för dimradionät.
7,378,605
Joint optimization of cloud and edge processing for fog radio access networks
{'venue': '2016 IEEE International Symposium on Information Theory (ISIT)', 'journal': '2016 IEEE International Symposium on Information Theory (ISIT)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
8,509
Abstract-Galidera kod hantering exceptionellt beteende är svårt, särskilt när det handlar om externa resurser som kan vara bullriga och opålitliga, som det kräver: 1) systematisk undersökning av utrymmet för undantag som kan kastas av externa resurser, och 2) utformningen av sammanhanget för att utlösa specifika mönster av undantag. I detta arbete presenterar vi en strategi som tar itu med dessa svårigheter genom att utföra en uttömmande förstärkning av utrymmet för exceptionellt beteende i samband med en extern resurs som utövas av en testsvit. Varje förstärkning försöker exponera ett program undantag hantering konstruktion till nytt beteende genom att håna en extern resurs så att den återgår normalt eller kastar ett undantag enligt ett fördefinierat mönster. Vår bedömning av metoden indikerar att den kan vara helt automatiserad, är tillräckligt kraftfull för att upptäcka 65% av de fel som rapporterats i felrapporter av detta slag, och är tillräckligt exakt för att 77% av de upptäckta anomalier motsvarar fel som fastställts av utvecklarna.
Zhang och Elbaum REF har nyligen presenterat ett tillvägagångssätt som förstärker testet för att validera undantagshantering.
10,726,689
Amplifying tests to validate exception handling code
{'venue': "ICSE '12", 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,510
Under de senaste åren har intresset ökat för användning av symbolisk exekvering - en programanalysteknik som utvecklades för mer än tre decennier sedan för att analysera programutförandevägar. Att skala symboliskt utförande och andra vägkänsliga analystekniker till stora system är fortfarande en utmaning trots de senaste algoritmiska och tekniska framstegen. Ett alternativ till att lösa problemet med skalbarhet är att minska analysens omfattning. En metod som är allmänt studerad i samband med regressionsanalys är att analysera skillnaderna mellan två relaterade programversioner. Även om ett sådant tillvägagångssätt är intuitivt i teorin, hitta effektiva och exakta sätt att identifiera programskillnader, och karakterisera deras effekter på hur programmet utför har visat sig utmanande i praktiken. I denna uppsats presenterar vi Directed Incremental Symbolic Execution (DiSE), en ny teknik för att upptäcka och karakterisera effekterna av programändringar. Nyheten med DiSE är att kombinera effektiviteten av statiska analystekniker för att beräkna programskillnad information med precisionen av symboliskt utförande för att utforska programutförande vägar och generera sökvägar som påverkas av skillnaderna. DiSE är en kompletterande teknik till andra reduktions- eller begränsningstekniker som utvecklats för att förbättra symboliskt utförande. Dessutom kräver DiSE inte analysresultat som ska föras vidare eftersom programvaran endast utvecklar källkoden för två relaterade programversioner krävs. En fallstudie av vårt genomförande av DiSE illustrerar dess effektivitet när det gäller att upptäcka och karakterisera effekterna av programändringar.
Riktad inkrementell symbolisk exekvering REF är en relaterad teknik som förbättrar eektiviteten i symboliskt utförande när man måste analysera endast skillnaderna mellan två programversioner.
53,245,966
Directed incremental symbolic execution
{'venue': "PLDI '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,511
Detta papper presenterar en morfologisk lexicon för engelska som hanterar mer än 317000 böjda former som härrör från över 90000 stammar. Lexikonet finns i två format. Den första kan användas av en implementering av en två-nivå processor för morfologisk analys (Karttunen och Wittenhurg, 1983; Antworth, 1990). Den andra, härledd från den första av effektivitet skäl, består av en disk-baserad databas med hjälp av en UNIX hash bord anläggning (Seltzer och Yigit, 1991). Vi byggde också ett X Window-verktyg för att underlätta underhåll och surfning av lexikonet. Paketet är redo att integreras i ett naturligt språkprogram såsom en parser genom krokar skrivna i Lisp och C. Enligt vår kunskap är detta paket den enda tillgängliga fria engelska morfologiska analysatorn med mycket bred täckning. Egenskaper. För att förbättra prestandan använde vi PC-KIMMO som generator på våra lexikon för att bygga en diskbaserad hashed databas med en UNIX databasanläggning (Seltzer och Yigit, 1991). Båda formaten, PC-KIMMO och databasen, finns nu tillgängliga för distribution. Vi tillhandahåller också ett X Window-verktyg för databasen för att underlätta underhåll och åtkomst. Varje format innehåller morfologisk information för över 317000 engelska ord. Den morfologiska databasen för engelska körs under UNIX; PC-KIMMO körs under UNIX och på en PC. Detta paket kan enkelt inbäddas i en naturlig språktolk; krokar för att komma åt den morfologiska databasen från en parser tillhandahålls för både Lucid Common Lisp och C. Denna morfologiska databas används för närvarande i en grafisk arbetsbänk (XTAG) för utveckling av trädadjoining grammatiker och deras parsers (Paroubek et al., 1992).
Både morfologiska och syntaktiska databaser finns tillgängliga separat.
5,480,885
A Freely Available Wide Coverage Morphological Analyzer For English
{'venue': 'International Conference On Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,512
Vi anser att kodsystem för beräkningsbegränsade kanaler, som kan införa en godtycklig uppsättning fel så länge som (a) andelen fel begränsas med stor sannolikhet av en parameter p och (b) processen som lägger till felen kan beskrivas med en tillräckligt "enkel" krets. Koder för sådana kanalmodeller är attraktiva eftersom de, liksom koder för vanliga kontradiktoriska fel, kan hantera kanaler vars verkliga beteende är okänt eller varierar med tiden. För två kategorier av kanaler, ger vi explicit, effektivt encodable/decodable koder för optimal hastighet där endast ineffektivt decodable koder tidigare var kända. I varje fall tillhandahåller vi en kodare/dekoder som fungerar för varje kanal i klassen. Kodarna är randomiserade, och sannolikheterna tas över (lokala, okända för dekoder) mynt av kodaren och de i kanalen. Unik avkodning för additiva fel: Vi ger den första konstruktionen av en polynom-tid kodbar/decodable kod för additiv (alias. omedvetna) kanaler som uppnår Shannonkapaciteten 1 − H( p). Dessa är kanaler som lägger till en godtycklig felvektor e 0, 1} N av vikt som mest pN till det överförda ordet; vektorn e kan bero på koden men inte på slumpmässigheten i kodaren eller det särskilda överförda ordet. Sådana kanaler fånga binära symmetriska fel och bristning fel som specialfall. Lista avkodning för polynom-tid kanaler: För varje konstant c > 0, vi konstruera koder med optimal hastighet (arbitrerat nära 1 − H (p)) som effektivt återställa en kort lista som innehåller rätt meddelande med hög sannolikhet för kanaler som kan beskrivas av kretsar av storlek som mest N c. Vår konstruktion är inte helt explicit utan snarare Monte Carlo (vi ger en algoritm som, med hög sannolikhet, producerar en kodare / dekoder par som fungerar för all tid N c kanaler). Vi känner inte till några andra kanalmodeller i informationsteorins litteratur än rent kontradiktoriska kanaler, som kräver mer än linjära kretsar för att implementera. Vi motiverar avkopplingen för att lista avkodning med ett omöjligt resultat som visar att, i ett stort antal parametrar (p > 1/4), koder som är unikt decodable för en blygsam klass av kanaler (online, minneslösa, icke-uniforma kanaler) inte kan ha positiv hastighet. V. Guruswami och A. Smith effektiv (dvs. polynom-tid encodable och decodable) binära koder för lista avkodning med nära optimal hastighet är ett stort öppet problem. 1 Därför är vårt mål att utnyttja de beräkningsbegränsningar på kanalen för att få effektivt lista-decodable koder. Beräknat avgränsade kanaler. Vi anser kanaler vars beteende på Nbit ingångar beskrivs av en krets av storlek T(N) (till exempel T(N) = O(N 2 )). Ibland kallar vi detta den tidsbundna modellen och hänvisar till T(·) som en tidsbunden. Vi känner inte till några kanalmodeller som beaktas i informationsteorins litteratur förutom rent kontradiktoriska kanaler, som kräver mer än linjär tid att genomföra. Vi diskuterar också (online) rymdbundna kanaler; dessa kanaler gör ett enda pass över det överförda kodordet, bestämma vilka platser att korrumpera när de går, och är begränsade till att lagra högst S(N) bitar (dvs, de kan beskrivas av en-pass grenning program med bredd högst 2 S(N) ). Logaritmiska rymdkanaler, i synnerhet, kan realiseras av polynom-storlek kretsar. Lista avkodning för polynom-tid kanaler. Vårt huvudsakliga bidrag för tidsbundna kanaler är en konstruktion av polynom-tid encodable och lista-decodable koder som närmar sig den optimala hastigheten för kanaler vars tidsbundna är ett polynom i blocklängd N. Specifikt ger vi en effektivt beräkningsbar kodning funktion, Enc, som stochastically kodar meddelandet m i Enc(m; r), där r är privat slumpmässig vald vid kodaren, så att för varje meddelande m och tid N c - bundna kanal W, dekoder tar W (Enc(m; r) som ingång och returnerar en liten lista över meddelanden som, med hög sannolikhet över r och mynt i kanalen, innehåller det verkliga meddelandet m. Storleken på listan är polynomial i 1/ε, där N(1 - H( p) − ε) är längden på de överförda meddelandena. Vi betonar att dekoder inte vet valet av slumpmässiga bitar r som görs vid kodaren. Konstruktionen av vår kodningsfunktion Enc(·, ·) är Monte Carlo-vi ger en randomiserad algoritm som med stor sannolikhet producerar en kodare/dekoderpar Enc/Dec kommunicerar tillförlitligt över alla tids-N c-bundna kanaler (Definition 3.3). Den randomiserade konstruktionen är polynom tid, och den resulterande funktionen Enc (m; r) kan beräknas från m, r i deterministisk polynom tid. Vi vet dock inte hur vi effektivt kan kontrollera och intyga att en viss kodare Enc har de påstådda egenskaperna. Att få till stånd helt explicita konstruktioner är fortfarande ett spännande öppet problem. När det gäller polynom-tidsbegränsade kanaler förefaller det osannolikt att man kan lösa problemet utan ytterligare komplexa antaganden (t.ex. förekomsten av vissa pseudorandomgeneratorer). När det gäller online logspace-bundet kanal, kan det vara möjligt att få helt explicita konstruktioner utan komplexa antaganden (med t.ex. Nisan pseudorandom generatorer för logspace). Vi kommer att utveckla denna aspekt i avsnitt 9. En teknikalitet är att dekoder inte behöver returnera alla ord inom ett avstånd pN av det mottagna ordet (som är fallet för standard "kombinatoriska" begreppet lista avkodning), men det måste returnera rätt meddelande som en av kandidaterna med hög sannolikhet. Detta begrepp om listavkodning är naturligt för stokastiska koder i kommunikationsapplikationer. I själva verket är det exakt det begrepp som behövs i konstruktioner som "sieve" listan, såsom i Guruswami [2003] och Micali et al. [2005] och en tillämpning av våra resultat är en unik decodable kod för den offentliga nyckelmodellen (förutsatt en specifik polynom-tid bunden), stärka resultaten av Micali et al. Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. Se diskussionen om det relaterade arbetet i avsnitt 2 för en mer exakt redogörelse. För både additiva och tidsbundna modeller kräver våra konstruktioner nya metoder för att applicera verktyg från kryptografi och derandomisering till kodning-teoretiska problem. Vi ger en kort diskussion på hög nivå om dessa tekniker nästa gång. En utökad översikt över tillvägagångssättet bakom vår kodkonstruktion visas i Avsnitt 6. 1 Över stora alfabet, explicit optimal hastighet lista-decodable koder är kända. Konstruktion av styr/payload. I våra konstruktioner utvecklar vi flera nya tekniker. Den första är en ny "minskning" från standardkodning inställning utan inställning till inställningen av delad hemlig slumpmässighet. I modeller där fel fördelas jämnt är en sådan minskning relativt enkel [Ahlswede 1978], men denna minskning misslyckas mot kontradiktoriska fel. Istället visar vi hur man döljer den hemliga slumpmässigheten (kontrollinformationen) inuti huvudkodordet (lasten) på ett sådant sätt att dekodern kan lära sig kontrollinformationen, men (a) kontrollinformationen förblir dold för en avgränsad kanal och (b) dess kodning är robust för en viss, svagare klass av fel. Vi anser att denna teknik bör vara användbar i andra miljöer av avgränsat kontradiktoriskt beteende. Vår minskning kan också ses som ett nytt sätt att bootstrappa från "små" koder, som kan avkodas av brute force, till "stora" koder, som kan avkodas effektivt. Det vanliga sättet att göra detta är genom konkatering; tyvärr fungerar konkatering inte ens bra mot lätt oförutsägbara modeller, såsom additiva felmodellen. För det andra utvecklar våra resultat ytterligare en överraskande koppling mellan kodning och pseudorandomness. Att gömma "kontrollinformationen" från kanalen kräver att vi gör olika inställningar av kontrollinformationen oskiljbara från kanalens synvinkel. Således våra bevis tillämpa tekniker från kryptografi tillsammans med konstruktioner av pseudorandom objekt (generatorer, permutationer, och samplorer) från derandomization. Vanligtvis är de "test" som måste luras kompositioner av kanalen (som vi antar har låg komplexitet) med någon subrutin av dekoder (som vi designar för att ha låg komplexitet). Kopplingen till pseudorandomness visade sig i en enklare form i det tidigare arbetet med avgränsade kanaler [Lipton 1994; Galil et al. 1995; Micali m.fl. 2005] ; vår användning av denna förbindelse är betydligt mer känslig. De nödvändiga pseudorandom permutationer och provtagare kan uttryckligen konstrueras, och konstruktionen av de nödvändiga komplexitet-teoretiska pseudorandom generatorer är där vi använder slumpmässighet i vår konstruktion. För additiva fel räcker informationsteoretiska objekt som vi kan konstruera deterministiskt effektivt (t.ex. t-wise-oberoende strängar) och vi får en helt explicit konstruktion. Det finns flera arbetslinjer som syftar till att hantera kontradiktoriska, eller delvis kontradiktoriska, fel med hastigheter nära Shannon kapacitet. Vi kartlägger dem kortfattat här och lyfter fram relationen till våra resultat. Avkodning av lista. Lista avkodning infördes i slutet av 1950-talet [Elias 1957; Wozencraft 1958] och har bevittnat en hel del senaste algoritmiska arbete (jfr. undersökningen [Guruswami 2007] ). Under listan avkodning, dekoder utdata en liten lista över meddelanden som måste innehålla rätt meddelande. Slumpmässiga kodning argument visar att det finns binära koder för hastighet 1 − H( p) − ε som kan tolerera pN adversarial fel om dekoder får skriva ut en lista över storlek O( 1/ε) [Elias 1991; Zyablov och Pinsker 1982; Guruswami et al. År 2002]............................................................... Den explicita konstruktionen av binära list-decodable koder med hastighet nära 1 − H ( p), är dock fortfarande en stor öppen fråga. Vi tillhandahåller sådana koder för det speciella fall av korruption som införts av rymd- eller tidsbundna kanaler. Lägger till inställningsdelad slumpmässighet. En annan avkoppling är att tillåta randomiserade kodningsstrategier där avsändaren och mottagaren delar "hemlig" slumpmässighet, gömd från kanalen, som används för att välja en viss, deterministisk kod slumpmässigt från en familj av koder. Sådana randomiserade strategier kallades privata koder i Langberg [2004]. Med hjälp av denna hemliga delade slumpmässighet, kan man överföra med hastigheter som närmar sig
Explicit koder för hastighet närmar sig 1 − h (p) för att korrigera pn glömska bit flips (i betydelsen Theorem 1.1, med randomiserad kodning) gavs i REF.
274,682
Optimal Rate Code Constructions for Computationally Simple Channels
{'venue': 'JACM', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
8,513
Sammanfattning Att rapportera vanliga trafiköverträdelser hos busschaufförer och de faktorer som påverkar dessa brott i urbana Kina. Vi genomförde en observationsstudie för att registrera tre typer av trafiköverträdelser bland bussförare i Changsha City, Kina: olagliga stopp på busstationer, kränker trafikljussignaler, och distraherad körning. Busschaufförernas beteende på 32 rutter (20 % av busslinjerna i staden) observerades. En två-nivå Poisson regression undersökte faktorer som förutspådde busschaufför överträdelser. Antalet olagliga stopp på busstationer var 20,2 %. Olagligt stopp var mindre vanligt på helger, soliga dagar, och på stationer med kameror, med justerade incidens ratio (IRR) på 0,81, 0,65 respektive 0,89. Incidensen av att bryta trafikljussignaler var 2,2%, och var lägre på molniga än soliga dagar (justerad IRR: 0,60). Förekomsten av distraherad körning var 3,3%. Förekomsten av distraherad körning var mindre vanlig under molniga dagar, regniga eller snöiga dagar, och dimiga/blåsiga/dusty dagar jämfört med soliga dagar, med justerade IRR:er på 0,54, 0,55 respektive 0,07. Trafiköverträdelser är vanliga hos bussförare i urbana Kina och de är förknippade med datum, väder och närvaro av trafikkameror på busstationen. Ytterligare studier rekommenderas för att förstå beteendemekanismer som kan förklara busschaufförens överträdelser och för att utveckla genomförbara förebyggande åtgärder.
Qiqi m.fl. REF visar att trafiköverträdelser bland bussförare är förknippade med datum, väder och närvaro av trafikkameror på busstationer.
18,488,756
Common Traffic Violations of Bus Drivers in Urban China: An Observational Study
{'venue': 'PLoS ONE', 'journal': 'PLoS ONE', 'mag_field_of_study': ['Geography', 'Medicine']}
8,514
Den stora populariteten av Android-system har åtföljts av ett ökat antal malware riktade dessa system. Detta beror till stor del på den öppna karaktären av Android-ramverket som underlättar införlivandet av tredje part program som körs ovanpå någon Android-enhet. Inter-process kommunikation är en av de mest anmärkningsvärda funktionerna i Android-ramverket eftersom det gör det möjligt att återanvända komponenter över processgränser. Denna mekanism används som gateway för att få tillgång till olika känsliga tjänster i Android-ramverket. I Android-plattformen, är detta kommunikationssystem oftast drivs av en sen körtid bindande meddelande objekt som kallas Intent. I detta dokument utvärderar vi effektiviteten av Android Intents (explicit och implicit) som en särskiljande funktion för att identifiera skadliga program. Vi visar att Intendents är semantiskt rika funktioner som kan koda avsikterna med malware jämfört med andra välstuderade funktioner såsom behörigheter. Vi hävdar också att denna typ av funktion inte är den ultimata lösningen. Det ska användas tillsammans med andra kända egenskaper. Vi utförde experiment med hjälp av ett dataset med 7 406 applikationer som omfattar 1 846 rena och 5,560 infekterade applikationer. Resultaten visar detektionsfrekvens på 91% med Android Intent mot 83% med Android-tillstånd. Dessutom resulterar experiment på kombination av båda funktionerna i detektionsfrekvens på 95,5%.
Feizollah m.fl. REF utvärderade effektiviteten hos Android Intents (explicit och implicit) för att identifiera skadliga appar.
33,604,662
AndroDialysis: Analysis of Android Intent Effectiveness in Malware Detection
{'venue': 'Comput. Secur.', 'journal': 'Comput. Secur.', 'mag_field_of_study': ['Computer Science']}
8,515
Omstart av kontrollpunkten spelar en viktig roll i högpresterande datorprogram (HPC), vilket gör det möjligt för simuleringen att sträcka sig längre än till en enda jobbfördelning och underlätta återhämtning från maskinvarufel. Men i takt med att maskinerna växer i storlek och komplexitet blir traditionella metoder för omstart av kontrollpunkter oöverkomliga. Nuvarande metoder lagrar en delmängd av applikationens tillstånd och utnyttjar minneshierarkin i maskinen. I takt med att energikostnaden för datarörelser fortsätter att dominera krävs dock ytterligare minskningar av kontrollpunkternas storlek. Förlustkompression, som avsevärt kan minska kontrollpunktens storlek, erbjuder en potential att minska beräkningskostnaden vid omstart av kontrollpunkten. I denna artikel undersöks användningen av numeriska egenskaper hos partiell differentialekvation (PDE) simuleringar, såsom gränser på trunkeringsfelet, för att utvärdera möjligheten att använda förlustkompression vid kontroll av PDE-simuleringar. Starta om från en kontrollpunkt med förlustkompression anses för ett fel-stopp fel i två tidsberoende HPC-programkoder: PlasComCM och Nek5000. Resultaten visar att fel i applikationsvariabler på grund av en omstart från en förlorad komprimerad kontrollpunkt kan maskeras av det numeriska felet i diskretiseringen, vilket leder till ökad effektivitet vid omstart av kontrollpunkten utan att påverka den totala noggrannheten i simuleringen.
Calhoun m.fl. REF verifierade möjligheten att använda förlustkompression vid kontroll av två specifika PDE-simuleringar experimentellt.
57,520,519
Exploring the feasibility of lossy compression for PDE simulations
{'venue': None, 'journal': 'The International Journal of High Performance Computing Applications', 'mag_field_of_study': ['Computer Science']}
8,516
Att lära sig gå över en graf mot en målnod för en given fråga och en källnod är ett viktigt problem i tillämpningar som kunskapsbaskomplettering (KBC). Det kan formuleras som en förstärkning lärande (RL) problem med en känd stat övergångsmodell. För att övervinna utmaningen med glesa belöningar, utvecklar vi en graf-walking agent som kallas M-Walk, som består av en djup återkommande neurala nätverk (RNN) och Monte Carlo Tree Search (MCTS). RNN kodar tillståndet (dvs. historien om den gångna vägen) och kartlägger det separat till en policy och Q-värden. För att effektivt träna agenten från glesa belöningar kombinerar vi MCTS med den neurala politiken för att generera banor som ger mer positiva belöningar. Av dessa banor förbättras nätverket på ett icke-politiskt sätt med hjälp av Q-learning, vilket ändrar RNN-policyn genom parameterdelning. Vår föreslagna RL-algoritm tillämpar upprepade gånger detta policyförbättringssteg för att lära sig modellen. Vid testtillfället kombineras MCTS med neuralpolitiken för att förutsäga målnoden. Experimentella resultat på flera graf-walking riktmärken visar att M-Walk kan lära sig bättre politik än andra RL-baserade metoder, som huvudsakligen bygger på policy gradienter. M-Walk överträffar också traditionella KBC-baslinjer.
REF använder Monte Carlo Tree Search för att övervinna problemet med sparsam belöning.
53,146,473
M-Walk: Learning to Walk over Graphs using Monte Carlo Tree Search
{'venue': 'NeurIPS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,517
Vi studerar robusta och effektiva distribuerade algoritmer för sökning, lagring och underhåll av data i dynamiska Peer-to-Peer-nätverk (P2P). P2P-nätverk är mycket dynamiska nätverk som upplever tung nod churn (dvs., noder gå med och lämna nätverket kontinuerligt över tid). Vårt mål är att garantera, trots hög nod churn hastighet, att ett stort antal noder i nätverket kan lagra, hämta och underhålla ett stort antal dataobjekt. Våra huvudsakliga bidrag är snabbt randomiserade distribuerade algoritmer som garanterar ovanstående med hög sannolikhet även under hög kontraarial churn. Vi presenterar framför allt följande huvudresultat: 1. En randomiserad distribuerad sökalgoritm som med hög sannolikhet garanterar att sökningar från så många som n=o(n) noder (n är den stabila nätverksstorleken) lyckas i O(log n)- rundor trots O(n/ log 1+δ n) churn, för alla små konstant δ > 0, per runda. Vi antar att churn kontrolleras av en omedveten motståndare (som har fullständig kunskap och kontroll av vad noder går * G. Pandurangan är också ansluten till Institutionen. för datavetenskap, Brown University Providence, RI 02912, USA. Forskning som delvis stöds av följande bidrag: Nanyang Technological University bidrag M58110000, Singapore Ministry of Education (MOE) Academic Research Fund (AcRF) Tier 2 bidrag MOE2010-T2-2-082, och ett bidrag från USIsrael Binational Science Foundation (BSF). † Forskning som delvis stöds av följande bidrag: Nanyang Technological University stipendiat M58110000, Singapore Ministry of Education (MOE) Academic Research Fund (AcRF) Tier 2 stipendiat MOE2010-T2-2-082 ∂ Arbete som delvis stöds av NSF Award IIS-1247581. och lämna och vid vilken tid och har obegränsad beräkningskraft, men är omedveten om de slumpmässiga val som görs av algoritmen). 2. Utgångspunkten är följande: En lagrings- och underhållsalgoritm som garanterar, med hög sannolikhet, dataobjekt kan lagras effektivt (med endast till (log n) kopior av varje dataobjekt) och underhållas i ett dynamiskt P2P- nätverk med churnhastighet upp till O(n/ log 1+δ n) per runda. Vår sökalgoritm tillsammans med vår lagrings- och underhållsalgoritm garanterar att så många som n − o(n) noder effektivt kan lagra, underhålla och söka även under O(n/ log 1+δ n) churn per runda. Våra algoritmer kräver att endast polylogaritmiska i n bitar bearbetas och skickas (per runda) av varje nod. Såvitt vi vet är våra algoritmer de första kända, fullt distribuerade lagrings- och sökalgoritmer som på ett tillfredsställande sätt fungerar under mycket dynamiska inställningar (dvs. höga churnhastigheter per steg). Dessutom är de lokaliserade (dvs. inte kräver någon global topologisk kunskap) och skalbara. Ett tekniskt bidrag av detta dokument, som kan vara av oberoende intresse, visar hur slumpmässiga promenader kan användas för att härleda skalbara distribuerade algoritmer i dynamiska nätverk med adversarial node churn.
Vi visade också i REF att vi kan lagra och hämta ett dataobjekt trots nära linjärt antal noder (dvs upp till O(n/polylog(n) noder) churn i varje omgång.
1,120,964
Storage and search in dynamic peer-to-peer networks
{'venue': "SPAA '13", 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,518
Vi presenterar ett dataset för att utvärdera grammatiken i förutsägelserna i en språkmodell. Vi konstruerar automatiskt ett stort antal minimalt olika par engelska meningar, var och en bestående av en grammatisk och en ogrammatisk mening. De mening par representerar olika variationer av struktur-känsliga fenomen: subjekt-verb överenskommelse, reflexiva anaphora och negativ polaritet poster. Vi förväntar oss att en språkmodell tilldelar en högre sannolikhet till den grammatiska meningen än den ogrammatiska. I ett experiment med denna datauppsättning fungerade en LSTM språkmodell dåligt på många av konstruktionerna. Multi-task utbildning med ett syntaktiskt mål (CCG supertagging) förbättrade LSTM: s noggrannhet, men ett stort gap kvar mellan dess prestanda och noggrannheten hos mänskliga deltagare rekryterade online. Detta tyder på att det finns stort utrymme för förbättringar jämfört med LSTM när det gäller att fånga syntax i en språkmodell.
I REF görs en bedömning av grammatiken hos preutbildade språkmodeller.
52,113,185
Targeted Syntactic Evaluation of Language Models
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
8,519
....................................... Två virtuella miljöer baserade på layouten av ett riktigt rum (mitten): en medeltida innergård (vänster) och bron av ett rymdskepp (höger). I dessa Substitutionella miljöer paras varje fysiskt objekt, med någon grad av diskrepans, till ett kontextuellt lämpligt virtuellt objekt. Att uppleva virtuell verklighet i inhemska och andra okoncentrerade miljöer är utmanande på grund av närvaron av fysiska objekt och möbler som vanligtvis inte definieras i den virtuella miljön. För att ta itu med denna utmaning utforskar vi begreppet Substitutionell verklighet i samband med den virtuella verkligheten: en klass av virtuella miljöer där varje fysiskt objekt som omger en användare paras ihop, med viss grad av diskrepans, med en virtuell motsvarighet. Vi presenterar en modell av poten tial substitutioner och validerar den i två användarstudier. I den första studien undersökte vi faktorer som påverkar deltagarnas bevarande av misstro och användarvänlighet. Vi ändrade systematiskt den virtuella representationen av ett fysiskt objekt och spelade in svar från 20 deltagare. I den andra studien undersöktes användarnas engagemangsnivåer som den fysiska proxyn för ett virtuellt objekt varierade. Utifrån resultaten får vi en uppsättning riktlinjer för utformningen av framtida Substitutionella verklighetsupplevelser.
I samband med Virtual Reality, Substitutional Reality hänvisar till en klass av virtuella miljöer där varje fysiskt objekt som omger användaren har parats till ett virtuellt objekt, förutsatt att en missmatchning finns mellan de två REF.
3,338,899
Substitutional Reality: Using the Physical Environment to Design Virtual Reality Experiences
{'venue': None, 'journal': 'Proceedings of the 33rd Annual ACM Conference on Human Factors in Computing Systems', 'mag_field_of_study': ['Computer Science']}
8,520
Vi anser att neurala nätverk med ett enda dolt lager och icke-minska homogen aktiveringsfunktioner som de rektifierade linjära enheterna. Genom att låta antalet dolda enheter växa fritt och med hjälp av klassiska icke-Euklidiska legaliseringsverktyg på utgångsvikterna, ger vi en detaljerad teoretisk analys av deras generalisering prestanda, med en studie av både approximation och skattningsfel. Vi visar särskilt att de är anpassningsbara till okända underliggande linjära strukturer, såsom beroendet av projiceringen av indatavariablerna på en lågdimensionell subrymd. Dessutom, när vi använder sparty-inducerande normer på ingångsvikterna, visar vi att högdimensionella icke-linjära variabla val kan uppnås, utan några starka antaganden om data och med ett totalt antal variabler potentiellt exponentiellt i antalet observationer. Dessutom ger vi en enkel geometrisk tolkning av det icke-konvexa problemet med tillägg av en ny enhet, vilket är kärnan i potentiellt svåra beräkningselement inom ramen för lärande från kontinuerligt många basfunktioner. Vi tillhandahåller enkla villkor för konvexa avkopplingar för att uppnå samma generalisering felgränser, även när approximationer med konstant faktor inte kan hittas (t.ex., eftersom det är NP-hård som för noll-homogen aktiveringsfunktion). Vi kunde inte hitta tillräckligt starka konvexa avkopplingar och lämna öppen existensen eller icke-existensen av polynom-tidsalgoritmer.
I REF, författaren anser ett enda-dolt lager neurala nätverk med affine transformerar och homogena funktioner som verkar på vektoriska data.
1,474,026
Breaking the Curse of Dimensionality with Convex Neural Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
8,521
Abstract-IEEE 802.11p och 1609 standarder håller för närvarande på att utvecklas för att stödja kommunikation mellan fordon och fordon till infrastruktur i fordonsnätverk. För infrastrukturbaserade fordonsbaserade relänät är accesssannolikheten en viktig åtgärd som anger hur väl ett godtyckligt fordon kan få tillgång till infrastrukturen, dvs. en basstation (BS). Å andra sidan, konnektivitetsannolikhet, dvs. Sannolikheten för att alla fordon är anslutna till infrastrukturen, anger prestandan för servicetäckningen för ett fordonsrelänät. I detta dokument utvecklar vi en analytisk modell med en generisk radiokanalmodell för att fullt ut karakterisera åtkomstsannolikheten och konnektivitetsannolikheten i ett fordons relänät med beaktande av både en-hop (direkt access) och två-hop (via ett relä) kommunikation mellan ett fordon och infrastrukturen. Speciellt härleder vi närformiga ekvationer för att beräkna dessa två sannolikheter. Våra analysresultat, validerade av simuleringar, avslöjar kompromisser mellan centrala systemparametrar, såsom inter-BS avstånd, fordonstäthet, överföringsintervall för en BS och ett fordon, och deras kollektiva inverkan på tillträdesannolikhet och konnektivitetsannolikhet under olika kommunikationskanalmodeller. Dessa resultat och ny kunskap om fordonsbaserade relänät kommer att göra det möjligt för nätverksdesigners och operatörer att effektivt förbättra nätplanering, utbyggnad och resursförvaltning. Index Terms-Vehicular Ad Hoc Network (VANET), Wireless Access in Vehicle Environments (Wave), IEEE 802.11p, IEEE 1609, accesssannolikhet, anslutning, relä.
Ng et al. REF utvecklade en analytisk modell för att fullt ut karakterisera sannolikheten för tillträde och sannolikheten för anslutning i ett fordonsrelänät.
2,725,005
Analysis of Access and Connectivity Probabilities in Vehicular Relay Networks
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']}
8,522
ABSTRACT Som en viktig del av dagens vanliga datorsystem är GPU inte bara kraftfulla grafikmotorer utan också mycket parallella programmerbara processorer. Samarbete mellan processorer och GPU krävs för att uppnå hög datorprestanda i heterogena system med multi-CPU och multi-GPU. Det är utmanande att utveckla nya parallella algoritmer på heterogena arkitekturer med flera processorer och flera GPU-processorer för t.ex. kommunikation, lastbalansering, minnesutrymmen och synkronisering Vi presenterar en parallell Cholesky block factorization algoritm för heterogen multi-CPU och multi-GPU arkitekturer. Först, en matris är partitionerad i olika stora block baserat på med prestanda för CPU och GPU. Därefter används en endimensionell block-cyklisk distributionsstrategi för att allokera radblocksdata till varje CPU och GPU för att minimera kommunikationen. Datoruppgiften relaterad till det bestämda radblocket kommer sedan att utföras av motsvarande CPU eller GPU. Experiment på ett system med två processorer och åtta GPU:er visar god lastbalansering, parallellism, kommunikationskostnader och skalbarhet.
En radblock cyklisk distribution Cholesky factorization algoritm beskrevs i REF för heterogena multipla processorer och flera GPUs arkitekturer.
4,564,302
A Heterogeneous Parallel Cholesky Block Factorization Algorithm
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
8,523
Abstrakt. Vi föreslår en ny subgradientmetod för minimering av icke-smooth konvexa funktioner över ett konvext set. För att påskynda beräkningarna använder vi adaptiva ungefärliga projektioner som endast kräver att vi rör oss inom ett visst avstånd från de exakta projektionerna (som minskar under algoritmens gång). Framför allt kan iteraterna i vår metod vara ogenomförbara under hela förfarandet. Vi tillhandahåller dock villkor som säkerställer konvergens till en optimal genomförbar punkt enligt lämpliga antaganden. Ett konvergensresultat handlar om stegstorlekssekvenser som är fasta a priori. Två andra resultat hanterar dynamiska stegstorlekar av polyaktyp beroende på en lägre eller övre uppskattning av det optimala funktionsvärdet. Dessutom skissar vi kortfattat två tillämpningar: Optimering med konvexa slumpbegränsningar, och att hitta den minsta 1-normlösningen till ett underdefinierat linjärt system, ett viktigt problem i Komprimerad Sensing.
I REF, de inexakta prognoser antas, men dessa prognoser kräver närmar sig den exakta under loppet av algoritmen.
15,700,005
An Infeasible-Point Subgradient Method Using Adaptive Approximate Projections
{'venue': None, 'journal': 'arXiv: Optimization and Control', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
8,524
Falska antivirusprogram (AV) har använts för att lura miljontals datoranvändare till att betala så mycket som hundra dollar för en falsk programvarulicens. Som ett resultat, falska AV programvara har utvecklats till en av de mest lukrativa kriminella operationer på Internet. I detta dokument undersöker vi verksamheten i tre storskaliga falska AV-företag, som varar från tre månader till mer än två år. Mer exakt, Vi presenterar resultaten av vår analys på en trove av data som erhållits från flera backend servrar som cyberbrottslingar använde för att driva sin bluff verksamhet. Våra undersökningar visar att dessa tre falska AV företag hade tjänat en sammanlagd intäkter på mer än $ 130 miljoner dollar. En särskild fokusering på vår analys är de finansiella och ekonomiska aspekterna av bedrägeriet, som omfattar legitima kreditkortsnätverk samt mer tvivelaktiga betalningsprocessorer. I synnerhet presenterar vi en ekonomisk modell som visar att falska AV-företag aktivt övervakar återbetalningar (chargebacks) som kunderna kräver från sina kreditkortsleverantörer. När antalet återbetalningar ökar med ett kort intervall reagerar de falska AV-företagen på kundklagomål genom att bevilja fler återbetalningar. Detta sänker återbetalningsgraden och säkerställer att ett falskt AV-företag kan fortsätta sin verksamhet under en längre tid. Men detta beteende leder också till ovanliga mönster i chargebacks, som potentiellt kan utnyttjas av vaksamma betalningsprocessorer och kreditkortsföretag för att identifiera och förbjuda bedrägliga företag.
Sten-Gross et al. REF uppskattade att kombinationen av endast tre falska antivirus företag genererade en inkomst på cirka $ 130 miljoner dollar.
1,184,596
The Underground Economy of Fake Antivirus Software
{'venue': 'WEIS', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Business']}
8,525
Metoderna för att lindra problemet med statsexplosion vid modellkontroll kan grovt klassificeras i symboliska metoder och abstraktionsmetoder [6]. Med symboliska metoder förstår vi användningen av koncisa datastrukturer och symboliska algoritmer som hjälper till att hålla tillståndsexplosion under kontroll genom att komprimera information, t.ex. med binära beslutsscheman eller effektiva SAT-förfaranden. Abstraction metoder i kontrast försöker minska storleken på tillståndet utrymme genom att använda kunskap om systemet och specifikationen för att modellera endast relevanta funktioner i Kripke struktur. En abstraktionsfunktion associerar en Kripke struktur à med en abstrakt Kripke struktur à sådan att två egenskaper innehar: Bevarande. à bevarar alla beteenden i Ã. Bevarande säkerställer att varje universell specifikation som är sant i à är också sant i Ã. Den motsatta innebörden kommer dock inte att hålla i allmänhet: en universell egendom som är falsk i Ö kan fortfarande vara sant i Ö. I detta fall kan det motexempel som erhållits över Ö inte rekonstrueras för betong Kripke struktur Ã, och kallas en falsk motexempel [10], eller en falsk negativ. Ett viktigt exempel på abstraktion är existentiell abstraktion [11] där de abstrakta staterna i huvudsak betraktas som likvärdiga klasser av konkreta stater; en övergång mellan två abstrakta stater äger rum om det sker en övergång mellan två konkreta medlemsstater i motsvarande ekvivalensklasser. I vissa fall kommer användarkunskapen om systemet att vara tillräcklig för att möjliggöra manuell bestämning av en god abstraktionsfunktion. I allmänhet, dock, att hitta abstraktion funktioner ger upphov till följande dikotomi: Om à är för liten, då falska motexempel är sannolikt att uppstå. Om à är för stor, då verifiering förblir ogenomförbar. Counterexample-Guided Abstraction Raffinement (CEGAR) är ett naturligt tillvägagångssätt för att lösa denna situation genom att använda en adaptiv algoritm som gradvis förbättrar en abstraktion funktion genom att analysera falska kontraexempel. (i) Inledande. Skapa en initial abstraktionsfunktion. ii) Förlagakontroll. Verifiera den abstrakta modellen. Om verifieringen lyckas är specifikationen korrekt, och algoritmen avslutas framgångsrikt. Annars kan man skapa ett motexempel på den abstrakta modellen. iii) Sanitetskontroll. Bestäm, om det abstrakta motexempelet är falskt. Om ett konkret motexempel
Motexempel-Guided Abstraction Raffination (CEGAR) REF är en metod för att automatisera abstraktion förfiningsprocessen.
9,192,961
Counterexample-guided abstraction refinement
{'venue': 'In Computer Aided Verification', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,526
Neurala nätverk uppvisar bra generalisering beteende i överparameterized regim, där antalet nätverksparametrar överstiger antalet observationer. Inte desto mindre, nuvarande generalisering gränser för neurala nätverk misslyckas med att förklara detta fenomen. I ett försök att överbrygga detta gap studerar vi problemet med att lära sig ett överparameteriserat neuralt nätverk i två lager, när data genereras av en linjärt separerbar funktion. I det fall där nätverket har Leaky ReLU-aktiveringar ger vi både optimerings- och generaliseringsgarantier för överparameteriserade nätverk. I synnerhet bevisar vi konvergensnivåerna för SGD till ett globalt minimum och ger allmänna garantier för detta globala minimum som är oberoende av nätstorleken. Därför visar vårt resultat tydligt att användningen av SGD för optimering både finner ett globalt minimum, och undviker övermontering trots modellens höga kapacitet. Detta är den första teoretiska demonstrationen att SGD kan undvika överbemanning, när man lär sig överspecificerade neurala nätverk klassificerare.
REF ger både optimerings- och generaliseringsgarantier för SGD-lösningen för överparameteriserade tvålagersnät med tanke på att datan är linjärt åtskiljbar.
30,745,030
SGD Learns Over-parameterized Networks that Provably Generalize on Linearly Separable Data
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
8,527
Automatisk falska nyheter upptäckt är ett utmanande problem i bedrägeri upptäckt, och det har enorma verkliga politiska och sociala effekter. Statistiska metoder för att bekämpa falska nyheter har dock drastiskt begränsats av bristen på märkta referensdataset. I detta dokument presenterar vi LIAR: en ny, offentligt tillgänglig datauppsättning för falska nyheter upptäckt. Vi samlade en tioårig, 12,8K manuellt märkta korta uttalanden i olika sammanhang från POLITIFACT.COM, som ger detaljerad analysrapport och länkar till källdokument för varje fall. Denna datauppsättning kan också användas för faktakontrollerande forskning. I synnerhet är denna nya dataset en storleksordning som är större än tidigare största offentliga falska nyhetsset av liknande typ. Empiriskt undersöker vi automatisk upptäckt av falska nyheter baserat på språkliga mönster på ytnivå. Vi har designat ett nytt, hybridt konvolutionellt neuralt nätverk för att integrera metadata med text. Vi visar att detta hybrida tillvägagångssätt kan förbättra en textbaserad modell för djupt lärande.
Wang REF tillhandahöll ett nytt dataset, LIAR, bestående av 12 836 märkta korta uttalanden.
10,326,133
"Liar, Liar Pants on Fire": A New Benchmark Dataset for Fake News Detection
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
8,528
Vi beskriver klassen av konvexa konvolutionella neurala nätverk (CCNN), som fångar parametern delning av konvolutionella neurala nätverk på ett konvext sätt. Genom att representera de ickelinjära konvolutionsfiltren som vektorer i en reproducerande kärna Hilbert-utrymme, kan CNN-parametrarna representeras som en lågrankad matris, som kan slappnas av för att erhålla ett konvext optimeringsproblem. För att lära sig två-lagers konvolutionella neurala nätverk, bevisar vi att den generalisering fel som erhålls av en konvexiserad CNN konvergerar till den bästa möjliga CNN. För att lära sig djupare nätverk utbildar vi CCNN på ett lagermässigt sätt. Empiriskt, CCNNs uppnå prestanda konkurrenskraftig med CNNs tränas genom backpropagation, SVMs, fullt anslutna neurala nätverk, staplade denoiserande auto-encoders, och andra baslinjemetoder.
REF slappnar av klassen av CNN-filter till en reproducerande kärna Hilbert utrymme och bevisa generalisering fel som är bundet för avslappning.
16,216,235
Convexified Convolutional Neural Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
8,529
Tillämpningar som miljöanalys och hälso- och aktivitetsanalys stöds av nätverk av enheter (nodes) som skickar periodiska paketöverföringar över den trådlösa kanalen till en diskbänk nod. Vi tittar på enkla abstraktioner som fångar följande gemensamma egenskaper i sådana nätverk (a) noderna skickar periodiskt kännbar information som är timlig och måste levereras i rätt tid, (b) de delar en multipel access kanal och (c) kanaler mellan noderna och diskbänken är opålitliga (packets kan tas emot i fel) och skiljer sig i kvalitet. Vi anser att planerad tillgång och slitsad ALOHA-liknande slumpmässig åtkomst. Under schemalagd åtkomst, noder turas och få feedback om huruvida ett överfört paket togs emot framgångsrikt av diskhon. Under sin tur kan en nod sända mer än en gång för att motverka kanalosäkerhet. För slotted ALOHA-liknande åtkomst, varje nod försöker överföring i varje slot med en viss sannolikhet. För dessa åtkomstmekanismer härleder vi ålder av information (AoI), som är en aktualitet metriska, och anländer till förhållanden som optimerar AoI vid diskhon. Vi analyserar också fallet med symmetrisk uppdatering, där uppdateringar från olika noder måste ha samma AoI. Vi visar att ALOHA-liknande tillgång, medan enkel, leder till AoI som är värre med en faktor på ca 2e, i jämförelse med schemalagd tillgång.
Arbetet i REF anses sloted ALOHA-liknande slumpmässig åtkomst system där varje nod kommer åt kanalen med en viss access sannolikhet.
24,452,144
Status updates over unreliable multiaccess channels
{'venue': '2017 IEEE International Symposium on Information Theory (ISIT)', 'journal': '2017 IEEE International Symposium on Information Theory (ISIT)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
8,530
Abstract-I detta dokument, föreslår vi en förstärkning lärande-baserad algoritm för bana optimering för begränsade dynamiska system. Detta problem motiveras av att dynamiken kanske inte alltid är känd för de flesta robotsystem. Att skapa smidiga, dynamiskt genomförbara banor kan vara svårt för sådana system. Använda provtagningsbaserade algoritmer för rörelseplanering kan resultera i banor som är benägna att oönskade kontroll hopp. De kan dock vanligtvis ge en bra referensbana som en modellfri förstärkande inlärningsalgoritm sedan kan utnyttja genom att begränsa sökdomänen och snabbt hitta en dynamisk smidig bana. Vi använder denna idé för att träna en förstärkande lärande agent att lära sig en dynamisk smidig bana i en läroplan inlärningsmiljö. Dessutom, för generalisering, vi parameterisera politiken med mål platser, så att agenten kan tränas för flera mål samtidigt. Vi visar resultat i såväl simulerade miljöer som verkliga experiment, för en 6-DoF manipulatorarm som drivs i positionskontrollerat läge för att validera den föreslagna idén. Vi jämför de föreslagna idéerna mot en PID controller som används för att spåra en utformad bana i konfigurationsutrymme. Våra experiment visar att vår RL-agent tränad med en referensväg överträffade en modellfri PID-kontrollant av den typ som vanligen används på många robotplattformar för banspårning.
Det närmaste arbetet till vårt är REF, som lär sig en RL agent som optimerar banan för 6-DoF manipulator arm.
76,666,552
Trajectory Optimization for Unknown Constrained Systems using Reinforcement Learning
{'venue': '2019 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)', 'journal': '2019 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
8,531
I detta dokument studerar vi problemet med att minska energiförbrukningen för ett svagt hårt realtidssystem. Det svagt hårda realtidssystemet modelleras av (m, k)-spärrarna, som kräver att minst m av alla k i följd jobb av en uppgift uppfyller sina tidsfrister. Eftersom systemets energi förbrukas inte bara av processorn utan också till stor del av andra kringutrustningar, föreslår vi först ett statiskt tillvägagångssätt, med hänsyn till specifikationerna för kringutrustning, för att dela upp jobben i obligatoriska/tillvalsjobb för att uppnå de dubbla målen (m, k)-garanti och övergripande energiminimering. Baserat på det, presenterar vi en dynamisk schemaläggning algoritm som antar preemption kontrollteknik och dynamisk obligatorisk / frivillig partitionering strategi för att minska energiförbrukningen i hela systemet dynamiskt. Vår strategi kan effektivt minimera den systemomfattande energiförbrukningen och garantera (m, k)-deadlines på samma gång. Våra teknikers nyhet och effektivitet demonstreras genom omfattande simuleringsstudier.
Antagande av svagt hårt realtidssystem för energimedvetenhet har föreslagits som tillåter intermittent hoppa över ett jobb när systemet saknar energi REF.
13,253,589
Peripheral–conscious energy–efficient scheduling for weakly hard real–time systems
{'venue': 'IJES', 'journal': 'IJES', 'mag_field_of_study': ['Computer Science']}
8,532
En allmänt accepterad strategi för att lösa problem med begränsad tillfredsställelse kombinerar systematisk trädsökning med begränsningsutbredning för beskärning av sökområdet. Restriktiv förökning utförs av förökningsmaterial som tillämpar ett visst begrepp om överensstämmelse. Gränser konsekvens är metoden att välja för att bygga propagatorer för aritmetiska begränsningar och flera globala begränsningar i det finita heltal domänen. Det har dock rått en viss förvirring när det gäller definitionen av begränsningars konsekvens. I detta dokument klargör vi skillnaderna och likheterna mellan de tre allmänt använda begreppen om gränskonsistens.
Flera alternativa definitioner av begränsningar konsekvens finns i skarpa CSPs REF.
8,612,079
Finite Domain Bounds Consistency Revisited
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
8,533
Abstract-Både konfigurationen och dynamiken i ansiktsuttryck är avgörande för tolkningen av mänskligt ansiktsbeteende. Hittills har dock de allra flesta av de rapporterade ansträngningarna på fältet antingen inte tagit hänsyn till ansiktsuttryckens dynamik eller bara fokuserat på protetypiska ansiktsuttryck av sex grundläggande känslor. Ansiktsdynamiken kan explicit analyseras genom att upptäcka de ingående temporalsegmenten i FaCS (Facial Action Coding System) Action Units (AUs) -onset, apex, och offset. I detta dokument presenterar vi ett nytt tillvägagångssätt för explicit analys av temporal dynamik av ansiktsåtgärder med hjälp av den dynamiska utseende deskriptorn Lokal fas Kvantisering från tre Orthogonal Planes (LPQ-TOP). Temporala segment upptäcks genom att kombinera en diskriminerande klassificering för att upptäcka temporalsegmenten på en ram-för-ram-basis med Markov-modeller som upprätthåller tidskonsistens över hela episoden. Systemet utvärderas i detalj över MMI ansiktsuttryck databas, UNBC-McMaster smärtdatabas, SAL databas, GEMEP-FERA dataset i databasberoende experiment, i korsdatabas experiment med Cohn-Kanade, och SEMAINE databaser. Jämförelsen med andra state-of-the-art metoder visar att den föreslagna LPQ-TOP metoden överträffar de andra tillvägagångssätten för problemet med AU temporal segment detektering, och att övergripande AU aktivering detektering drar nytta av dynamisk utseende information.
Jiang m.fl. REF använder sig av lokal fas Kvantisering från tre Orthogonal Planes (LPQ-TOP) för att analysera FACS AUs indelade i temporal segment och klassificeras med hjälp av en uppsättning dolda Markov modeller (HMMs).
15,565,372
A Dynamic Appearance Descriptor Approach to Facial Actions Temporal Modeling
{'venue': 'IEEE Transactions on Cybernetics', 'journal': 'IEEE Transactions on Cybernetics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
8,534
Att matcha människor över icke-överlappande kameravyer, så kallad personåteridentifiering, är en utmaning på grund av bristen på rumsliga och tidsmässiga begränsningar och stora visuella förändringar som orsakas av variationer i siktvinkel, belysning, bakgrundsförlamning och ocklusion. För att ta itu med dessa utmaningar syftar de flesta tidigare tillvägagångssätt till att extrahera visuella egenskaper som är både distinkta och stabila under utseende förändringar. De flesta visuella egenskaper och deras kombinationer under realistiska förhållanden är dock varken stabila eller särskiljande och bör därför inte användas urskillningslöst. I detta dokument föreslår vi att personen återidentifieras som ett problem med distansundervisningen, som syftar till att lära sig det optimala avståndet som kan maximera matchningsnoggrannheten oavsett val av representation. I detta syfte introducerar vi en ny modell för Probabilistic Relative Distance Comparison (PRDC), som skiljer sig från de flesta befintliga metoder för distansundervisning, i stället för att minimera variation inom klassen samtidigt som den maximerar variation inom klassen, det syftar till att maximera sannolikheten för ett par äkta match med ett mindre avstånd än ett fel matchpar. Detta gör vår modell mer tolerant mot utseendeförändringar och mindre mottaglig för modellövermontering. Omfattande experiment utförs för att visa att 1) genom att formulera personens omidentifieringsproblem som ett problem för distansundervisning, kan märkbar förbättring av matchningsnoggrannheten uppnås mot konventionella personers omidentifieringsmetoder, vilket är särskilt viktigt när utbildningsprovet är litet, och 2) vårt PRDC överträffar inte bara befintliga metoder för distansundervisning utan också alternativa inlärningsmetoder som bygger på att öka och lära sig att rangordna.
Zheng m.fl. REF formulerade distansundervisningen som en probabilistisk jämförelsemodell för relativ distans (PRDC) för att maximera sannolikheten för att korrekt matchade par kommer att ha ett mindre avstånd mellan dem än felaktigt matchade par.
13,619,630
Person re-identification by probabilistic relative distance comparison
{'venue': 'CVPR 2011', 'journal': 'CVPR 2011', 'mag_field_of_study': ['Computer Science']}
8,535
Katastrofrisk glömmer uppstår när ett neuralt nätverk förlorar den information som lärts med den första uppgiften, efter utbildning på en andra uppgift. Detta problem är fortfarande ett hinder för allmänna artificiella intelligenssystem med sekventiell inlärningsförmåga. I detta dokument föreslår vi en uppgiftsbaserad mekanism för hård uppmärksamhet som bevarar tidigare uppgifters information utan att väsentligt påverka den nuvarande uppgiftens lärande. En uppmärksamhet mask lärs samtidigt till varje uppgift genom stokastisk lutning nedstigning, och tidigare masker utnyttjas för att begränsa sådan inlärning. Vi visar att den föreslagna mekanismen är effektiv för att minska den katastrofala glömskan och sänka de nuvarande skattesatserna med 33 till 84 procent. Vi visar också att den är robust mot olika hyperparameterval och att den erbjuder ett antal övervakningsmöjligheter. Tillvägagångssättet innehåller möjligheten att kontrollera både stabiliteten och kompaktiteten i den lärda kunskapen, vilket vi tror gör det också attraktivt för online-inlärning och nätverkskomprimeringsapplikationer.
Författarna till REF föreslår en uppgiftsbaserad mekanism för hård uppmärksamhet som bevarar information om tidigare uppgifter utan att påverka den nuvarande uppgiftens lärande.
2,157,345
Overcoming catastrophic forgetting with hard attention to the task
{'venue': 'ICML', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
8,536
Sammanfattning av denna webbsida: Objektdetektering i optiska fjärranalysbilder, som är ett grundläggande men utmanande problem inom flyg- och satellitanalys, spelar en viktig roll för ett brett spektrum av tillämpningar och får stor uppmärksamhet under de senaste åren. Även om det finns enorma metoder saknas fortfarande en djup genomgång av litteraturen om allmän upptäckt av föremål. Syftet med detta dokument är att ge en översikt över de framsteg som nyligen gjorts på detta område. Olika från flera tidigare publicerade undersökningar som fokuserar på en specifik objektklass som byggnad och väg, fokuserar vi på mer generiska objektkategorier inklusive, men är inte begränsade till, väg, byggnad, träd, fordon, fartyg, flygplats, urban-område. Täcker ca 270 publikationer undersöker vi 1) mall matchningsbaserade objekt detektionsmetoder, 2) kunskapsbaserade objekt detektionsmetoder, 3) objektbaserad bildanalys (OBIA)-baserade objekt detektionsmetoder, 4) maskininlärning-baserade objekt detektionsmetoder, och 5) fem allmänt tillgängliga dataset och tre standardutvärderingsmått. Vi diskuterar också utmaningarna med aktuella studier och föreslår två lovande forskningsinriktningar, nämligen djupinlärning baserad funktionsrepresentation och svagt övervakad inlärningsbaserad geospatial objektdetektering. Det är vår förhoppning att denna undersökning kommer att vara till nytta för forskarna att få bättre förståelse för detta forskningsområde.
För OBIA-baserade objekt detektionsmetoder, objektfunktioner, såsom spektral information, storlek, form, textur, geometri och kontextuella semantiska funktioner, kan extraheras REF.
3,110,415
A Survey on Object Detection in Optical Remote Sensing Images
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
8,537
Abstract-För de blivande datormodeller som molntjänster är tjänsten standardpaketet för att uppfylla alla typer av konsumenters krav. Web Services är det konkreta genomförandet av tjänsten. När användare begär och konsumerar Web Services kommer tjänsternas rykte att spela en viktig roll i användarnas val. En gradvis justering av rykte utvärderingsmetod för Web Services föreslås baserat på att eliminera samverkande beteenden hos konsumenter steg för steg, och en ryktesmedveten modell för tjänsteval är utformad. För att justera rykte, QoS likhet beräknas först enligt skillnaderna mellan annonserade QoS från tjänsteleverantörer och levererade QoS från tjänstekonsumenters utvärdering, nästa, nuvarande rykte uppnås, då konsumenterna sorteras baserat på rykte med hjälp av kluster algoritm och potentiella samverkande konsumenter bryts med hjälp av föreningsregler algoritm; slutligen, det uppdaterade ryktet räknas om och sparas i ryktescentret som ingår i modellen. De experimentella resultaten visar att modellen kan identifiera de skadliga konsumenterna och förbättra den exakta graden av rykte utvärdering och framgång i valet av tjänster.
Zhao m.fl. REF utformade en ryktesmedveten modell för tjänsteupptäckt baserad på en adaptiv metod för att justera ryktesbedömning av webbtjänster.
17,981,354
Reputation-aware Service Selection based on QoS Similarity
{'venue': 'J. Networks', 'journal': 'J. Networks', 'mag_field_of_study': ['Computer Science']}
8,538
En slumpmässig geometrisk graf (RGG) i två dimensioner är konstruerad genom att distribuera n noder självständigt och enhetligt slumpmässigt i [0, ε n ] 2 och skapa kanter mellan varje par av noder som har Euclidean avstånd som mest r, för vissa ordinerade r. Vi analyserar följande randomiserade sändningsalgoritm på RGGs. I början informeras endast en nod från den största anslutna komponenten i RGG. Sedan, i varje omgång, väljer varje informerad nod en granne självständigt och enhetligt slumpmässigt och informerar den. Vi bevisar att med sannolikhet 1 − O(n −1 ) denna algoritm informerar varje nod i den största anslutna komponenten i en RGG inom O( ε n /r +log n) rundor. Detta gäller för valfritt värde av r som är större än det kritiska värdet för uppkomsten av en ansluten komponent med noder (n). För att bevisa detta resultat, visar vi att för två noder tillräckligt långt från varandra i [0, ε n ] 2, längden på den kortaste vägen mellan dem i RGG, när en sådan väg finns, är bara en konstant faktor större än den optimala. Detta resultat har ett oberoende intresse och, i synnerhet, ger att diametern på den största anslutna komponenten i en RGG är och ( ε n /r), vilket överraskande har varit ett öppet problem hittills.
Frågan om sändning inom den gigantiska komponenten i ett RGG över perkoleringströskeln analyserades nyligen av Bradonjić et al. REF, som också visar att grafavståndet mellan två (tillräckligt avlägsna) noder är som mest en konstant faktor större än deras Euclidean avstånd.
439,405
Efficient broadcast on random geometric graphs
{'venue': "SODA '10", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
8,539
Idén med dubbel blocklängd hashing är att konstruera en komprimeringsfunktion på 2n bitar med hjälp av ett block chiffer med en n-bit blockstorlek. Alla optimalt säkra dubbel längd hash funktioner kända i litteraturen använder en chiffer med ett nyckelutrymme av dubbel blockstorlek, 2n-bit. Å andra sidan är inga optimalt säkra komprimeringsfunktioner byggda från ett chiffer med ett n-bitars nyckelutrymme kända. Vårt arbete tar itu med detta problem. För det första visar vi att för en bred klass av kompressionsfunktioner med två samtal till dess underliggande n-bit nyckel block chiffer kollisioner kan hittas i ca 2 n/2 frågor. Detta angrepp gäller bland annat för funktioner där utdata härleds från blockets chifferutgångar på ett linjärt sätt. Denna observation visar att alla säkerhetsresultat av konstruktioner med hjälp av ett chiffer med 2n-bitars nyckelutrymme är avgörande beroende av närvaron av dessa extra n nyckelbitar. Det viktigaste bidraget från detta arbete är ett bevis på att denna fråga kan lösas genom att tillåta komprimeringsfunktionen att göra ett extra samtal till chiffer. Vi föreslår en familj av kompressionsfunktioner som gör tre block chiffer kallar att asymptotiskt uppnå optimal kollisionsmotstånd upp till 2 n(1−ε) frågor och preimage motstånd upp till 2 3n(1−ε)/2 frågor, för alla ε > 0. Så vitt vi vet är detta den första optimala kollisionen säker dubbel blocklängd konstruktion med hjälp av ett block chiffer med enkel längd nyckel utrymme. 1 I iterationskollisionsmotståndet visas upp till 2 3n/5 frågor för MDC-2 [27] och 2 2n/3 frågor för MJH [10].
I REF presenterade Mennink en klass av komprimeringsfunktioner som gjorde tre block chiffer samtal med optimal 2 n kollisionssäkerhet och preimage säkerhet upp till 2 3n/2 frågor.
3,757,671
Optimal collision security in double block length hashing with single length key
{'venue': 'ASIACRYPT', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,540
Abstrakt. Anonyma kanaler är nödvändiga för en mängd sekretessskyddande protokoll. Onion routing är förmodligen det mest kända sättet att uppnå anonymitet i praktiken. De kryptografiska aspekterna av lökrouting har dock inte undersökts tillräckligt: inga tillfredsställande definitioner av säkerhet har lämnats, och befintliga konstruktioner har endast haft en särskild säkerhetsanalys för det mesta. Vi tillhandahåller en formell definition av onion-routing i det universellt kompatibla ramverket, och upptäcker också en enklare definition (liknar CCA2 säkerhet för kryptering) som innebär säkerhet i UC-ramverket. Vi uppvisar sedan en effektiv och enkel att genomföra konstruktion av en lök routing plan som uppfyller denna definition.
Camenish och Lysyanskaya REF erbjuder en behandling av lök routing i Universal Composability-modellen.
6,407,842
A Formal Treatment of Onion Routing
{'venue': 'CRYPTO', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,541
Warwick Research Archive Portal (WRAP) gör detta arbete av forskare vid University of Warwick tillgängliga open access på följande villkor. Copyright © och alla moraliska rättigheter till den version av tidningen som presenteras här tillhör de enskilda upphovsmännen och/eller andra upphovsrättsinnehavare. I den mån det är rimligt och praktiskt möjligt har det material som tillhandahållits i WRAP kontrollerats för stödberättigande innan det gjorts tillgängligt. Kopior av hela föremål kan användas för personlig forskning eller studier, utbildning eller inte för vinständamål utan föregående tillstånd eller kostnad. Förutsatt att författare, titel och fullständiga bibliografiska detaljer krediteras, ges en hyperlänk och/eller URL för den ursprungliga metadatasidan och innehållet ändras inte på något sätt. Detta är den accepterade versionen av följande artikel: Jhumka, A., Bradbury, M. and Leeke, M. (2014), Fake källkodsbaserad plats integritet i trådlösa sensornätverk. Konkurs och beräkning, som har offentliggjorts i slutlig form på http://dx.doi.org/10.1002/cce.3242. Den version som presenteras här kan skilja sig från den publicerade versionen eller, version av skivan, om du vill citera denna punkt du rekommenderas att konsultera förlagets version. Se 'permanent WRAP url' ovan för information om åtkomst till den publicerade versionen och notera att åtkomst kan kräva en prenumeration. Utvecklingen av nya tillämpningar för trådlösa sensornätverk (WSN), t.ex. tillgångsövervakning, har lett till nya tillförlitlighetskrav. En sådan egenskap är sekretess för källplats (SLP). Det ursprungliga SLP-problemet är att skydda platsen för en källa nod i en WSN från en enda distribuerad tjuvlyssnare angripare. Flera tekniker har föreslagits för att ta itu med SLP-problemet, och de flesta av dem använder någon form av trafikanalys och teknik för att ge förbättrad SLP. Användningen av falska källor anses vara lovande för att tillhandahålla SLP, och flera verk har undersökt effektiviteten av falska källor tillvägagångssätt under olika angripare modeller. Men mycket lite arbete har gjorts för att förstå de teoretiska grunderna för den falska källtekniken. I detta dokument, vi: (i) ge en ny formalisering av falska källor urvalsproblem (ii) bevisa falska källor urvalsproblem att vara NP-fullständig, (iii) ge parametrisk heuristik för tre olika nätverkskonfigurationer, och (iv) visa att dessa heuristiker ger (nära) optimala nivåer av SLP, under lämplig parameterisering. Våra resultat visar att falska källor kan ge en hög nivå av SLP. Vårt arbete är det första som undersöker de teoretiska grunderna för den falska källtekniken.. För kritiska tillämpningar är pålitlighet viktigt. I synnerhet integritet, som i allmänhet kan beskrivas som en garanti för att information endast kan iakttas eller dechiffreras av dem som är avsedda att observera eller dechiffrera den [3], kommer att vara en viktig egenskap. När WSNs fungerar i ett sändningsmedium, kan angripare enkelt avlyssna meddelanden och därefter starta attacker. De säkerhetshot som finns för WSN kan klassificeras längs två dimensioner, innehållsbaserade integritetshot och kontextbaserade integritetshot. Skyddshoten mot innehållet gäller hot som baseras på innehållet i meddelanden, dvs. attackerna är mot de data som genereras av de högre nätverksskikten - data som genereras antingen på applikationsnivå (värden som uppfattas av sensorer) eller lägre nivåer (t.ex. tidsstämpelr). Vid sådana attacker försöker angripare fånga data för att lära sig om nätverkets status så att relevanta attacker kan startas. Mycket forskning har tagit itu med innehållsbaserade attacker [4]. Å andra sidan, sammanhangsbaserade integritet hot är dessa Context är ett multi-attribute koncept som fångar flera aspekter, varav några är miljömässiga, associerade med sensed data såsom plats, och tid så att korrekt semantik ges till data. Även om innehållsbaserade hot har behandlats i stor utsträckning [4] blir kontextbaserade hot allt populärare. För innehållsbaserade hot modelleras ofta noder som bysantinska noder [5] [6], där kryptografisk teknik ofta används för att ta itu med dessa problem [4] [5] [7]. Kryptografiska tekniker kan dock inte bidra till att hantera kontextbaserade hot. Nya tekniker måste införas för att hantera kontextbaserade hot. Ett viktigt problem för applikationer för övervakning av tillgångar är problemet med sekretess för källplats (SLP). I detta problem övervakar ett WSN en tillgång, säger ett utrotningshotat vilddjur. Sedan, när noder upptäcker närvaron av tillgången, som vi kallar källnoder, dessa källnoder kommer periodiskt att skicka meddelanden, under en viss tid, till en dedikerad nod, som kallas en diskbänk, för datainsamling. Om platsen(s) för källnod(er) äventyras, direkt eller härleds, då en angripare lätt kan fånga tillgången. Det är möjligt att dra slutsatsen meddelande plats information genom olika tekniker, beroende på kraften i angriparen. Till exempel Mehta et al. [8] antar att en angripare har ett litet trådlöst nätverk, som vi kallar en angripare nätverk, av egen som fångar meddelanden och visar hur angriparen nätverket kan sluta platsen för noder efter det fångar meddelanden. Å andra sidan, Kamat et al. [3] anta en enda angripare, som använder routing protokollet för att härleda platsen för källan. I en militär miljö kan till exempel soldater som är ute på ett övervakningsuppdrag vidarebefordra information till ett handfat. En angripare kan fånga upp dessa meddelanden och spåra dem tillbaka till soldaterna och därigenom äventyra soldaternas säkerhet. Flera möjliga tekniker för att hantera SLP-problemet har föreslagits [3] [8] [9] [10] [11]. I detta dokument fokuserar vi på den falska källtekniken, som först föreslogs i ett seminal arbete [3]. Vid tillämpning av denna teknik, en uppsättning noder väljs att fungera som en lockbete för den verkliga källan, dvs. att fungera som falska källor. När uppsättningen noder är hela nätverket, maximal SLP uppnås [8]. Detta är dock inte praktiskt på grund av den stora mängd energi som behövs, och detta kommer att allvarligt påverka nätverkets livslängd. De falska källorna genererar meddelanden för att skapa nätverkstrafik på ett sådant sätt att förvirra en angripare. Trots den intuitiva karaktären av tillvägagångssättet, har lite arbete gjorts för att förstå det detaljerade arbetet med den falska källtekniken. Nyligen föreslogs två algoritmer som tar upp kompromisser mellan integritet och energianvändning [12], där dessa algoritmer visade sig ge en balans mellan integritet och energiförbrukning. Men lite arbete har fokuserat på utvecklingen av systematiska metoder för att välja falska källor. Ännu viktigare var att det i [3] konstaterades att permanenta falska källor överträffade kortlivade, dvs. tillfälliga, falska källor, men till priset av större energiutgifter. Det blir därför viktigt att utveckla metoder som gör det möjligt att välja permanenta och/eller tillfälliga falska källor, beroende på tillämpningskraven. I detta sammanhang finns det en kompromiss att göra, som har permanenta falska källor gör det möjligt att ha högre nivåer av SLP men på bekostnad av högre energianvändning, jämfört med tillfälliga falska källor, som ger lägre nivåer av SLP men till lägre energikostnader. Därför föreslås i detta dokument en hybridteknik där både tillfälliga och permanenta falska källor används för att ta itu med SLP-problemet. För att möjliggöra denna teknik, tillfälliga och permanenta falska källor modelleras som falska källor med varierande varaktighet. Problemet med att välja tillfälliga och permanenta falska källor behandlas sedan direkt. I detta dokument tillhandahåller vi en formalisering av FSS-problemet, så att vi kan identifiera två viktiga parametrar som ligger till grund för effektiviteten hos algoritmer som tillhandahåller SLP; falska meddelandefrekvenser och falsk källkodslängd. Under denna formalisering visar vi att FSS-problemet är fullständigt. Vi föreslår därefter en uppsättning heuristik för att ta itu med FSS, parameteriserat med ovanstående två parametrar, och utvärdera deras effektivitet i att tillhandahålla SLP i olika nätverkskonfigurationer. Våra resultat visar att det under viss parameterisering är möjligt att uppnå optimal integritet, d.v.s. att den verkliga källan aldrig fångas upp.
Falska källor ger SLP genom att generera falska meddelanden som leder angriparen bort från de verkliga källorna REF.
12,098,673
Fake source-based source location privacy in wireless sensor networks
{'venue': 'Concurr. Comput. Pract. Exp.', 'journal': 'Concurr. Comput. Pract. Exp.', 'mag_field_of_study': ['Computer Science']}
8,542
En ny klass av grafiska modeller som fångar beroendestrukturen hos händelser som inträffar i tid föreslås. Graferna representerar så kallade lokala oberoenden, vilket innebär att intensiteten i vissa typer av händelser är oberoende av vissa (men inte nödvändigtvis alla) händelser i det förflutna. Detta dynamiska begrepp av självständighet är asymmetriskt, liknande Granger non-causality, så att motsvarande lokala självständighet diagram skiljer sig avsevärt från klassiska grafiska modeller. Därför införs ett nytt begrepp om grafseparation, som kallas δ-separation, och konsekvenser för den underliggande modellen samt för sannolikheten för slutsatser undersöks. Fördelar när det gäller att underlätta resonemang om och förståelse för dynamiska beroenden samt beräkningsförenklingar diskuteras.
I mer allmänna fall föreslås en grupp grafiska modeller av markerade punktprocesser i REF för att fånga det lokala oberoendet över olika märken.
15,003,758
Graphical models for marked point processes based on local independence
{'venue': None, 'journal': 'arXiv: Statistics Theory', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
8,543
Abstract-Recent forskning har visat att två kommunicerande parter kan generera delade hemliga nycklar genom att utnyttja egenskaper hos den trådlösa blekningskanalen mellan dem. Dessa kanalegenskaper är symmetriska, beroende av läge och orientering, mycket känsliga för rörelse, och kan inte härledas i detalj av en tjuvlyssnare. Ett problem med detta tillvägagångssätt är dock att man under provtagningsintervaller med små kanaler i följd korrelerar värdena i tid, vilket därför ger nycklar med minskad entropi. I detta dokument utför vi experiment för att fastställa effektiviteten i att använda kanalhoppning för att öka mångfalden och förbättra hemlig nyckelentropi, inom ramen för nätverk för kroppsområde. Vi utför omfattande experiment med hjälp av externa IEEE 802.15.4-enheter, monterade på människokroppen, i en verklig inomhusmiljö. Våra experimentella resultat visar att: (i) kanalhoppning ökar frekvensmångfald och effektivt dekorerar på varandra följande kanalprover, avsevärt ökar entropi (minst 20 %) och därmed förbättrar styrkan i den hemliga nyckeln, (ii) fördelen kan maximeras genom att ta fram en shoppingstrategi som tar hänsyn till antalet tillgängliga kanaler, avståndet mellan dem och användarens aktivitet.
Som senare arbete, andra författare tillämpat vår strategi att utnyttja frekvens-selektiva kanaler inom ramen för body area nätverk REF.
14,780,642
Decorrelating secret bit extraction via channel hopping in body area networks
{'venue': '2012 IEEE 23rd International Symposium on Personal, Indoor and Mobile Radio Communications - (PIMRC)', 'journal': '2012 IEEE 23rd International Symposium on Personal, Indoor and Mobile Radio Communications - (PIMRC)', 'mag_field_of_study': ['Computer Science']}
8,545
Gemenskapsbaserade tjänster för att besvara frågor (cQA) har samlat miljontals frågor och svar över tid. I processen för ackumulation, cQA-tjänster antar att frågor alltid har unika bästa svar. Med en ingående analys av frågor och svar om cQA-tjänster anser vi dock att antagandet inte kan vara sant. Enligt analysen är minst 78 % av cQA:s bästa svar återanvändbara när liknande frågor ställs igen, men inte mer än 48 % av dem är verkligen de unika bästa svaren. Vi genomför analysen genom att föreslå taxonomier för cQA-frågor och svar. För att bättre återanvända cQA-innehållet föreslår vi också att man tillämpar automatiska summeringsmetoder för att sammanfatta svaren. Våra resultat visar att frågetypsorienterade summering tekniker kan förbättra cQA svar kvalitet avsevärt.
Liu m.fl. REF föreslog automatiska summeringsmetoder för att sammanfatta svaren för vidareutnyttjande.
2,150,529
Understanding and Summarizing Answers in Community-Based Question Answering Services
{'venue': 'International Conference On Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,546