src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
Abstrakt. Eftersom det inte är svårt att vända ingenjör Dalvik bytekod som används i Dalvik virtuella maskin, Android-applikation ompackning har blivit ett allvarligt problem. Med ompackning kan en plagiat helt enkelt stjäla andras kod som bryter mot utvecklarnas immateriella rättigheter. Mer allvarligt, efter ompackning, populära appar kan bli bärare av malware, adware eller spion-program för bred spridning. För att upprätthålla en sund app-marknad, har flera detektionsalgoritmer föreslagits nyligen, som kan fånga vissa typer av ompaketerade appar på olika marknader effektivt. De saknar dock i allmänhet en välgrundad analys av deras effektivitet. Efter att ha analyserat dessa metoder, hittar vi enkla obfuscation tekniker kan potentiellt orsaka falska negativa, eftersom de ändrar de viktigaste egenskaperna eller egenskaperna hos de appar som används för likhet upptäckter. I praktiken kan mer sofistikerade obfuscation tekniker användas (eller redan har utförts) i samband med mobilappar. Vi föreställer oss denna obfuscation baserad ompackning kommer att bli ett fenomen på grund av kapprustningen mellan ompackning och dess upptäckt. I detta syfte föreslår vi en ram för att utvärdera den förträngande motståndskraften hos ompaketering av detektionsalgoritmer på ett heltäckande sätt. Vårt utvärderingsramverk kan utföra en uppsättning obfuscationalgoritmer i olika former på Dalviks bytekod. Våra resultat ger insikter som hjälper till att mäta både bredd och djup av algoritmers fördunklad motståndskraft. Vi tillämpade vårt ramverk för att genomföra en omfattande fallstudie på AndroGuard, en Android ompackning detektor föreslås i Black-hat 2011. Våra experimentella resultat har visat hur effektiv och stabil vår ram är. | Nyligen, ett ramverk för att utvärdera Android-applikation omförpackning detektionsalgoritmer har föreslagits REF. | 17,245,413 | A Framework for Evaluating Mobile App Repackaging Detection Algorithms | {'venue': 'TRUST', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,213 |
Vi föreslår en ny visuell spårningsalgoritm baserad på representationerna från ett discriminativt utbildad Convolutional Neural Network (CNN). Vår algoritm pretrainerar en CNN med hjälp av en stor uppsättning videor med spårning jordsanningar för att få en generisk mål representation. Vårt nätverk består av delade lager och flera grenar av domänspecifika lager, där domäner motsvarar individuella träningssekvenser och varje gren ansvarar för binär klassificering för att identifiera mål i varje domän. Vi utbildar varje domän i nätverket iterativt för att få generiska målrepresentationer i de delade skikten. När vi spårar ett mål i en ny sekvens konstruerar vi ett nytt nätverk genom att kombinera de delade lagren i det förtränade CNN med ett nytt binärt klassificeringsskikt, som uppdateras online. Online spårning utförs genom att utvärdera kandidatfönstren slumpmässigt provtas runt det tidigare måltillståndet. Den föreslagna algoritmen illustrerar enastående prestanda i befintliga riktmärken för spårning. | Nam och Han REF föreslog en ny visuell spårningsalgoritm baserad på konvolution neural nätverk representation med differentierad utbildning. | 973,101 | Learning Multi-domain Convolutional Neural Networks for Visual Tracking | {'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 6,214 |
Abstract-Många studier fokuserade på att upptäcka och mäta säkerhets- och integritetsrisker i samband med integreringen av reklambibliotek i mobilappar. Dessa studier visar konsekvent missbruk av befintliga annonsbibliotek. Men för att till fullo bedöma riskerna med en app som använder ett reklambibliotek, måste vi ta hänsyn inte bara till aktuella beteenden utan alla tillåtna beteenden som kan resultera i kompromiss av användardata sekretess. Ad-bibliotek på Android har potential för större datainsamling genom minst fyra större kanaler: att använda oskyddade API:er för att lära sig andra appars information på telefonen (t.ex. app-namn); att använda skyddade API:er via behörigheter som ärvts från värdappen för att få tillgång till känslig information (t.ex. Google och Facebook kontoinformation, geo platser), få tillgång till filer som värdappen lagrar i sin egen skyddsdomän, och observera användaringångar i värdappen. I detta arbete undersöker vi systematiskt reklambibliotekens potentiella räckvidd genom dessa kanaler. Vi utformar ett ramverk som heter Pluto som kan utnyttjas för att analysera en app och upptäcka om det exponerar riktad användardata-såsom kontaktinformation, intressen, demografi, medicinska tillstånd och så vidare - till ett opportunistiskt annonsbibliotek. Vi presenterar en prototyp implementering av Pluto, som förkroppsligar nya strategier för att använda naturligt språk bearbetning för att illustrera vad riktade data kan potentiellt läras från ett annonsnätverk med hjälp av filer och användaringångar. Pluto utnyttjar också modeller för maskininlärning och datautvinning för att avslöja vad reklamnätverk kan lära sig av listan över installerade appar. Vi validerar Pluto med en samling appar för vilka vi har fastställt grundläggande sanning om riktad data de kan avslöja, tillsammans med en datamängd som härrör från en undersökning som vi genomfört som ger grundsanning för riktad data och motsvarande listor över installerade appar för cirka 300 användare. Vi använder dessa för att visa att Pluto, och därmed även opportunistiska annonsnätverk, kan uppnå 75% återkallande och 80% precision för utvalda riktade data som kommer från app-filer och ingångar, och ännu bättre resultat för vissa riktade data baserat på listan över installerade appar. Pluto är det första verktyget som uppskattar risken med att integrera reklam i appar baserat på de fyra tillgängliga kanalerna och godtyckliga uppsättningar av riktad data. | Pluto REF analyserar app-filer för att identifiera användardataexponering för annonsbibliotek. | 10,815,078 | Free for All! Assessing User Data Exposure to Advertising Libraries on Android | {'venue': 'NDSS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,215 |
Abstrakt. Språk som UML och OCL används för att exakt modellera system. Komplexa UML- och OCL-modeller utgör därför en avgörande del av modelldriven utveckling, eftersom de formellt anger de viktigaste systemegenskaperna. Därför är det viktigt att skapa kompletta och korrekta modeller. För detta ändamål tillhandahåller vi en lättviktig modellvalideringsmetod baserad på effektiva SAT-lösningsmetoder. I detta dokument presenterar vi en omvandling från UML-klassdiagram och OCL-koncept till relationslogik. Relationslogiken representerar i sin tur källan för avancerade SAT-baserade modellhittare som Kodkod. Detta dokument fokuserar på en naturlig omvandlingsmetod som syftar till att utnyttja egenskaperna hos relationslogiken så direkt som möjligt genom att begränsa hanteringen av de viktigaste UML- och OCL-funktionerna. Detta tillvägagångssätt gör att vi uttryckligen kan dra nytta av en effektiv hantering av relationslogiken i Kodkod och tolka konstaterade resultat bakåt i termer av UML och OCL. | ANVÄNDARREF är ett verktyg för att analysera modeller som uttrycks i UML och OCL. | 18,653,756 | From UML and OCL to Relational Logic and Back | {'venue': "MODELS'12", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,216 |
Många tidskritiska applikationer kräver dynamisk schemaläggning med förutsägbar prestanda. Uppgifter som motsvarar dessa ansökningar har tidsfrister som ska uppfyllas trots att det förekommer fel. I detta dokument föreslår vi en algoritm för att schemalägga dynamiskt anlända realtidsuppgifter med resurs- och feltoleranta krav på multiprocessorsystem. Uppgifterna antas inte vara preventerbara och varje uppgift har två kopior (versioner) som är ömsesidigt undantagna både i rymden och i tid i schemat, för att hantera permanenta processorfel och för att uppnå bättre prestanda. Vår algoritm kan tolerera mer än ett fel i taget, och använder prestandaförbättrande tekniker som (i) distanskoncept som bestämmer den relativa positionen för de två kopiorna av en uppgift i aktivitetskön, (ii) exible backup overloading, vilket introducerar en kompromiss mellan graden av feltolerans och prestanda, och (iii) resursåtervinning, som återtar resurser både från deallokerade backuper och tidiga slutföra uppgifter. Genom simuleringsstudier kvantifierar vi effektiviteten hos var och en av dessa tekniker när det gäller att förbättra garantikvoten, som fastställs som procentandelen av de totala uppgifterna, som kom in i systemet, vars tidsfrister är uppfyllda. Vi jämför också genom simuleringsstudier prestandan vår algoritm med en mest känd algoritm för problemet, och visar analytiskt betydelsen av distansparameter i feltolerant dynamisk schemaläggning i multiprocessor realtidssystem. | REF föreslår en feltolerant algoritm för att dynamiskt schemalägga realtidsuppgifter i multiprocessorsystemet. | 14,267,879 | A Fault-tolerant Dynamic Scheduling Algorithm for Multiprocessor Real-time Systems and its Analysis | {'venue': 'IEEE Trans. On Parallel and Distributed Systems', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,217 |
Abstract-This paper beskriver en metod för optimal design av en fixtur layout med det minsta antal element som krävs, dvs. sex lokaliseringar och en klämma. Inflygningen gäller för delar med godtycklig 3D-geometri och är begränsad till att vara inom en diskret domän av platser för placering av fixturelementen för icke-friktionella kontakter. Papperet behandlar två viktiga frågor i fixturlayouten: 1) att utveckla en effektiv algoritm för fixtursyntes i punktuppsättningsdomänen och 2) att utvärdera godtagbara fixturkonstruktioner baserat på flera prestandakriterier och att välja den optimala fixturen enligt praktiska krav. De prestandamål som beaktas inkluderar arbetsstycket localization noggrannhet, och normen och spridning av lokaliseringskontaktkrafter, respektive, för hög precision i arbetsstycket lokalisering och kraftbalans bland fixturkontakter. Baserat på ett koncept för optimal experimentdesign utvecklas en utbytesalgoritm med slumpmässig initiering för ändamålet. En studie av förhållandet mellan lokaliseringar och klämmor leder till två olika designstrategier. Dessutom utvärderas fixturens prestandaegenskaper för att förstå deras kompromisser. Slutsatser om betydelsen av korrekt lokalisering och kontaktkraftbalansen görs utifrån empiriska observationer i studien av flera exempel. | Wang REF beskriver en algoritm för att få en optimal fixtur för en domän av diskreta kontakter med sex lokaliserare och en klämma. | 7,472,925 | Optimizing fixture layout in a point-set domain | {'venue': 'IEEE Trans. Robotics and Automation', 'journal': 'IEEE Trans. Robotics and Automation', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 6,218 |
Titta på en 360 • sportvideo kräver en tittare att kontinuerligt välja en visningsvinkel, antingen genom en sekvens av musklick eller huvudrörelser. För att avlasta betraktaren från denna "360 piloting" uppgift föreslår vi "djup 360 pilot" -en djupt lärande-baserad agent för piloting genom 360 • sportvideor automatiskt. Vid varje ram observerar agenten en panoramabild och har kunskap om tidigare valda synvinklar. Uppgiften för agenten är att skifta den aktuella visningsvinkeln (dvs. åtgärd) till nästa föredragna (dvs. mål). Vi föreslår att direkt lära sig en online-policy av agenten från data. Vi använder oss särskilt av en toppmodern objektdetektor för att föreslå några objekt av intresse (gula lådor i Bild. 1).................................................................. Därefter används ett återkommande neuralt nätverk för att välja huvudobjektet (gröna streckrutor i Bild. 1).................................................................. Med tanke på huvudobjektet och tidigare valda visningsvinklar, går vår metod tillbaka en förskjutning i visningsvinkel för att flytta till nästa. Vi använder den policy gradient teknik för att gemensamt träna vår pipeline, genom att minimera: (1) en regressionsförlust som mäter avståndet mellan de utvalda och marken sanning tittarvinklar, (2) en jämnhet förlust uppmuntrar smidig övergång i visningsvinkel, och (3) maximerar en förväntad belöning för att fokusera på ett förgrundsobjekt. För att utvärdera vår metod byggde vi en ny 360-Sports video dataset bestående av fem sportdomäner. Vi tränade domänspecifika agenter och uppnådde den bästa prestandan på att se vinkelvalnoggrannhet och användarnas preferenser jämfört med [53] och andra baslinjer. | I REF presenteras en metod för lotsning genom 360 sportvideor. | 4,481,046 | Deep 360 Pilot: Learning a Deep Agent for Piloting through 360° Sports Videos | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 6,219 |
Abstrakt. Hematoxylin och eosin (H&E) fläck är för närvarande den mest populära för rutinmässig histopatologi färgning. Särskild och/eller immunhistokemisk (IHC) färgning uppmanas ofta att ytterligare bekräfta den initiala diagnosen på H & E-fläckade vävnadssektioner. Digital simulering av färgning (eller digital färgning) kan vara ett mycket värdefullt verktyg för att producera önskade färgade bilder från H & E-fläckade vävnadssektioner omedelbart. Vi presenterar en strategi för digital färgning av histopatologi multispektral bilder genom att kombinera effekterna av spektral förbättring och spektral transformation. Spektral förbättring uppnås genom att flytta N-bandets ursprungliga spektrum av multispektral pixel med den viktade skillnaden mellan pixelens ursprungliga och uppskattade spektrum; spektrumet uppskattas med hjälp av M < N huvudkomponent (PC) vektorer. Pixelens förbättrade spektrum omvandlas till den spektralkonfiguration som är associerad med dess reaktion på en specifik fläck genom att använda en N × N omvandlingsmatris, som härleds genom tillämpning av minst genomsnittliga kvadratmetoden på de förbättrade och målspektrala transmittansproven av de olika vävnadskomponenter som finns i bilden. Resultaten av våra experiment om den digitala omvandlingen av en H&E-fläckad multispektral bild till dess Massons trikroma färgade motsvarighet visar metodens livskraft. | I Bautistas och Yagis arbete presenterar de en linjär spektral transformationsmetod för "digital färgning av histopatologiska multispektralbilder" REF. | 36,991,455 | Digital simulation of staining in histopathology multispectral images: enhancement and linear transformation of spectral transmittance | {'venue': 'Journal of biomedical optics', 'journal': 'Journal of biomedical optics', 'mag_field_of_study': ['Medicine']} | 6,220 |
Abstract-Många-objektiv optimering har inneburit en stor utmaning för den klassiska Pareto dominans-baserade multiobjektive evolutional algoritmer (MOEAs). I den här artikeln föreslås en evolutional algoritm baserad på en ny dominansrelation för många måloptimering. Den föreslagna evolutionära algoritmen syftar till att öka konvergensen av den nyligen föreslagna icke-dominerade sorteringsgenetiska algoritmen III genom att utnyttja systemet för utvärdering av lämpligheten i MOEA baserat på nedbrytning, men fortfarande ärver styrkan hos den förra i mångfaldsunderhåll. I den föreslagna algoritmen används det icke-dominerade sorteringssystemet baserat på det nya dominansförhållandet för att rangordna lösningar i miljöurvalsfasen, vilket garanterar både konvergens och mångfald. Den föreslagna algoritmen utvärderas på ett antal välkända referensproblem med 3-15 mål och jämförs mot åtta toppmoderna algoritmer. De omfattande experimentella resultaten visar att den föreslagna algoritmen kan fungera bra på nästan alla testfunktioner som beaktas i detta dokument, och det jämförs gynnsamt med de andra många-objektiva optimerare. Dessutom tillhandahålls en parametrisk studie för att undersöka inverkan av en nyckelparameter i den föreslagna algoritmen. | Senare, Yuan m.fl. I REF föreslogs att man skulle införa en "DEA" som förbättrade konvergensen mellan NSGA-III genom att utnyttja systemet för utvärdering av ändamålsenligheten i nedbrytningsbaserade MOEA. | 1,363,523 | A New Dominance Relation-Based Evolutionary Algorithm for Many-Objective Optimization | {'venue': 'IEEE Transactions on Evolutionary Computation', 'journal': 'IEEE Transactions on Evolutionary Computation', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 6,221 |
En tiondel av världens ständigt växande internetinvånarbutiker online, vilket representerar en svindlande 627 miljoner människor. När mer organisation antar e-betalningsmetoder, förändringar i marknadsplatsen för business-to-business (B2B) betalningar kräver allt mer chefers uppmärksamhet. Företagen börjar inse att de måste lägga till nya betalningsalternativ till en process som fortfarande domineras av papperskontroller, banköverföringar och automatiserade clearinghus (ACH) transaktioner. Extrem programmering och andra framväxande agila metoder representerar en viktig ny riktning inom programvaruteknik och utveckling. I detta dokument undersöks integreringen av både användningscentrerad teknik och extrem programmering för epayment-modell med hjälp av öppna nätverkssystem. I detta dokument beskrivs utvecklingen av ett E-betalningssystem för B2B med Use-Case-modelleringsteknik samt ESignatures och XML. Vi föreslår ett öppet nätverkssystem som kan anpassa sig till användares förändrade behov samt möjliggöra effektiva och säkrade transaktioner via alla kunders bankkonton. | Arogundade e.t. Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. REF har infört ett ramverk med ett öppet nätverkssystem som kan vänja sig vid användarens dynamiska krav samt möjliggöra en tillförlitlig, värdefull och säker transaktion med alla kunders bankkonton. | 2,034,515 | Developing a Usage-centered e-Payment Model using Open Network System | {'venue': None, 'journal': 'International Journal of Computer Applications', 'mag_field_of_study': ['Computer Science']} | 6,222 |
Abstract-I detta papper beskriver vi en ny metod för att integrera interaktiv visuell analys och maskininlärning för att stödja insiktsgenerering av användaren. Det föreslagna tillvägagångssättet kombinerar datorns enorma sök- och processkraft med den mänskliga användarens överlägsna resonemang och mönsterigenkänningsförmåga. En evolutionär sökalgoritm har anpassats för att hjälpa till med den suddiga logiken formalisering av hypoteser som syftar till att förklara funktioner inuti multivariat, volymetrisk data. Hittills har användarna enbart förlitat sig på sin kunskap och expertis när de söker förklarande teorier. Det är dock ofta oklart om de valda attributintervallen representerar den verkliga förklaringen till egenskapen intresse. Andra val som döljs i det stora antalet datavariabler kan potentiellt leda till liknande egenskaper. I takt med att simuleringskomplexiteten ökar ställs användarna dessutom inför enorma flerdimensionella datamängder som gör det nästan omöjligt att hitta meningsfulla hypoteser alls. Vi föreslår en interaktiv cykel av kunskapsbaserad analys och automatisk hypotesgenerering. Med utgångspunkt från initiala hypoteser, skapade med länkning och borstning, styr användaren en heuristisk sökalgoritm för att leta efter alternativa eller relaterade hypoteser. Resultaten analyseras i informationsvisualiseringsvyer som är kopplade till volymåtergivningen. Individuella egenskaper och globala aggregat presenteras visuellt för att ge insikt i de mest relevanta aspekterna av de genererade hypoteserna. Detta nya tillvägagångssätt blir beräkningsbart genomförbart på grund av en GPU-implementering av de tidskritiska delarna i algoritmen. En grundlig utvärdering av söktider och bullerkänslighet samt en fallstudie av data från fordonsdomänen styrker nyttan med det föreslagna tillvägagångssättet. | uchs m.fl. REF föreslog ett system som integrerar interaktiv visuell analys och maskininlärning för att stödja insiktsgenerering. | 2,521,824 | Visual Human+Machine Learning | {'venue': 'IEEE Transactions on Visualization and Computer Graphics', 'journal': 'IEEE Transactions on Visualization and Computer Graphics', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 6,223 |
Abstract-A kommunikationsinfrastruktur är en viktig del av framgången för det framväxande smarta nätet. En skalbar och genomträngande kommunikationsinfrastruktur är avgörande för både konstruktion och drift av ett smart nät. I detta dokument presenterar vi bakgrunden till och motivationen för kommunikationsinfrastrukturer i smarta nätsystem. Vi sammanfattar också stora krav som smart nätkommunikation måste uppfylla. Utifrån erfarenheterna från flera industriella försök med smarta nät med kommunikationsinfrastrukturer förväntar vi oss att de traditionella kolbränslebaserade kraftverken kan samarbeta med framväxande distribuerad förnybar energi som vindkraft, solenergi, etc., för att minska koldioxidförbrukningen och därmed grönhusgas som koldioxidutsläpp. Konsumenterna kan minimera sina energikostnader genom att justera sina intelligenta hushållsapparater för att undvika rusningstid och använda den förnybara energin istället. Vi undersöker vidare utmaningarna för en kommunikationsinfrastruktur som en del av ett komplext smart nätsystem. Eftersom ett smart nätsystem kan ha över miljontals konsumenter och enheter är efterfrågan på dess tillförlitlighet och säkerhet ytterst kritisk. Genom en kommunikationsinfrastruktur kan ett smart nät förbättra tillförlitligheten och kvaliteten på elen för att eliminera strömavbrott. Säkerhet är en utmanande fråga eftersom de pågående smarta nätsystemen står inför ökande sårbarheter i takt med att allt fler automatiserings-, fjärrövervaknings-, kontroll- och övervakningsenheter är sammankopplade. Index Terms-Smart rutnät, kommunikationsinfrastruktur, intelligenta nätverk, sammankopplade kraftsystem, övervakning, avkänning, cybersäkerhet I. BAKGRUND S MART rutnät är en term som hänvisar till nästa generations elnät där eldistribution och elhantering uppgraderas genom att införliva avancerade tvåvägskommunikationer och genomträngande datorkapacitet för förbättrad kontroll, effektivitet, tillförlitlighet och säkerhet. Ett smart nät levererar el mellan leverantörer och konsumenter med hjälp av tvåvägs digital teknik. Den styr intelligenta apparater i konsumenternas hem eller i byggnader för att spara energi, minska kostnaderna och öka tillförlitligheten, effektiviteten och insynen [1]. Ett smart nät förväntas bli en modernisering av det gamla elnätet. Det ger övervakning, skydd och optimering automatiskt till drift av de sammankopplade elementen. Det omfattar allt från traditionell central generator och/eller framväxande förnyelse distribuerad generator genom överföringsnät och distributionssystem till industriella konsumenter och/eller hemanvändare med sina termostater, elfordon, intelligenta apparater [2]. Ett smart nät kännetecknas av dubbelriktad anslutning av el och informationsflöden för att skapa ett automatiserat, brett distribuerat leveransnätverk. Den innehåller det gamla elnätet fördelarna med modern kommunikation för att leverera information i realtid och möjliggöra en nästan oavbruten balans mellan utbud och efterfrågan [3]. Många tekniker som ska antas av smarta nät har redan använts i andra industriella tillämpningar, såsom sensornät inom tillverkning och trådlösa nät inom telekommunikation, och håller på att anpassas för användning i nya intelligenta och sammankopplade paradigm. I allmänhet kan teknik för smart nätkommunikation grupperas i fem nyckelområden: avancerade komponenter, avkänning och mätning, förbättrade gränssnitt och beslutsstöd, standarder och grupper samt integrerad kommunikation. Figur 1 visar en allmän arkitektur för infrastruktur för smart nätkommunikation, som omfattar hemområdesnätverk (HANS), affärsområdesnätverk (BANs), områdesnätverk (NANs), datacenter och system för integrering av substationsautomation [4]. Smarta nät distribuerar el mellan generatorer (både traditionell elproduktion och distribuerade produktionskällor) och slutanvändare (industri-, handels- och bostadskonsumenter) med hjälp av tvåvägsinformation för att kontrollera intelligenta apparater på konsumenternas sida genom att spara energiförbrukningen och minska de kostnader som blir följden, samtidigt som systemets tillförlitlighet och insyn i driften ökar. Med en kommunikationsinfrastruktur kan smarta mät-/övervakningstekniker ge realtidsenergiförbrukning som återkoppling och motsvara efterfrågan till/från allmännyttiga företag. Nätverksdrift centrum kan hämta dessa kundkraft användningsdata och on-line marknaden prissättning från datacenter för att optimera elproduktionen, distribution enligt energiförbrukningen. I ett komplext smart nätsystem, genom bred utbyggnad av nya komponenter för smarta nät och konvergens av befintlig informations- och kontrollteknik som tillämpas i det gamla elnätet, kan det erbjuda hållbar drift till både allmännyttiga företag och kunder [5]. Det kan också öka effektiviteten i äldre kraftproduktions-, överförings- och distributionssystem och penetrera användningen av ren förnybar energi genom att införa moderna kommunikationssystem i smarta nät. | • Design av smarta energimätare för smarta nät, där en smart girighet är nästa generations elnät med ett tvåvägsflöde av el och information, se REF för mer information om smarta nät. | 121,289 | A Survey on Smart Grid Communication Infrastructures: Motivations, Requirements and Challenges | {'venue': 'IEEE Communications Surveys & Tutorials', 'journal': 'IEEE Communications Surveys & Tutorials', 'mag_field_of_study': ['Computer Science', 'Engineering']} | 6,224 |
Abstrakt. I detta papper föreslår vi en ny algoritm som, med tanke på en källa robot S och en mål robot T, konfigurerar S till T. Både S och T är robotar som består av n atomer arrangerade i 2 × 2 × 2 metamoduler. Omkonfigureringen omfattar totalt O(n) atomoperationer (expandera, kontraktera, bifoga, ta bort) och utförs i O(n) parallella steg. Detta förbättrar på tidigare omkonfigurering algoritmer [1] [2] [3], som kräver O(n 2 ) parallella steg. Vår algoritm är på plats, det vill säga omkonfigureringen sker inom föreningen av de avgränsande lådorna av källan och målrobotar. Vi visar att algoritmen också kan implementeras på ett synkront, distribuerat sätt. | En linjär-tid parallellalgoritm för omkonfigurering inom den avgränsande rutan av källa och mål anges i REF. | 8,467,502 | Linear Reconfiguration of Cube-Style Modular Robots | {'venue': 'ISAAC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,225 |
Detta papper presenterar SO-Net, en permutation invariant arkitektur för djupt lärande med ordningslösa punktmoln. SO-Net modellerar den rumsliga fördelningen av punktmoln genom att bygga en självorganiserande karta (SOM). Baserat på SOM, utför SO-Net hierarkisk funktion extraktion på enskilda punkter och SOM noder, och slutligen representerar ingångspunkten moln av en enda funktion vektor. Det mottagliga fältet i nätverket kan justeras systematiskt genom att utföra point-to-node k närmaste grannsökning. I erkännande uppgifter som punktmoln rekonstruktion, klassificering, objekt del segmentering och form hämtning, vårt föreslagna nätverk visar prestanda som är liknande med eller bättre än state-of-the-art metoder. Dessutom är träningshastigheten betydligt snabbare än befintliga punktmolnsigenkänningsnätverk på grund av den föreslagna arkitekturens parallellisabilitet och enkelhet. Vår kod finns på projektets hemsida. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. | Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. REF föreslog att lära centroid poäng för funktionen aggregering genom en självorganiserande karta (som). | 3,934,562 | SO-Net: Self-Organizing Network for Point Cloud Analysis | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 6,226 |
Utvecklingen av högdimensionella generativa modeller har nyligen fått en stor ökning av intresset med införandet av variationella autokodrar och generativa kontrariska neurala nätverk. Olika varianter har föreslagits där det underliggande latenta utrymmet är strukturerat, till exempel baserat på attribut som beskriver de data som ska genereras. Vi fokuserar på ett särskilt problem där man strävar efter att generera prover som motsvarar ett antal objekt under olika vyer. Vi antar att fördelningen av data drivs av två oberoende latenta faktorer: innehållet, som representerar de inneboende egenskaperna hos ett objekt, och vyn, som står för inställningarna för en särskild observation av det objektet. Därför föreslår vi en generativ modell och en villkorlig variant som bygger på ett sådant lösligt latent utrymme. Detta tillvägagångssätt gör att vi kan generera realistiska prover som motsvarar olika objekt i en stor mängd olika vyer. Till skillnad från många multiview tillvägagångssätt, vår modell behöver inte någon övervakning av åsikterna utan bara på innehållet. Jämfört med andra villkorade generation metoder som främst bygger på binära eller kategoriska attribut, gör vi inget sådant antagande om faktorerna för variationer. Vår modell kan användas på problem med ett stort, potentiellt oändligt antal kategorier. Vi experimenterar det på fyra bilddataset där vi visar modellens effektivitet och dess förmåga att generalisera. | En annan GAN-baserad modell har föreslagits nyligen som kan användas för att kontrollera innehållet och stilen på de genererade bilderna REF. | 3,474,523 | Multi-View Data Generation Without View Supervision | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,227 |
Detta dokument syftar till att presentera tre nya metoder för färgdetektering och segmentering av vägskyltar. Bilderna tas av en digitalkamera monterad i en bil. RGB-avbildningarna omvandlas till IHLS-färgrymd, och nya metoder tillämpas för att extrahera färgerna på de vägskyltar som övervägs. Metoderna testas på hundratals utomhusbilder i olika ljusförhållanden, och de visar hög robusthet. Detta projekt är en del av den forskning som bedrivs vid Dalama universitet/Sverige inom ITS-området. | REF jämför tre segmenteringsmetoder för upptäckt av vägskyltar i färgrymden Förbättrad färgton, Luminans och mättnad (IHLS). | 11,640,148 | Color detection and segmentation for road and traffic signs | {'venue': 'IEEE Conference on Cybernetics and Intelligent Systems, 2004.', 'journal': 'IEEE Conference on Cybernetics and Intelligent Systems, 2004.', 'mag_field_of_study': ['Computer Science']} | 6,228 |
Prövning på textnivå är fortfarande en utmaning. Den nuvarande toppmoderna övergripande noggrannheten i relationstilldelningen är 55,73 %, uppnådd av Joty et al. (2013)...................................................................... Deras modell har dock en hög grad av tids komplexitet och kan därför inte tillämpas i praktiken. I detta arbete utvecklar vi en mycket snabbare modell vars tids komplexitet är linjär i antalet meningar. Vår modell har en girig nedifrån-och-upp-strategi, med två linjära CRF-kedjor som tillämpas i kaskad som lokala klassificeringar. För att förbättra rörledningens noggrannhet lägger vi till ytterligare begränsningar i Viterbi-avkodningen av den första CRF. Förutom effektivitet överträffar vår tolk också avsevärt den senaste tekniken. Dessutom kan vår nya metod för efterredigering, som ändrar ett fullt byggt träd genom att beakta information från beståndsdelar på högre nivåer, ytterligare förbättra noggrannheten. | Baserat på deras idé, REF ) utvecklat en liknande men mycket snabbare modell som antar en girig bottom-up strategi, med två linjär-kedje CRF tillämpas i kaskad som lokala klassificerare. | 15,548,746 | A Linear-Time Bottom-Up Discourse Parser with Constraints and Post-Editing | {'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,229 |
Vi undersöker problemet med att identifiera individuella länkmått i ett kommunikationsnät från end-to-end vägmätningar, under antagandet att länkmått är additiva och konstanta. För att unikt kunna identifiera kopplingsmåtten måste antalet linjärt oberoende mätvägar motsvara antalet länkar. Vårt bidrag är att karakterisera detta villkor i termer av nätet topologi och antalet / placeringen av monitorer, under begränsningen att mätvägar måste vara cykelfria. Våra huvudsakliga resultat är: (i) det är i allmänhet omöjligt att identifiera alla länkmått genom att använda två monitorer; (ii) inte desto mindre är mätvärden för alla inre länkar som inte inträffar till någon monitor identifierbara av två monitorer om topologin uppfyller en uppsättning nödvändiga och tillräckliga anslutningsvillkor; (iii) dessa villkor sträcker sig naturligt till ett nödvändigt och tillräckligt villkor för att identifiera alla länkmått med hjälp av tre eller fler monitorer. Vi visar att dessa villkor inte bara tillåter effektiva identififiability tester, men också gör det möjligt för en effektiv algoritm att placera det minsta antalet monitorer för att identifiera alla länkmått. Våra utvärderingar av både slumpmässiga och verkliga topologier visar att den föreslagna algoritmen uppnår identififiability med hjälp av ett mycket mindre antal monitorer än en baslinjelösning. | Eftersom körning längs cykler normalt är förbjuden i verkliga nätverk, ger REF de nödvändiga och tillräckliga villkoren på nätverkets topologi när endast cykelfria mätvägar används. | 7,978,261 | Identifiability of link metrics based on end-to-end path measurements | {'venue': "IMC '13", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,230 |
I detta dokument diskuterar vi design, implementering och användning av Termino, en storskalig terminologisk resurs för textbehandling. Att hantera terminologi är en svår men oundviklig uppgift för språkbehandlingstillämpningar, såsom informationsutdrag inom tekniska områden. Komplex, heterogen information måste lagras om ett stort antal termer. Samtidigt måste begreppet erkännande utföras i realistiska tider. Termino försöker att förena denna spänning genom att upprätthålla en flexibel, extensibel relationsdatabas för att lagra terminologisk information och sammanställa ändliga tillstånd maskiner från denna databas för att göra term uppslagning. Termino har utvecklats för biomedicinska tillämpningar, men dess allmänna design gör det möjligt att användas för termbehandling i alla domäner. | I Ref föreslogs ett storskaligt terminologisystem för lagring av termer, som sammanställs i finita lexikon för att utföra termuppslagning i texter. | 10,672,196 | A Large Scale Terminology Resource For Biomedical Text Processing | {'venue': 'Workshop On Linking Biological Literature, Ontologies And Databases', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,231 |
Detta dokument syftar till att utveckla ett integrerat system för co-parsing av kläder, för att tillsammans tolka en uppsättning klädbilder (osegmenterade men kommenterade med taggar) till semantiska konfigurationer. Vi föreslår ett datastyrt ramverk som består av två faser av slutledning. Den första fasen, kallad "image co-segmentation", itererar för att extrahera konsekventa regioner på bilder och tillsammans förfinar regionerna över alla bilder genom att använda exemplar-SVM (E-SVM) teknik [23]. I den andra fasen (dvs. "region co-märkning"), vi konstruerar en multi-image grafisk modell genom att ta segmenterade regioner som hörn, och införliva flera sammanhang av kläder konfiguration (t.ex., objekt plats och ömsesidiga interaktioner). Den gemensamma etiketttilldelningen kan lösas med hjälp av den effektiva Graph Cuts algoritmen. Förutom att utvärdera vårt ramverk för Fashionista-datasetet [30] konstruerar vi ett dataset kallat CCP bestående av 2098 högupplösta streetmodefoton för att demonstrera vårt systems prestanda. Vi uppnår 90.29% / 88.23% segmenteringsnoggrannhet och 65.52% / 63.89% igenkännandegrad på Fashionista respektive CCP-datauppsättningar, vilka är överlägsna jämfört med toppmoderna metoder. | Yang m.fl. I REF föreslogs ett datadrivet ramverk för samtolkning och segmentering av klädbilder. | 206,592,361 | Clothing Co-Parsing by Joint Image Segmentation and Labeling | {'venue': 'Computer Vision and Pattern Recognition (CVPR), 2014 IEEE Conference on , vol., no., pp.3182,3189, 23-28 June 2014', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,232 |
Bio metrics används för att känna igen en person effektivt co mpared till trad itional metoder för identifiering. I detta dokument föreslår vi en ansiktsigenkänning baserad på Single Tree Wavelet Transform (STWT) och Dual Tree Co mplex Wavelet transform (DTCWT). Ansiktsbilder är förbehandlade för att förbättra kvaliteten på bilden och ändra storlek. DTCWT och STWT appliceras på ansiktsbilder för att extrahera funktioner. Euclidian distence används för att jämföra funktioner i databasbild med testansiktsbilder för att beräkna prestandaparametrar. STWT:s prestanda jämförs med DTCWT. Det observeras att DTCWT ger bättre resultat jämfört med STWT-tekniken. | Sateeshkumar et al., REF tillämpat Single Tree Wavelet Transform (STWT) på förbehandlade bilder för att få fyra underband och extrahera ansiktsdrag. | 55,848,154 | Face Recognition based on STWT and DTCWT using two dimensional Q-shift Filters | {'venue': None, 'journal': 'International Journal of Engineering Research and Applications', 'mag_field_of_study': ['Computer Science']} | 6,233 |
För att kollektiva kommunikationsrutiner ska uppnå hög prestanda på olika plattformar måste de kunna anpassa sig till systemarkitekturen och använda olika algoritmer för olika situationer. Nuvarande message Passing Interface (MPI) implementationer, såsom MPICH och LAM/MPI, är inte fullt anpassningsbara till systemarkitekturen och kan inte uppnå hög prestanda på många plattformar. I detta dokument presenterar vi ett system som producerar effektiva kollektiva kommunikationsrutiner för MPI. Genom att automatiskt generera topologispecifika rutiner och använda ett empiriskt tillvägagångssätt för att välja de bästa implementationerna anpassar sig vårt system till en given plattform och konstruerar rutiner som är anpassade för plattformen. De experimentella resultaten visar att de avstämda rutinerna konsekvent uppnår hög prestanda på kluster med olika nätverkstopologier. | I REF lägger Faraj och Yuan in topologiinformationen för att generera topologispecifika kommunikationsrutiner, och väljer sedan det bästa genomförandet bland olika topologispecifika och topologiska omedvetna algoritmer med ett empiriskt tillvägagångssätt. | 1,681,899 | Automatic generation and tuning of MPI collective communication routines | {'venue': "ICS '05", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,234 |
Vi föreslår en algoritm för meta-lärande som är modellagnostisk, i den meningen att den är kompatibel med alla modeller som är utbildade med lutningsnedstigning och kan tillämpas på en mängd olika inlärningsproblem, inklusive klassificering, regression och förstärkningslärande. Målet med meta-lärande är att utbilda en modell på en mängd olika inlärningsuppgifter, så att den kan lösa nya inlärningsuppgifter med bara ett litet antal träningsprover. I vårt tillvägagångssätt tränas modellens parametrar explicit så att ett litet antal gradientsteg med en liten mängd träningsdata från en ny uppgift ger bra generaliseringsprestanda på den uppgiften. I själva verket tränar vår metod modellen för att vara lätt att finjustera. Vi visar att detta tillvägagångssätt leder till state-of-the-art prestanda på två få bilder klassificering riktmärken, ger goda resultat på få-shot regression, och påskyndar finjustering för policy gradient förstärkning lärande med neurala nätverk politik. | Bland dessa, Modell-Agnostic Meta-Learning (MAML) REF föreslås för att lösa få-shot lärande. | 6,719,686 | Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 6,235 |
Vi anser att problemet med kryptering av strukturerade data (t.ex. en webbgraf eller ett socialt nätverk) på ett sådant sätt att det kan vara effektivt och privat frågas. I detta syfte introducerar vi begreppet strukturerad kryptering som generaliserar tidigare arbete med symmetrisk sökbar kryptering (SSE) till fastställande av godtyckligt strukturerade data. I samband med molnlagring, strukturerad kryptering tillåter en klient att kryptera data utan att förlora förmågan att fråga och hämta den effektivt. En annan tillämpning, som vi introducerar i detta arbete, är problemet med kontrollerat utlämnande, där en dataägare vill ge tillgång till endast en del av en massiv datauppsättning. Vi föreslår en modell för strukturerad kryptering, en formell säkerhetsdefinition och flera effektiva konstruktioner. Vi presenterar system för att utföra frågor på två enkla typer av strukturerade data, särskilt leta upp frågor om matrisstrukturerade data, och söka frågor på märkta data. Vi visar sedan hur dessa kan användas för att konstruera effektiva system för kryptering av grafdata samtidigt som effektiva grannar och adjacency frågor. Slutligen anser vi att data som uppvisar en mer komplex struktur såsom märkta grafdata (t.ex. webbgrafer). Vi visar hur man krypterar denna typ av data för att utföra fokuserade subgraph-frågor, som används i flera webbsökningsalgoritmer. Vår konstruktion bygger på våra märkta data och grundläggande grafkrypteringssystem och ger insikt i hur flera enklare algoritmer kan kombineras för att generera ett effektivt system för mer komplexa frågor. | Chase och Al. REF föreslog en kryptering av strukturerade data och en säker metod för sökning av dessa data. | 2,522,177 | Structured encryption and controlled disclosure | {'venue': 'In ASIACRYPT 2010, LNCS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,236 |
....................................... Flerdomän-bild-till-bild-översättningsresultat på CelebA-datasetetet via överföring av kunskap som inhämtats från RaFD-datasetet. De första och sjätte kolumnerna visar indatabilder medan de återstående kolumnerna är bilder som genereras av StarGAN. Observera att bilderna genereras av en enda generator nätverk, och ansiktsuttryck etiketter som arg, glad, och rädd är från RaFD, inte CelebA. Nya studier har visat anmärkningsvärd framgång i bild-till-bild översättning för två domäner. Befintliga metoder har dock begränsad skalbarhet och robusthet i hanteringen av mer än två domäner, eftersom olika modeller bör byggas oberoende av varje par av bilddomäner. För att ta itu med denna begränsning föreslår vi StarGAN, en ny och skalbar metod som kan utföra bild-till-bild översättningar för flera domäner med endast en modell. En sådan enhetlig modellarkitektur av StarGAN möjliggör samtidig utbildning av flera datauppsättningar med olika domäner inom ett enda nätverk. Detta leder till StarGAN's överlägsna kvalitet av översatta bilder jämfört med befintliga modeller samt den nya förmågan att flexibelt översätta en ingångsbild till någon önskad måldomän. Vi demonstrerar empiriskt effektiviteten av vår strategi på en ansiktsattribut överföring och en ansiktsuttryck syntes uppgifter. | Nyligen föreslog REF StarGAN, en enhetlig ram för att översätta bilder i en multi-domäninställning genom en enda GAN-modell. | 9,417,016 | StarGAN: Unified Generative Adversarial Networks for Multi-Domain Image-to-Image Translation | {'venue': 'IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2018, pp. 8789-8797', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,238 |
Vi utökar SKIP-GRAM-modellen av Mikolov et al. (2013a) genom att beakta visuell information. Precis som SKIP-GRAM bygger våra multimodala modeller (MMSKIP-GRAM) vektorbaserade ordrepresentationer genom att lära sig förutsäga språkliga sammanhang i textkorpora. Men för en begränsad uppsättning ord, modellerna utsätts också för visuella representationer av de objekt som de betecknar (utdrag från naturliga bilder), och måste förutsäga språkliga och visuella egenskaper gemensamt. MMSKIP-GRAM-modellerna ger goda resultat på en mängd olika semantiska riktmärken. Dessutom, eftersom de sprider visuell information till alla ord, använder vi dem för att förbättra bildmärkning och hämtning i noll-shot setup, där testkoncepten aldrig ses under modellträning. Slutligen upptäcker MMSKIP-GRAM-modellerna spännande visuella egenskaper hos abstrakta ord, vilket banar väg för realistiska implementationer av förkroppsligade meningsteorier. | I REF lär sig språkmodellen att förutsäga visuella representationer tillsammans med de språkliga egenskaperna. | 6,618,571 | Combining Language and Vision with a Multimodal Skip-gram Model | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,239 |
Abstrakt. För att förbättra programvaruproduktiviteten använder programmerare ofta befintliga bibliotek eller ramverk genom att använda de metoder som anges i deras API för att bygga nya programvarusystem. Dessa API-metoder är dock ofta komplexa och inte väldokumenterade. För att bekanta sig med hur dessa API-metoder används utnyttjar programmerare ofta ett sökverktyg för källkod för att söka efter kodslippar som använder API-metoder av intresse. Men de returnerade kodsnuttar är ofta stora till antalet, och det enorma antalet snuttar sätter ett hinder för programmerare att hitta användbara sådana. För att hjälpa programmerare att övervinna denna barriär har vi utvecklat en API-användning gruvram och dess stödverktyg som kallas MAPO (Mining API-användning Mönster från öppna källarkiv) för gruv API användningsmönster automatiskt. En minerad mönster beskriver att i ett visst användningsscenario, vissa API metoder ofta kallas tillsammans och deras användningar följer vissa sekventiella regler. MAPO rekommenderar vidare de minerade API användningsmönster och deras tillhörande kod sippets på programmerares önskemål. Våra experimentella resultat visar att med dessa mönster MAPO hjälper programmerare att hitta användbara kodsnuttar mer effektivt än två toppmoderna kodsökningsverktyg. För att undersöka om MAPO kan hjälpa programmerare i programmeringsuppgifter genomförde vi ytterligare en empirisk studie. Resultaten visar att programmerare med hjälp av MAPO producerar kod med färre fel när de ställs inför relativt komplexa API-användningar, jämfört med att använda de två toppmoderna kodsökningsverktygen. | Till exempel, 2009 Zhong et al. REF presenterar en API-användning gruvram som kallas MAPO, som minerar och rekommenderar API-användningsmönster och kodslippar för givna förfrågningar från utvecklare. | 11,036,114 | MAPO: Mining and recommending API usage patterns | {'venue': 'In European Conference on Object-Oriented Programming (ECOOP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,240 |
Sammanfattning Som ett mått på regional betydelse i överensstämmelse med människans uppfattning om 3D-form bör maskstorleken vara baserad på lokal geometrisk information inom en maska men mer än så. Den senaste tidens forskning har visat att global hänsyn spelar en viktig roll för näthållbarheten. I detta dokument föreslås en lokal-till-global ram för beräkning av näthållbarhet där vi erbjuder nya lösningar för att lösa tre inneboende problem: 1) en algoritm baserad på statistik Laplacian som inte bara beräknar lokal hållbarhet, utan också underlättar den senare beräkningen av global soliditet; 2) en lokal-till-global metod baserad på sammanslagning och global distinktion för att beräkna global hållbarhet; 3) en ram för att integrera lokal och global hållbarhet. Experiment visar att vårt tillvägagångssätt effektivt kan upptäcka framträdande egenskaper som överensstämmer med mänskligt uppfattningsintresse. Vi erbjuder också jämförelser med befintliga state-of-the-art metoder för mesh saliency och visar förbättrade resultat som produceras genom vår metod. | Sång och al. I Ref föreslogs ett lokalt till globalt system för att integrera både lokal hälsa och den globala särarten hos särdragen. | 3,311,844 | Local-to-global mesh saliency | {'venue': 'The Visual Computer', 'journal': 'The Visual Computer', 'mag_field_of_study': ['Computer Science']} | 6,241 |
Artificiell intelligens har sett flera genombrott under de senaste åren, med spel som ofta tjänar som milstolpar. Ett gemensamt drag i dessa spel är att spelarna har perfekt information. Poker, det väsentliga spelet av ofullständig information, är en långvarig utmaning problem inom artificiell intelligens. Vi introducerar DeepStack, en algoritm för bristfälliga informationsinställningar. Den kombinerar rekursivt resonemang för att hantera informationsasymmetri, nedbrytning för att fokusera beräkningen på det relevanta beslutet, och en form av intuition som automatiskt lärs från självspel med hjälp av djupt lärande. I en studie med 44,000 händer poker, DeepStack besegrade, med statistisk betydelse, professionella pokerspelare i heads-up no-limit Texas hold'em. Tillvägagångssättet är teoretiskt sunt och visar sig producera strategier som är svårare att utnyttja än tidigare tillvägagångssätt. G ames har länge fungerat som riktmärken för framsteg inom artificiell intelligens (AI). Under de senaste två decennierna har datorprogram nått en prestanda som är högre än den som expertspelarna i partier som backgammon (1), pjäser (2), schack (3), Jeopardy! (4), Atari videospel (5), och gå (6). Dessa framgångar omfattar alla spel med informationssymmetri, där alla spelare har identisk information om det aktuella läget i spelet. Denna egenskap perfekt information är också i hjärtat av de algoritmer som aktiverade dessa framgångar, såsom lokal sökning under spel (7, 8). John von Neumann, grundare av modern spelteori och datapionjär, föreställde sig resonemang i spel utan perfekt information: " Det verkliga livet är inte så. Verkligt liv består av bluff, av lite bedrägeritaktik, av att fråga dig själv vad den andra mannen tror att jag tänker göra. Och det är vad spel handlar om i min teori" (9). Ett spel som fascinerade von Neumann var poker, där spelare delas ut privata kort och turas om att göra satsningar eller bluffa på att hålla den starkaste handen, ringa motståndarens satsningar, eller vika och ge upp på handen och de satsningar som redan lagts till potten. Poker är ett spel av ofullständig information, där spelarnas privata kort ger dem asymmetrisk information om läget i spelet. Heads-up no-limit Texas hold'em (HUNL) är en två-spelare version av poker där två kort först delas ut nedåt till varje spelare, och ytterligare kort delas ut face up i tre efterföljande rundor. Ingen gräns sätts på storleken på spelen, även om det finns en total gräns för det totala satsade beloppet i varje spel (10). AI-tekniker har tidigare visat framgång i det enklare spelet heads-up limit Texas hold'em, där alla satsningar är av en fast storlek, vilket resulterar i strax under 10 14 beslutspunkter (11). Som jämförelse, datorer har överskridit expert mänskliga prestanda i go (6), en perfekt information spel med cirka 10 170 beslutspunkter (12). Det bristfälliga informationsspelet HUNL är jämförbart i storlek och antalet beslutspunkter överstiger 10 160 (13). Ofullständig information spel kräver mer komplexa resonemang än liknande storlek perfekt information spel. Det korrekta beslutet vid en viss tidpunkt beror på sannolikheten fördelning över privat information som en motståndare innehar, vilket avslöjas genom motståndarens tidigare åtgärder. Det sätt på vilket denna information avslöjas beror dock på motståndarens kunskap om vår egen privata information och hur våra handlingar avslöjar den. Denna typ av rekursiva resonemang är varför man inte lätt kan resonera om spelsituationer i isolering, som i heuristiska sökmetoder som används i perfekt information spel. Konkurrenskraftiga AI-strategier i ofullständiga informationsspel resonerar vanligtvis om hela spelet och producerar en komplett strategi innan spelet börjar (14-16). Kontrafaktisk ångerminimering (CFR) (14, 17, 18 ) är en sådan teknik där ett program använder sig av självspel för att göra rekursiva resonemang genom att anpassa sin strategi mot sig själv över successiva iterationer. Om spelet är för stort för att lösas direkt, är det vanliga svaret att lösa ett mindre, abstrakt spel. För att spela det ursprungliga spelet, översätter man situationer och åtgärder från det ursprungliga spelet till det abstrakta spelet. Även om detta tillvägagångssätt gör det möjligt för program att resonera i ett spel som HUNL, det gör det genom att klämma HUNL 10 160 situationer ner till ordningen 10 14 abstrakta situationer. Sannolikt som ett resultat av denna förlust av information ligger sådana program bakom ett sakkunnigt mänskligt spel. Under 2015 förlorade datorprogrammet Claudico till ett team av professionella pokerspelare med en marginal på 91 milli-big blinds per match (mbb/g) (19), vilket är en "hög marginal för seger" (20). Dessutom visades det nyligen att abstraktionbaserade program från den årliga Computer Poker tävlingen har massiva brister (21). Fyra sådana program (inklusive toppprogram från 2016 tävlingen) utvärderades med hjälp av en lokal bästa svarsteknik som producerar en ungefärlig lägre gräns på hur mycket en strategi kan förlora. Alla fyra abstraktion-baserade program är beatable med mer än 3000 mbb/g, medan helt enkelt vik varje spel resulterar i 750 mbb/g. DeepStack har en helt annan inställning. Den fortsätter att använda CFR:s rekursiva resonemang för att hantera informationsasymmetri. Den beräknar dock inte och lagrar inte en fullständig strategi innan den spelas och har därför inget behov av explicit abstraktion. Den betraktar i stället varje enskild situation som den uppstår under leken, men inte isolerat. Den undviker resonemang om hela återstoden av spelet genom att ersätta beräkningen bortom ett visst djup med en snabb ungefärlig uppskattning. Denna uppskattning kan tänkas som DeepStack intuition: en magkänsla av värdet av att hålla eventuella privata kort i någon möjlig pokersituation. Slutligen måste DeepStacks intuition, ungefär som människans intuition, tränas. Vi tränar den med djupt lärande (22), med hjälp av exempel som genereras från slumpmässiga pokersituationer. Vi visar att DeepStack är teoretiskt sund, producerar strategier betydligt svårare att utnyttja än abstraktion-baserade tekniker, och besegrar professionella pokerspelare på HUNL med statistisk betydelse. DeepStack är en allmän algoritm för en stor klass av sekventiella imperfekta-informationsspel. För tydlighetens skull beskriver vi dess funktion i HUNL-spelet. Tillståndet i ett pokerspel kan delas upp i spelarnas privata informations-hands av två kort som delas ut nedåt-och det offentliga tillståndet, som består av korten som ligger ansikte upp på bordet och sekvensen av vadslagning åtgärder som görs av spelarna. Möjliga sekvenser av offentliga stater i spelet bildar ett offentligt träd, med varje offentlig stat har ett tillhörande offentligt underträd (Fig. 1).................................................................. En spelares strategi definierar en sannolikhetsfördelning över giltiga åtgärder för varje beslutspunkt, där en beslutspunkt är kombinationen av den offentliga staten och handen för den verkande spelaren. Med tanke på en spelares strategi, för varje offentlig stat kan man beräkna spelarens räckvidd, vilket är sannolikheten fördelning över spelarens möjliga händer med tanke på att den offentliga staten nås. Med tanke på strategier för båda spelarna, är nyttan för en av spelarna vid en terminal offentlig stat, där spelet har avslutats, en bilinjär funktion av båda spelarnas intervall med hjälp av en payoff matris som bestäms av reglerna i spelet. Den förväntade nyttan för en spelare i någon annan offentlig stat, inklusive den ursprungliga staten, är den förväntade nyttan över nåbar | Tidigare arbete har undersökt med hjälp av djup inlärning för att uppskatta värden på djupet gränsen för ett delspel i bristfällig information spel REF. | 1,586,260 | DeepStack: Expert-level artificial intelligence in heads-up no-limit poker | {'venue': None, 'journal': 'Science', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 6,242 |
Vi presenterar utrymmeseffektiva dataströmsalgoritmer för att approximera antalet trianglar i en graf upp till en faktor 1 +. Även om det kan visas att bestämma om en graf är triangelfri är inte möjligt i sub-linjärt utrymme, har en stor mängd arbete fokuserat på att minimera det utrymme som krävs i termer av antalet trianglar T (eller en lägre gräns på denna mängd) och andra parametrar inklusive antalet noder n och antalet kanter m. Två modeller är viktiga i litteraturen: den godtyckliga ordning modell där strömmen består av kanterna på grafen i godtycklig ordning och adjacency lista ordning modell där alla kanter incident till samma nod visas i följd. Vi förbättrar över toppmoderna resultat i båda modellerna. För adjacencylistans ordermodell visar vi att Õ( −2 m/ ε T ) utrymme är tillräckligt i ett pass och O( −2 m 3/2 /T ) utrymme är tillräckligt i två pass där Õ(·) notation undertrycker loggfaktorer. För den godtyckliga ordermodellen visar vi att Õ( −2 m/ ε T ) utrymme räcker med två pass och att O( −2 m 3/2 /T ) utrymme räcker med tre pass och orakle tillgång till graderna. Slutligen visar vi hur man effektivt kan genomföra "wedge sampling" metoden för triangeluppskattning i den godtyckliga ordermodellen. För att göra detta utvecklar vi den första algoritmen för p provtagning så att flera oberoende prover kan genereras med O(polylog n) uppdateringstid; denna primitiva är allmänt tillämplig och detta resultat kan vara av oberoende intresse. | McGregor m.fl. REF gav ett-pass O(m/ ❌ T )utrymme och två pass O(m 3/2 /T )-utrymme algoritm för triangelräkning problem i denna modell. | 14,054,150 | Better Algorithms for Counting Triangles in Data Streams | {'venue': "PODS '16", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 6,243 |
ABSTRACT Energy skörd (EH) är en framträdande metod för att förlänga driftstiden för energibegränsade trådlösa nät. Genom att integrera EH i trådlös kommunikation kan samma spektrum användas genom samtidig trådlös information och kraftöverföring (SWIPT) utan att det påverkar tjänsternas kvalitet. I detta dokument föreslår vi en gemensam subcarrier- och kraftfördelningsbaserad SWIPT-system i system för ortogonal frekvensdivision multiplexing (OFDM). Specifikt delas de mottagna ODMM-underredarna upp i två grupper. En bråkdel av de mottagna undertransportörerna tilldelas för att bilda en grupp, som används för avkodning av information (ID), och de återstående undertransportörerna utgör den andra gruppen, som används för energiupptagning. Därför behövs ingen splitter vid mottagaren. Ett gemensamt subcarrier- och kraftfördelningsproblem är formulerat för att maximera den skördade energin, med förbehåll för ID-begränsningen. Genom att använda den dubbla nedbrytningsmetoden, föreslås en effektiv algoritm för att lösa detta gemensamma resursfördelningsproblem. INDEX TERMS Samtidig trådlös information och kraftöverföring (SWIPT), subcarrier allocation, effektallokering, ortogonal frekvensdivision multiplexing (OFDM). | För att maximera den skördade energin, en gemensam subcarrier och makt tilldelning problem formulerades med hjälp av den dubbla nedbrytningsmetoden REF. | 12,773,530 | Simultaneous Wireless Information and Power Transfer Based on Joint Subcarrier and Power Allocation in OFDM Systems | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 6,244 |
Abstract-Utvecklare litar i allt högre grad på API tutorials för att underlätta mjukvaruutveckling. Det är dock fortfarande en utmanande uppgift för dem att upptäcka relevanta API tutorial fragment som förklarar obekanta API:er. Befintliga övervakade metoder lider av den tunga bördan av att manuellt förbereda corpus-specifika kommenterade data och funktioner. I denna studie föreslår vi en ny oövervakad metod, nämligen Fragment Recommendeder för API:er med PageRank och Topic modell (FRAPT). FRAPT kan mycket väl ta itu med två huvudutmaningar som ligger i uppgiften och effektivt fastställa relevanta handledningsfragment för API:er. I FRAPT, en Fragment Parser föreslås att identifiera API:er i handledning fragment och ersätta tvetydiga pronomen och variabler med relaterade ontologier och API-namn, för att ta itu med pronomen och variabel upplösning utmaning. Sedan använder ett Fragment Filter en uppsättning icke-förklarande detektionsregler för att ta bort icke-förklarande fragment, och därmed ta itu med den icke-förklarande fragment identifiering utmaning. Slutligen uppnås två korrelationspoäng och aggregeras för att bestämma relevanta fragment för API:er, genom att tillämpa både ämnesmodell och PageRank algoritm på de bevarade fragmenten. Omfattande experiment över två offentligt öppna tutorial corpora visar att FRAPT förbättrar den senaste metoden med 8,77 % respektive 12,32 % när det gäller F-åtgärd. Effektiviteten hos nyckelkomponenterna i FRAPT är också validerad. | De förfinade senare sitt arbete REF genom att identifiera API:er i tutorialfragment och ersätta tvetydiga pronomen och variabler med relaterade ontologier och API-namn. | 18,892,098 | An Unsupervised Approach for Discovering Relevant Tutorial Fragments for APIs | {'venue': '2017 IEEE/ACM 39th International Conference on Software Engineering (ICSE)', 'journal': '2017 IEEE/ACM 39th International Conference on Software Engineering (ICSE)', 'mag_field_of_study': ['Computer Science']} | 6,245 |
Bland den omfattande information som finns tillgänglig på webben fångar sociala medier vad människor för närvarande ägnar uppmärksamhet åt och hur de känner för vissa ämnen. Medvetenhet om sådana trender spelar en avgörande roll i multimediasystem som t.ex. rekommendationer om trender och automatiskt val av ordförråd för system för upptäckt av videokoncept. Korrekt utnyttjande av trendiga ämnen kräver en bättre förståelse av deras olika egenskaper i olika sociala medieströmmar. I detta syfte presenterar vi den första omfattande studien över tre stora online- och sociala medieströmmar, Twitter, Google och Wikipedia, som täcker tusentals trender under en observationsperiod på ett helt år. Våra resultat indikerar att man beroende på sina krav inte nödvändigtvis behöver vända sig till Twitter för att få information om aktuella händelser och att vissa medieströmmar starkt betonar innehåll i specifika kategorier. Som vårt andra viktiga bidrag presenterar vi ytterligare en ny strategi för den utmanande uppgiften att förutse livscykeln för trendiga ämnen i samma ögonblick som de dyker upp. Vårt helt automatiserade tillvägagångssätt är baserat på en närmaste granne prognos teknik utnyttjar vårt antagande att semantiskt liknande ämnen uppvisar liknande beteende. Vi visar på ett storskaligt dataset av Wikipedia sida visa statistik att prognoser genom det föreslagna tillvägagångssättet är cirka 9-48k vyer närmare den faktiska visningsstatistiken jämfört med baslinjemetoder och uppnå en genomsnittlig procentandel fel på 45-19 % för tidsperioder på upp till 14 dagar. | Det finns en omfattande studie med dessa tre stora online och sociala medier ström REF. | 8,650,896 | Analysis and forecasting of trending topics in online media streams | {'venue': "MM '13", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']} | 6,246 |
En av de viktiga typerna av information på webben är de åsikter som uttrycks i användargenererat innehåll, t.ex. kundrecensioner av produkter, foruminlägg och bloggar. I detta papper fokuserar vi på kundrecensioner av produkter. I synnerhet studerar vi problemet med att bestämma semantiska inriktningar (positiva, negativa eller neutrala) av åsikter om produktegenskaper i recensioner. Detta problem har många tillämpningar, t.ex. åsiktsutvinning, sammanfattning och sökning. De flesta befintliga tekniker använder en lista över åsikter (bärande) ord (även kallad åsikt lexikon) för ändamålet. Opinionsord är ord som uttrycker önskvärda (t.ex. stora, fantastiska, etc.) eller oönskade (t.ex. dåliga, fattiga etc.) tillstånd. Dessa tillvägagångssätt har emellertid alla stora brister. I detta dokument föreslår vi ett holistiskt lexikonbaserat tillvägagångssätt för att lösa problemet genom att utnyttja externa bevis och språkliga konventioner för naturliga språkuttryck. Detta tillvägagångssätt gör det möjligt för systemet att hantera åsiktsord som är kontextberoende, vilket orsakar stora svårigheter för befintliga algoritmer. Den behandlar också många speciella ord, fraser och språkkonstruktioner som påverkar åsikter utifrån deras språkliga mönster. Den har också en effektiv funktion för att samla flera motstridiga meningar i en mening. Ett system, som kallas opinionsbildare, som bygger på den föreslagna tekniken har införts. Experimentella resultat med hjälp av ett referensvärde för produktgranskningsdata och några ytterligare utvärderingar visar att den föreslagna tekniken är mycket effektiv. Det överträffar befintliga metoder avsevärt. | Använd ett holistiskt lexikonbaserat tillvägagångssätt för att lösa problemet genom att utnyttja externa bevis och språkliga konventioner av naturliga språkuttryck REF. | 12,442,299 | A holistic lexicon-based approach to opinion mining | {'venue': "WSDM '08", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,247 |
Abstract-Vi beskriver ett nytt och praktiskt aktivitetsigenkänningssystem för dynamiska och komplexa medicinska inställningar med endast passiv RFID-teknik. Vår strategi för aktivitetsigenkänning bygger på användning av objekt som är specifika för en viss aktivitet. Statusen för objektanvändning detekteras från RFID-data och aktiviteterna förutspås utifrån statusen för användning av olika objekt. Vi märkte 10 objekt i ett traumarum på en akutavdelning och registrerade RFID-data för 10 faktiska trauma återupplivningar. Mer än 20.000 sekunders data samlades in och användes för analys. Systemet uppnådde en total noggrannhet på 96 % med 0,74 F-poäng för att upptäcka användning av 10 vanliga återupplivningsobjekt och 95 % noggrannhet med 0,30 F-poäng för aktivitetsigenkänning av 10 medicinska aktiviteter. | Användningen av specialiserade objekt för att utföra komplexa aktiviteter gav grunden för aktivitetsigenkänning REF. | 25,711,793 | Activity recognition for medical teamwork based on passive RFID | {'venue': '2016 IEEE International Conference on RFID (RFID)', 'journal': '2016 IEEE International Conference on RFID (RFID)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']} | 6,248 |
I det här dokumentet introducerar vi problemet med visuell semantisk rollmärkning: med en bild vill vi upptäcka människor som gör handlingar och lokalisera objekten för interaktion. Klassiska tillvägagångssätt för åtgärdsigenkänning antingen studera uppgiften att åtgärdsklassificering på bild- eller videoklippsnivå eller i bästa fall producera en avgränsande ruta runt personen som gör åtgärden. Vi anser att ett sådant resultat är otillräckligt och en fullständig förståelse kan bara komma när vi kan associera objekt i scenen till de olika semantiska rollerna i handlingen. För att möjliggöra framsteg mot detta mål, vi kommentera en datauppsättning av 16K-personer instanser i 10K-bilder med åtgärder de gör och associera objekt i scenen med olika semantiska roller för varje åtgärd. Slutligen tillhandahåller vi en uppsättning basalalgoritmer för denna uppgift och analyserar fellägen som ger anvisningar för framtida arbete. | REF introducerade denna uppgift som visuell semantisk rollmärkning. | 18,592,133 | Visual Semantic Role Labeling | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,249 |
Forskning vid skärningspunkten mellan maskininlärning, programmeringsspråk och programvaruteknik har nyligen tagit viktiga steg i att föreslå lärbara probabilistiska modeller av källkod som utnyttjar överflöd av mönster av kod. I den här artikeln undersöker vi det här arbetet. Vi kontrasterar programmeringsspråk mot naturliga språk och diskuterar hur dessa likheter och skillnader driver utformningen av probabilistiska modeller. Vi presenterar en taxonomi baserad på de underliggande designprinciperna för varje modell och använder den för att navigera i litteraturen. Sedan går vi igenom hur forskarna har anpassat dessa modeller till applikationsområden och diskuterat övergripande och tillämpningsspecifika utmaningar och möjligheter. M. Allamanis m.fl. Forskningen på detta område har dominerats av det formella, eller logiska, tillvägagångssättet. Utövare av detta tillvägagångssätt anser att, eftersom programvara är konstruerad i matematiskt väldefinierade programmeringsspråk, programvaruverktyg kan utformas i rent formella termer. Utformningen av programvaruverktyg är att närma sig med hjälp av formella metoder för definition, abstraktion, och avdrag. Egenskaper hos verktyg som byggts på detta sätt bör bevisas med hjälp av rigorösa bevistekniker såsom induktion över diskreta strukturer. Denna logik-deduktiva tillvägagångssätt har enorm dragningskraft i programmeringsspråk forskning, eftersom den håller löftet om att bevisa fakta och egenskaper i programmet. Många eleganta och kraftfulla abstraktioner, definitioner, algoritmer och bevistekniker har utvecklats, vilket har lett till viktiga praktiska verktyg för programverifiering, felsökning och refaktoring [24, 42, 45]. Det bör betonas att detta är teori-första angreppssätt. Programvarukonstruktioner betraktas främst som matematiska objekt, och vid utvärdering av programvaruverktyg som byggts med detta tillvägagångssätt, är elegansen och stelheten i definitioner, abstraktioner och formella bevis-av Properties av dominerande betydelse. De faktiska typerna av användning av programvara konstruerar, i praktiken, blir relevanta senare, i fallstudier, som vanligtvis åtföljer presentationer i denna typ av arbete. På senare tid har det uppstått en annan värdefull resurs: den stora och växande mängden framgångsrika, allmänt använda mjukvarusystem med öppen källkod. Programvara med öppen källkod såsom Linux, MySQL, Django, Ant och OpenEJB har blivit allmänt förekommande. Dessa system exponerar offentligt inte bara källkod utan även metadata om upphovsmannaskap, felrättelser och granskningsprocesser. Omfattningen av tillgängliga data är massiv: miljarder tokens av kod och miljontals fall av metadata, såsom ändringar, buggfixar, och kodrecensioner ("big code"). Tillgången till "stor kod" tyder på en ny, datadriven strategi för att utveckla programvaruverktyg: Varför inte låta de statistiska distributionsegenskaperna, bedömda över stora och representativa program corpora, också påverka utformningen av utvecklingsverktyg? Så snarare än att prestera bra i värsta fall, eller i fallstudier, våra verktyg kan prestera bra i de flesta fall, vilket ger större fördelar i förväntan. Attraktionskraften av detta tillvägagångssätt påminner om tidigare arbete inom dataarkitektur: Amdahls lag [15], till exempel, säger oss att fokusera på det vanliga fallet. Detta motiverar ett liknande hopp för utvecklingsverktyg, att verktyg för programvaruutveckling och programanalys kan förbättras genom att fokusera på de vanliga fallen med hjälp av en finkornig uppskattning av den statistiska fördelningen av kod. I grund och botten är förhoppningen att analysera texten i tusentals välskrivna programvaruprojekt kan avslöja mönster som delvis karakteriserar programvara som är tillförlitlig, lättläst och lätt att underhålla. Maskininlärningens löfte och kraft vilar på dess förmåga att generalisera från exempel och hantera buller. Hittills har forskning inom programvaruteknik (SE) och programmeringsspråk (PL) i stor utsträckning fokuserat på att använda maskininlärningsteknik (ML) som svarta lådor för att ersätta heuristik och hitta funktioner, ibland utan att uppskatta subtiliteterna i de antaganden som dessa tekniker gör. Ett viktigt bidrag till denna undersökning är att belysa dessa antaganden och deras konsekvenser. Precis som forskningen om naturligt språk (NLP) ändrade fokus från sköra regelbaserade expertsystem som inte kunde hantera mångfalden av verkliga data till statistiska metoder [99], bör SE/PL göra samma övergång, vilket utökar traditionella metoder som endast beaktar den formella strukturen av program med information om de statistiska egenskaperna hos kod. En undersökning av maskininlärning för stor kod och naturlighet 81.3 en "påse av ord" representation av kod, modellering kod med hjälp av sekvenser, träd, och kontinuerliga representationer. Vi beskriver ett brett spektrum av nya applikationer, allt från recommender-system, felsökning, programanalys och programsyntes. Den stora mängden arbete med semantisk tolkning [138] är inte fokus för denna undersökning, men vi inkluderar några metoder som utdatakodar i allmänna programmeringsspråk (snarare än noggrant utformade domänspecifika språk). Denna översyn är strukturerad enligt följande. Vi diskuterar först de olika egenskaperna hos naturligt språk och källkod för att motivera de designbeslut som ingår i maskininlärning modeller av kod (avsnitt 3). Vi inför sedan en taxonomi av probabilistiska modeller av källkod (avsnitt 4). Därefter beskriver vi programutvecklings- och programmeringsspråktillämpningarna för probabilistiska källkodsmodeller (avsnitt 5). Slutligen nämner vi några överlappande forskningsområden (avsnitt 7), och vi diskuterar utmaningar och intressanta framtida riktningar (avsnitt 6). Relaterade recensioner och andra resurser. Det har gjorts korta översikter som sammanfattar framstegen och visionen för forskningsområdet, både från programvaruteknik [52] och programmeringsspråk perspektiv [28, 195]. Men ingen av dessa artiklar kan betraktas som omfattande litteraturgenomgångar, vilket är syftet med detta arbete. Ernst [57] diskuterar lovande områden för att tillämpa behandling av naturligt språk på programvaruutveckling, inklusive felmeddelanden, variabelnamn, kodkommentarer och användarfrågor. Vissa resurser, datauppsättningar och koder finns på http://learnbigcode.github.io/. En online-version av det arbete som granskas här-som vi kommer att hålla uppdaterad genom att acceptera externa bidrag-kan hittas på https://ml4code.github.io. Många aspekter av kod, såsom namn, formatering, den lexikala ordningen av metoder, och så vidare, har ingen inverkan på program semantik. Det är just därför vi abstraherar dem i de flesta programanalyser. Men varför skulle då de statistiska egenskaperna hos kodsubstansen över huvud taget? För att förklara detta föreslog vi nyligen en hypotes, kallad naturalnesshypotesen. Inspirationen till naturalnesshypotesen kan spåras tillbaka till begreppet "litterär programmering" av D. Knuth, som utgår från insikten att programmering är en form av mänsklig kommunikation: "Låt oss ändra vår traditionella inställning till uppbyggnaden av program: Istället för att föreställa oss att vår huvuduppgift är att instruera en dator vad man ska göra, låt oss koncentrera oss snarare på att förklara för människor vad vi vill att en dator ska göra. .. " [105].................................................................................... Naturalness hypotesen, alltså, hävdar att Naturalness hypotesen. Programvara är en form av mänsklig kommunikation; programvara corpora har liknande statistiska egenskaper som naturligt språk corpora; och dessa egenskaper kan utnyttjas för att bygga bättre programvarutekniska verktyg. Utnyttjandet av statistiken över mänsklig kommunikation är en mogen och effektiv teknik, med många tillämpningar [99]. Stor korpora av mänsklig kommunikation, viz. naturligt språk corpora, har studerats ingående, och mycket förfinade statistiska modeller av dessa corpora har använts till stor effekt i taligenkänning, översättning, felkorrigering, och så vidare. Naturalness hypotesen hävdar att, eftersom kodning är en handling av kommunikation, kan man förvänta sig att stora kodkorpora har rika mönster, som liknar naturligt språk, vilket gör det möjligt för programvarutekniska verktyg att utnyttja probabilistiska ML-modeller. De första empiriska bevisen för denna hypotes, som visar att modeller som ursprungligen utvecklades för naturligt språk var förvånansvärt effektiva för källkod, presenterades av Hindle et al. [87, 88]................................................... Mer bevis och många tillämpningar av detta tillvägagångssätt har följts, som är föremål för denna översyn. Naturalnesshypotesen inspirerar därför målet att tillämpa maskininlärningsmetoder för att skapa probabilistiska källkodsmodeller som lär sig hur utvecklare naturligt skriver och använder kod. Dessa modeller kan användas för att förstärka befintliga verktyg med statistisk information och möjliggöra nya maskininlärning-baserade programvarutekniska verktyg, såsom recommender system och program 81.4 M. Allamanis et al. Analyser. På en hög nivå, statistiska metoder tillåter ett system för att göra hypoteser, tillsammans med probabilistiska förtroende värden, om vad en utvecklare kan vilja göra härnäst eller vilka formella egenskaper kan vara sant för en bit av kod. Probabilistiska metoder ger också naturliga sätt att lära sig korrespondens mellan kod och andra typer av dokument, såsom krav, blogginlägg, kommentarer, och så på sådana korrespondenser kommer alltid att vara osäker, eftersom naturligt språk är tvetydigt, och därför det kvantitativa mått på förtroende som tillhandahålls av sannolikheter är särskilt naturligt. Som vi diskuterar i avsnitt 5 skulle man kunna gå så långt som att hävda att nästan alla områden inom programvaruteknik och programmeringsspråkforskning har möjligheter att utnyttja statistiska egenskaper. Även om "naturlighetshypotesen" kanske inte verkar förvånande, bör man inse den grundläggande orsaken till "naturlighet". Naturlighet i kod verkar ha en stark koppling till det faktum att utvecklare föredrar att skriva [5] och läsa [85] kod som är konventionell, idiomatisk, och bekant, eftersom det hjälper till att förstå och underhålla mjukvarusystem. Kod som tar välbekanta former är öppnare, eftersom dess betydelse är lättare att förstå för en erfaren läsare. Således leder naturalness hypotes sömlöst till en "kod förutsägbarhet" begrepp, vilket tyder på att kod artefakter-från enkla token sekvenser till formella verifiering uttalanden-innehålla användbara återkommande och förutsägbara mönster som kan utnyttjas. "Naturlighet" och "stor kod" bör ses som exempel på ett mer allmänt begrepp att det finns exploaterbar regelbundenhet över mänskligt skriven kod som kan "absorberas" och generaliseras av en lärande komponent som kan överföra sin kunskap och probabilistiskt resonera om ny kod. I den här artikeln granskas det framväxande området för maskininlärning och statistiska metoder för bearbetning av naturligt språk som tillämpas på källkod. Vi fokuserar på probabilistiska modeller av kod, det vill säga metoder som uppskattar en distribution över alla möjliga källfiler. Maskininlärning i probabilistiska modeller har sett en bred tillämpning genom artificiell intelligens, inklusive behandling av naturligt språk, robotik och datorseende, på grund av dess förmåga att hantera osäkerhet och lära sig inför bullriga data. Man kan rimligtvis fråga varför det är nödvändigt att hantera osäkerhet och buller i programutvecklingsverktyg, när i många fall det program som ska analyseras är känt (det finns ingen osäkerhet om vad programmeraren har skrivit) och är deterministiskt. Faktum är att det finns flera intressanta motiv för att införliva probabilistisk modellering i maskininlärningsmetoder för programvaruutveckling. För det första erbjuder probabilistiska metoder en principiell metod för att hantera osäkerhet och sammansmältning av flera, möjligen tvetydiga, informationskällor. För det andra ger probabilistiska modeller ett naturligt ramverk för att koppla förkunskaper till data-tillhandahålla ett naturligt ramverk för att designa metoder baserade på abstraktioner av statistiska egenskaper kodkorpora. I synnerhet vill vi ofta dra slutsatser om samband mellan källkod och text i naturligt språk, såsom kommentarer, felrapporter, kravdokument, dokumentation, sökfrågor och så vidare. Eftersom texten i naturligt språk är tvetydig, är det användbart att kvantifiera osäkerheten i överensstämmelsen mellan kod och text. Slutligen, när förutsäga programegenskaper, sannolikheter ger ett sätt att slappna av strikta krav onsoundness: Vi kan söka osunda metoder som förutsäger programegenskaper baserat på statistiska mönster i koden, med sannolikheter som ett sätt att kvantifiera metodens förtroende för dess förutsägelser. Programmeringsspråk minskar klyftan mellan datorer och det mänskliga sinnet: De konstruerar välsmakande abstraktioner ur en mängd små statsövergångar. Källkoden har två målgrupper och är i sig bimodal: Den kommunicerar längs två kanaler, en med människor och en med datorer. Människor måste förstå koden för att läsa och skriva den; datorer måste kunna köra den. Kodens dubbelmodalitet driver fram likheterna och skillnaderna mellan den och texten. Nedan diskuterar vi dessa likheter och skillnader med framåtriktade tecken på hur de har utnyttjats, | Forskning om maskininlärning på källkod är ett mycket aktivt område REF. Men vad vi vet finns det inget arbete med att använda den för att reparera formateringsfel. | 207,591,052 | A Survey of Machine Learning for Big Code and Naturalness | {'venue': 'CSUR', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,250 |
Abstract-Point moln har dykt upp som en lovande lösning för uppslukande representation av 3D-innehåll. I detta dokument föreslås en interaktiv subjektiv kvalitetsbedömning för punktmoln. Kvalitetsbedömning av geometrisk information i punktmoln som är föremål för realistiska typer av nedbrytningar utförs och korrelation mellan state-of-the-art objektiva mätvärden och marksanning subjektiva poäng undersöks. Preliminära resultat tyder på att det finns ett behov av mer lämpliga objektiva mått, eftersom de nuvarande lösningarna inte kan ge exakta förutsägelser om kvalitet för alla typer av nedbrytningar och innehåll. | I REF föreslås en interaktiv subjektiv utvärdering av punktmolnets geometri. | 1,372,213 | On subjective and objective quality evaluation of point cloud geometry | {'venue': '2017 Ninth International Conference on Quality of Multimedia Experience (QoMEX)', 'journal': '2017 Ninth International Conference on Quality of Multimedia Experience (QoMEX)', 'mag_field_of_study': ['Computer Science']} | 6,251 |
Maskininlärning har redan utnyttjats som ett användbart verktyg för att upptäcka skadliga körbara filer. Data hämtas från malware prover, såsom rubrikfält, instruktionssekvenser, eller till och med rå bytes, utnyttjas för att lära sig modeller som diskriminerar mellan godartade och skadliga program. Det har dock också visat sig att maskininlärning och djupa neurala nätverk kan luras av undanflyktsattacker (även kallade kontradiktoriska exempel), dvs små förändringar av ingångsdata som orsakar felklassificering vid testtillfället. I detta arbete undersöker vi sårbarheten av malware detektionsmetoder som använder djupa nätverk för att lära sig av råa bytes. Vi föreslår en gradientbaserad attack som är kapabel att undvika ett nyligen föreslagna djupt nätverk som passar för detta ändamål genom att bara ändra några specifika byte i slutet av varje malware prov, samtidigt som dess påträngande funktionalitet. Lovande resultat visar att våra motstående malware binärer undvika målnätverket med hög sannolikhet, även om mindre än 1% av deras byte ändras. | Vidare, Kolosnjaji et al. REF undersökte sårbarheten för malware detektionsmetoder som använder djupa nätverk för att lära sig från rad bytes och föreslog en gradient-baserad attack som kunde undvika upptäckt genom att ändra några byte i slutet av varje malware fil. | 3,884,704 | Adversarial Malware Binaries: Evading Deep Learning for Malware Detection in Executables | {'venue': '2018 26th European Signal Processing Conference (EUSIPCO)', 'journal': '2018 26th European Signal Processing Conference (EUSIPCO)', 'mag_field_of_study': ['Computer Science']} | 6,252 |
Abstract-Vi föreslår en enkel men effektiv L 0 -regulariserade tidigare baserat på intensitet och lutning för text bild deblurring. Den föreslagna bilden tidigare bygger på distinkta egenskaper hos textavbildningar, med vilken vi utvecklar en effektiv optimeringsalgoritm för att generera tillförlitliga mellanliggande resultat för kärnuppskattning. Den föreslagna algoritmen kräver inte några heuristiska metoder för val av kant, som är avgörande för de toppmoderna kantbaserade deblurringsmetoderna. Vi diskuterar relationen med andra kantbaserade deblurringsmetoder och presenterar hur man väljer framträdande kanter mer huvudsakligen. För den sista latenta bild restaurering steg, presenterar vi en effektiv metod för att ta bort artefakter för bättre deblurerade resultat. Vi visar den föreslagna algoritmen kan utvidgas till deblur naturliga bilder med komplexa scener och låg belysning, samt icke-uniform deblurring. Experimentella resultat visar att den föreslagna algoritmen presterar gynnsamt mot de senaste avbildningsmetoderna. | - Pan et al. - Vad är det? REF introducerar L 0 -regulariserade priors på både intensitet och bildgradienter för textbild deblurring som textbilder vanligtvis innehåller nästan enhetlig intensitet. | 4,048,268 | $L_0$ -Regularized Intensity and Gradient Prior for Deblurring Text Images and Beyond | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 6,253 |
Abstrakt. Releasehantering spelar en viktig roll i alla programvaruprojekt eftersom den handlar om leverans av en produkt av hög kvalitet till slutanvändare. Detta papper utforskar release praxis som används av volontär fri programvara projekt och visar problem som uppstår. En utmaning som har identifierats är att samordna ett distribuerat team av volontärer för att anpassa deras arbete för en frigivning. | REF finner problem och metoder för utgivningshantering i projekt för fri programvara. | 1,498,849 | Release Management in Free Software Projects: Practices and Problems | {'venue': 'OSS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,254 |
ontrol-system blir alltmer komplexa ur både kontroll- och datavetenskapliga perspektiv. Idag innehåller även till synes enkla inbyggda styrsystem ofta en multitasking realtidskärna och stödnätverk. Samtidigt kräver marknaden att kostnaderna för systemet hålls på ett minimum. För optimal användning av datorresurser måste kontrollalgoritmen och kontrollprogramvarans utformning beaktas samtidigt. Därför behövs nya datorbaserade verktyg för realtids- och kontrollsamdesign. Många datorstyrda system är distribuerade system som består av datornoder och ett kommunikationsnät som förbinder de olika systemen. Det är inte ovanligt att sensorn, ställdonet och styrberäkningarna befinner sig på olika noder, till exempel i fordonssystem. Detta ger upphov till nätverksanslutna kontrollslingor (se [1] ). Inom de enskilda noderna genomförs styrenheterna ofta som en eller flera uppgifter på en mikroprocessor med ett operativsystem i realtid. Ofta innehåller mikroprocessorn även uppgifter för andra funktioner (t.ex. kommunikations- och användargränssnitt). Operativsystemet använder vanligtvis multiprogrammering för att multiplexa utförandet av de olika uppgifterna. CPU-tiden och kommunikationsbandbredden kan därför ses som delade resurser för vilka uppgifterna konkurrerar. Digital kontrollteori förutsätter normalt likvärdiga provtagningsintervall och en försumbar eller konstant kontrollfördröjning från provtagning till aktivering. Dock gäller följande: | • TrueTime: Detta MATLAB/Simulink-baserade verktyg REF möjliggör simulering av temporalt beteende hos controller-aktiviteter som utförs på en multitasking-kärna i realtid. | 27,959,311 | How does control timing affect performance? Analysis and simulation of timing using Jitterbug and TrueTime | {'venue': 'IEEE Control Systems', 'journal': 'IEEE Control Systems', 'mag_field_of_study': ['Computer Science']} | 6,255 |
Abstrakt. I detta papper undersöks användningen av Support Vector Machines (SVMs) för att lära sig textklassificerare från exempel. Den analyserar de särskilda egenskaperna hos lärande med textdata och identifierar varför SVMs är lämpliga för denna uppgift. Empiriska resultat stöder de teoretiska rönen. Små och medelstora företag uppnår betydande förbättringar jämfört med de metoder som för närvarande fungerar bäst och beter sig robust över en mängd olika inlärningsuppgifter. Dessutom är de helt automatiska, vilket eliminerar behovet av manuell parameterinställning. Med den snabba tillväxten av information online, text kategorisering har blivit en av de viktigaste teknikerna för att hantera och organisera textdata. Text kategorisering tekniker används för att klassificera nyheter, för att hitta intressant information om WWW, och för att vägleda en användares sökning genom hypertext. Eftersom det är svårt och tidskrävande att bygga textklassificerare för hand, är det fördelaktigt att lära sig klassificerare från exempel. I detta dokument kommer jag att undersöka och identifiera fördelarna med Support Vector Machines (SVMs) för textkategorisering. SVMs är en ny inlärningsmetod som introduceras av V. Vapnik et al. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. De är välgrundade i termer av beräkningsteori och mycket öppna för teoretisk förståelse och analys. Efter att ha granskat standardfunktionen vektor representation av text, kommer jag att identifiera de särskilda egenskaperna hos text i denna representation i avsnitt 4. Jag kommer att hävda att SVM är mycket väl lämpade för lärande i denna miljö. De empiriska resultaten i avsnitt 5 kommer att stödja detta påstående. Jämfört med de senaste metoderna uppvisar SVM betydande resultatvinster. I motsats till konventionella textklassificeringsmetoder kommer SVM dessutom att visa sig vara mycket robusta, vilket eliminerar behovet av dyr parameterinställning. Syftet med textkategoriseringen är att klassificera dokument i ett fast antal fördefinierade kategorier. Varje dokument kan vara i flera, exakt en, eller ingen kategori alls. Med hjälp av maskininlärning är målet att lära sig klassificerare | Huvudkärnan i detta arbete är användningen av Support Vector Machines (SVM) REF för disambigeringsuppgifter. | 2,427,083 | Text categorization with support vector machines: Learning with many relevant features | {'venue': 'ECML', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,256 |
I den här artikeln studerar vi 3D human pose assessment i vilt tillstånd. Denna uppgift är utmanande på grund av brist på träningsdata, eftersom befintliga datauppsättningar finns antingen i de vilda bilderna med 2D pose eller i labbbilderna med 3D pose. Vi föreslår en svagt övervakad överföring inlärningsmetod som använder blandade 2D- och 3D-etiketter i ett enhetligt djupt neutralt nätverk som presenterar två steg kaskad struktur. Vårt nätverk utökar en state-of-the-art 2D pose estimation sub-network med en 3D djup regression sub-network. Till skillnad från tidigare två steg som utbildar de två delnätverken sekventiellt och separat, är vår utbildning end-to-end och utnyttjar fullt ut korrelationen mellan 2D pose och djupuppskattning deluppdrag. De djupa dragen är bättre inlärda genom gemensamma representationer. På så sätt överförs 3D-etiketterna i kontrollerade labbmiljöer till de vilda bilderna. Dessutom introducerar vi en 3D geometrisk begränsning för att regularisera 3D pose förutsägelse, vilket är effektivt i avsaknad av mark sanningen djup etiketter. Vår metod uppnår konkurrenskraftiga resultat på både 2D- och 3D-riktmärken. | För att utnyttja de väl annoterade storskaliga 2D utgör dataset, Zhou et al. I REF föreslogs en svagt övervakad metod för överföringslärande som använder blandade 2D- och 3D-etiketter i ett enhetligt djupt tvåstegsnät med kaskadstruktur. | 12,712,334 | Towards 3D Human Pose Estimation in the Wild: A Weakly-Supervised Approach | {'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 6,257 |
Sammanfattning Detta dokument presenterar ett nytt sätt att utföra multimodal ansiktsigenkänning. Vi använder Partial Least Squares (PLS) för att linjärt kartlägga bilder i olika former till en gemensam I ansikte erkännande, försöker man ofta jämföra galleri bilder tagna under en uppsättning villkor, till en sond bild förvärvat annorlunda. Vid brottsutredningar kan vi till exempel behöva jämföra muggbilder med en skiss som ritats av en skisskonstnär på grundval av den misstänktes muntliga beskrivning. På liknande sätt kan muggbilder eller passfoton jämföras med övervakningsbilder tagna ur ett annat perspektiv. Sonden bilden kan också vara av lägre upplösning (LR) jämfört med ett galleri med hög upplösning (HR) bilder. Vi föreslår en allmän ram som använder Partial Least Squares (PLS) [16] för att utföra erkännande i ett brett spektrum av multimodala scenarier. PLS har använts mycket effektivt för ansiktsigenkänning, men på ett annat sätt, med olika motivation [17, 19, 20, 21, 22]; vårt bidrag är att visa hur och varför PLS kan användas för korsmodalt igenkännande. Mer allmänt argumenterar vi för den linjära projektionens tillämplighet på en mellanliggande delrymd för multimodal igenkänning, och pekar också på värdet av den bilinjära modellen (BLM) [14] för ansiktsigenkänning, som också ger toppmoderna resultat på vissa problem. Experimentell utvärdering av vårt ramverk med hjälp av PLS med pose variation har visat betydande förbättringar i fråga om noggrannhet och körtid över toppmoderna på CMU PIE ansiktsdata uppsättning [26]. För skissfotoigenkänning är vår metod jämförbar med den senaste tekniken. Vi illustrerar också vår metods potential att hantera variation i upplösning med ett enkelt, syntetiskt exempel. I alla tre domänerna tillämpar vi exakt samma algoritm, och använder samma, enkla representation av bilder. Vår allmänna strategi är antingen nära eller bättre än den senaste tekniken som har utformats för specifika tvärmodala förhållanden. Vårt tillvägagångssätt matchar sond- och galleribilder genom att linjärt projicera dem i ett mellanrum där bilder med samma identitet är starkt korrelerade (figur 1). Vi hävdar att det kommer att finnas sådana prognoser som kan hittas med hjälp av PLS och BLM för en mängd olika problem med korsmodalitetsigenkänning. En konsekvens av vårt tillvägagångssätt är att vi inte behöver syntetisera en konstgjord galleribild från sondens bild. Det har varit en enorm mängd tidigare arbete med att jämföra bilder tagna i olika former, som vi | Förutom CCA och dess förlängningar utnyttjas även partiella minst kvadrater (PLS) REF för cross-modal hämtning. | 324,005 | Bypassing synthesis: PLS for face recognition with pose, low-resolution and sketch | {'venue': 'CVPR 2011', 'journal': 'CVPR 2011', 'mag_field_of_study': ['Computer Science']} | 6,258 |
Abstrakt. Ursprungligen MapReduce implementeringar som Hadoop anställd First In First Out (fifo) schemaläggning, men sådana enkla system orsakar jobb svält. Hadoop Fair Scheduler (hfs) är en slot-baserad MapReduce-system som syftar till att säkerställa en viss grad av rättvisa bland jobben, genom att garantera varje jobb åtminstone ett minimum av tilldelade ankomst- och avgångstider. Vårt främsta bidrag i detta dokument är ett annat, flexibelt schemaläggningssystem som kallas flex. Vårt mål är att optimera någon av en mängd olika standard schemaläggning teorimått (responstid, stretch, makespan och Service Level Agreements (slas), bland annat) samtidigt som samma minsta garantier för ankomst- och avgångstider som i hfs, och maximal garantier för ankomst- och avgångstider samt. Flex fördelning schemaläggaren kan betraktas som en add-on modul som fungerar synergistiskt med hfs. Vi beskriver den matematiska grunden för flex, och jämför den med fifo och hfs i en mängd olika experiment. | Flex Ref är också en schemaläggare som föreslås som ett tillägg till Fair Scheduler för att tillhandahålla service-levelAgreement (SLA) garantier. | 18,381,996 | FLEX: a slot allocation scheduling optimizer for MapReduce workloads | {'venue': 'Middleware', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,259 |
För att stödja energieffektiv dirigering bör det finnas korrekt tillståndsinformation om energinivån. Men på grund av bandbreddsbegränsningar, kommunikationskostnader, hög förlusthastighet och MANETS dynamiska topologi är det en mycket komplex uppgift att samla in och underhålla aktuell information. I detta arbete använder vi Optimized Link State Routing (OLSR) som det underliggande routingprotokollet. Vi rapporterar kvantifieringen av tillståndsnoggrannheten under olika trafiknivåer. Vi fokuserar på energinivå som QoS metrisk, som har använts för routing beslut i många energieffektiva routing protokoll förslag. Statens informationssäkerhet definieras som den genomsnittliga skillnaden mellan den upplevda energinivån (genom den nod som fattar ett beslut om routing) och dess faktiska värde. Resultaten visar att statlig information är felaktig, särskilt under höga trafiknivåer. Avstämning av OLSR-protokollparametrarna har ingen märkbar inverkan på inkorrekta nivåer. Baserat på vår inkorrekta nivåanalys föreslår vi ytterligare tre tekniker som ett försök att minska felaktigheter. Vi jämför de olika teknikerna mot varandra och mot det grundläggande OLSR-protokollet. Två av våra föreslagna tekniker visar betydande förbättringar av inkorrekta nivåer. I synnerhet, en teknik som vi kallar smart förutsägelse uppnår mycket exakt upplevda energinivåer under alla trafikbelastningar. | REF studerar hur man använder felaktig information för att stödja energieffektiv routing i mobila Ad-hoc-nätverk. | 12,554,637 | Energy level accuracy in mobile Ad-Hoc networks using OLSR | {'venue': "WICON '07", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,260 |
Abstrakt. Ubiquitös och mobil datorteknik används i allt högre grad för att underlätta människors sociala liv utanför arbetslivet. För att utforma sådan social teknik och samarbetsteknik krävs en förståelse av människors fysiska och sociala sammanhang och samspelet mellan dessa och deras lokala interaktioner. Som svar på detta tar detta dokument upp utmaningen att informera om utformningen av mobila tjänster för att främja sociala förbindelser genom att använda begreppet plats för att studera och förstå människors sociala aktiviteter i en offentligt byggd miljö. Vi presenterar en fallstudie av sociala erfarenheter av en fysisk plats som ger en förståelse för människors belägna sociala interaktioner på offentliga platser i staden som härleds genom en baserad analys av små grupper av vänner som umgås ut på staden. Med detta som underlag beskriver vi utformningen och utvärderingen av ett mobilt prototypsystem som underlättar socialiteten i staden genom att 1) tillåta människor att dela platser, 2) indexera till platser och 3) utöka platser. | Paay och Kjeldskov REF föreslår en konceptuell ram för placerade sociala interaktioner offentligt och illustrerar hur deras ramverk informerade om utformningen av mobila sammanhangsmedvetna applikationer. | 16,423,462 | Understanding Situated Social Interactions: A Case Study of Public Places in the City | {'venue': 'Computer Supported Cooperative Work (CSCW)', 'journal': 'Computer Supported Cooperative Work (CSCW)', 'mag_field_of_study': ['Computer Science']} | 6,261 |
Abstrakt. Den senaste tidens framsteg inom meta-lärande utgör grunden för att bygga meta-lärande assistenter och task-adaptive inlärare. Målet med denna speciella fråga är att främja ett intresse för meta-lärande genom att sammanställa representativt arbete inom området. Bidragen till denna speciella fråga ger starka insikter i uppbyggnaden av framtida meta-lärande verktyg. I denna inledning presenterar vi en gemensam referensram för meta-lärande genom begreppet meta-kunskap. Vi visar hur meta-lärande enkelt kan definieras som processen att utnyttja kunskap om lärande som gör det möjligt för oss att förstå och förbättra prestandan hos inlärningsalgoritmer. | Som påpekats tidigare, i detta arbete, använder vi termen meta-learning vilket innebär den automatiska processen för att få kunskap som relaterar prestanda av lärande algoritmer till egenskaperna hos inlärningsproblem REF. | 17,996,962 | Introduction to the Special Issue on Meta-Learning | {'venue': 'Machine Learning', 'journal': 'Machine Learning', 'mag_field_of_study': ['Computer Science']} | 6,262 |
Kulturens inverkan på den visuella känslouppfattningen har nyligen fångat multimediaforskningens uppmärksamhet. I denna studie ger vi kraftfulla beräkningslingvistik verktyg för att utforska, hämta och bläddra i en datauppsättning av 16K flerspråkiga affektiva visuella begrepp och 7.3M Flickr bilder. För det första utformar vi ett effektivt crowdsourcing-experiment för att samla mänskliga bedömningar av känslor kopplade till de visuella begreppen. Vi använder sedan ordinslag för att representera dessa begrepp i ett lågdimensionellt vektorutrymme, vilket gör det möjligt för oss att utöka betydelsen kring begrepp, och på så sätt möjliggöra insikt om likheter och skillnader mellan olika språk. Vi jämför en mängd olika konceptrepresentationer genom en ny utvärderingsuppgift baserad på begreppet visuell semantisk relationsförmåga. Baserat på dessa representationer utformar vi klustersystem för att gruppera flerspråkiga visuella begrepp, och utvärdera dem med nya mätvärden baserade på crowdsourced-känslor samt visuell semantisk relationsförmåga. Det föreslagna klusterramverket gör det möjligt för oss att analysera hela det flerspråkiga datasetet på djupet och även visa en applikation på en delmängd ansiktsdata, utforska kulturella insikter om porträttrelaterade affektiva visuella begrepp. | Pappas m.fl. I REF föreslås flerspråkiga visuella konceptkluster för att studera likheter och skillnader mellan olika språk. | 12,057,725 | Multilingual Visual Sentiment Concept Matching | {'venue': "Proceedings ICMR '16 Proceedings of the 2016 ACM on International Conference on Multimedia Retrieval Pages 151-158", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,263 |
Abstract-This paper syftar till att hitta grundläggande designprinciper för hierarkisk webbcache. En analytisk modelleringsteknik utvecklas för att karakterisera ett okooperativt hierarkiskt cachesystem på två nivåer där den senast använda (LRU) algoritmen lokalt körs vid varje cache. Med denna modelleringsteknik kan vi identifiera en karakteristisk tid för varje cache, som spelar en grundläggande roll för att förstå cacheprocesserna. I synnerhet kan en cache ses ungefär som en lågpass filter med sin cutoff frekvens lika med inversen av den karakteristiska tiden. Dokument med åtkomstfrekvenser lägre än denna brytfrekvens har goda chanser att passera genom cache utan cacheträffar. Denna synpunkt gör det möjligt för oss att ta varje gren av cacheträdet som en tandem av low-pass filter vid olika brytfrekvenser, vilket ytterligare resulterar i att hitta två grundläggande designprinciper. Slutligen, för att visa hur man använder principerna för att vägleda caching algoritm design, föreslår vi en kooperativ hierarkisk webb caching arkitektur baserat på dessa principer. Både modellbaserade och verkliga simuleringsstudier visar att den föreslagna kooperativa arkitekturen ger mer än 50 % minnesbesparing och betydande effektbesparing för centralbearbetning (CPU) för hantering och uppdatering av cacheposter jämfört med den traditionella okooperativa hierarkiska cachearkitekturen. Index Terms-Cache ersättningsalgoritmer, hierarkisk caching, senast använda (LRU), webb caching. | I synnerhet ger REF grundläggande designprinciper och användbara insikter om hierarkisk cachelagring. | 17,262,901 | Hierarchical Web Caching Systems : Modeling , Design and Experimental Results | {'venue': 'HICSS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,264 |
Crowd-drivna samtalsassistenter har visat sig vara mer robusta än automatiserade system, men gör det på bekostnad av högre svarslatens och monetära kostnader. En lovande riktning är att kombinera de två tillvägagångssätten för lösningar av hög kvalitet, låg latens och låg kostnad. I denna uppsats introducerar vi Evorus, en publikdriven konversationsassistent byggd för att automatisera sig själv över tiden genom att (i) tillåta nya chatbots att enkelt integreras för att automatisera fler scenarier, (ii) återanvända tidigare publik svar, och (iii) lära sig att automatiskt godkänna svarskandidater. Vår 5-månaders långa distribution med 80 deltagare och 281 konversationer visar att Evorus kan automatisera sig själv utan att kompromissa med konversationens kvalitet. Crowd-AI-arkitekturer har länge föreslagits som ett sätt att minska kostnader och latens för crowd-drivna system; Evorus visar hur automatisering kan införas framgångsrikt i ett distribuerat system. Dess arkitektur gör det möjligt för framtida forskare att göra ytterligare innovation om de underliggande automatiserade komponenterna inom ramen för ett distribuerat dialogsystem med öppen domän. | Författarna i REF använde en hybrid crowd-AI-arkitektur och introducerade en publikdriven konversationsassistent byggd för att automatisera sig själv över tiden. | 3,681,400 | Evorus: A Crowd-powered Conversational Assistant Built to Automate Itself Over Time | {'venue': "CHI '18", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,265 |
Abstrakt. Att använda Wi-Fi-signaler för lokalanpassning inomhus är den huvudsakliga lokaliseringsmodaliteten i de befintliga personliga lokalanpassningssystem för inomhusbruk som fungerar på mobila enheter. WiFi-fingeravtryck används också för mobila robotar, eftersom WiFi-signaler vanligtvis finns inomhus och kan ge grov uppskattning av utgångsläget eller kan användas tillsammans med andra positioneringssystem. För närvarande är de bästa lösningarna beroende av filtrering, manuell dataanalys och tidskrävande parameterinställning för att uppnå tillförlitlig och korrekt lokalisering. I detta arbete föreslår vi att använda djupa neurala nätverk för att avsevärt minska arbetsbelastningen av lokaliseringssystemets utformning, samtidigt som man uppnår tillfredsställande resultat. Om vi utgår från den senaste hierarkiska metoden använder vi DNN-systemet för byggnads-/golvklassificering. Vi visar att staplade autokodrar gör det möjligt att effektivt minska funktionsutrymmet för att uppnå robust och exakt klassificering. Den föreslagna arkitekturen verifieras på offentligt tillgängliga UJIIndoorLoc dataset och resultaten jämförs med andra lösningar. | Vad mer är, Nowicki et al. REF använde DNN-systemet för byggnads-/golvklassificering, vilket gav en robust och exakt klassificering när provet var tillräckligt stort. | 19,017,850 | Low-effort place recognition with WiFi fingerprints using deep learning | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 6,266 |
I den här artikeln ser vi ett tillståndsbedömningsproblem över ett trådlöst sensornätverk. Ett fusionscenter bildar dynamiskt ett lokalt multi-hop träd av sensorer och sammansmälter data till en tillståndsuppskattning. Det visas att den optimala estimatorn över ett sensorträd ges av ett Kalmanfilter av viss struktur. Med hjälp av skattningskvalitet som metriska studeras och jämförs två kommunikationssystem. I plan 1 kommunicerar sensornoder mätdata till sina modernoder, medan sensornoder i plan två kommunicerar sina lokala statsuppskattningar till sina modernoder. Vi visar att under perfekta kommunikationslänkar, de två systemen producerar samma uppskattning vid fusionscentret med obegränsad beräkning vid varje sensor nod; schema ett är alltid bättre än schema två med begränsad beräkning. När datapaket faller på kommunikationslänkarna, visar vi att schema två alltid överträffar schema ett med obegränsad beräkning; med begränsad beräkning, visar vi att det finns en kritisk paket ankomsthastighet, över vilket, schema ett överträffar schema två. Simuleringar tillhandahålls för att visa de två systemen under olika omständigheter. | Ett problem med statsuppskattning beaktas i dokumentet REF, baserat på ett Kalmanfilter, där två kommunikationssystem producerar uppskattningar vid fusionscentret. | 14,023,599 | Estimation Over Wireless Sensor Networks: Tradeoff between Communication, Computation and Estimation Qualities | {'venue': None, 'journal': 'IFAC Proceedings Volumes', 'mag_field_of_study': ['Mathematics']} | 6,267 |
Till skillnad från mänskligt lärande misslyckas maskininlärning ofta med att hantera förändringar mellan utbildning (källa) och test (mål) ingångsdistributioner. Sådana domänskiften, vanliga i praktiska scenarier, allvarligt skadar prestandan hos konventionella maskininlärningsmetoder. Övervakade metoder för domänanpassning har föreslagits för fallet när måldata har etiketter, inklusive några som fungerar mycket bra trots att de är "frustratingly lätt" att genomföra. I praktiken är dock måldomänen ofta omärkt, vilket kräver en oövervakad anpassning. Vi föreslår en enkel, effektiv och effektiv metod för oövervakad domänanpassning som kallas KORRELATION (CORAL). CORAL minimerar domänbytet genom att anpassa den andra ordningens statistik över käll- och målfördelningar, utan att kräva några målmärkningar. Även om det är utomordentligt enkelt-det kan genomföras i fyra rader av Matlab code-CORAL presterar anmärkningsvärt bra i omfattande utvärderingar på standardriktvärden dataset. "Allt ska göras så enkelt som möjligt, men inte enklare." | Deep Correlation Alignment (CORAL) REF utnyttjar maximal genomsnittlig Discrepancy (MMD) för att matcha medelvärdet och kovariansen av käll- och måldistributioner. | 16,439,870 | Return of Frustratingly Easy Domain Adaptation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,268 |
Abstract-Mobile enheter, såsom mobiltelefoner och personliga digitala assistenter, har fått bred popularitet. Dessa enheter kommer i allt högre grad att vara nätverksanslutna, vilket gör det möjligt att bygga distribuerade applikationer som måste anpassas till förändringar i sammanhanget, såsom variationer i nätverksbandbredd, batterieffekt, anslutningsmöjligheter, tillgänglighet för tjänster och värdar, och så vidare. I detta dokument beskriver vi Carisma, en mobil dator middleware som utnyttjar principen om reflektion för att förbättra konstruktionen av anpassningsbara och sammanhangsmedvetna mobila applikationer. Middleware ger programvaruingenjörer med primitiva för att beskriva hur kontextförändringar ska hanteras med hjälp av policyer. Denna politik kan strida mot varandra. Vi klassificerar de olika typer av konflikter som kan uppstå i mobil databehandling och hävdar att konflikter inte kan lösas statiskt vid den tidpunkt då applikationer är utformade, utan snarare måste lösas vid exekveringstidpunkten. Vi visar på en metod med vilken politiska konflikter kan hanteras; denna metod använder en mikroekonomisk strategi som bygger på en viss typ av sluten budauktion. Vi beskriver hur denna metod implementeras i Carisma middleware arkitektur, och skissa en distribuerad sammanhangsmedveten applikation för mobila enheter för att illustrera hur metoden fungerar i praktiken. Vi visar, genom en systematisk prestationsutvärdering, att konfliktlösning inte innebär onödiga omkostnader, innan vi jämför vår forskning med relaterat arbete och avslutar uppsatsen. | Carisma Ref använder reflektionsparadigmet för att förbättra utvecklingen av anpassningsbara och kontextmedvetna mobila applikationer. | 7,993,325 | CARISMA: Context-Aware Reflective mIddleware System for Mobile Applications | {'venue': 'IEEE Trans. Software Eng.', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,269 |
Medan end-to-end neural maskinöversättning (NMT) har gjort anmärkningsvärda framsteg nyligen, lider den fortfarande av databrist problem för låg-resurs språkpar och domäner. I detta dokument föreslår vi en metod för noll-resurs NMT genom att anta att parallella meningar har nära sannolikhet att generera en mening på ett tredje språk. Baserat på detta antagande, vår metod kan träna en källa-till-mål NMT modell ("student") utan parallell corpora tillgänglig, guidad av en befintlig pivot-till-mål NMT modell ("lärare") på en källa-pivot parallell corpus. Experimentella resultat visar att den föreslagna metoden avsevärt förbättrar över en pivotbaserad modell med +3,0 BLEU poäng mellan olika språkpar. | I REF föreslås en ram för lärare och studenter under antagandet att parallella meningar har nära sannolikhet att generera en mening på ett tredje språk. | 2,166,461 | A Teacher-Student Framework for Zero-Resource Neural Machine Translation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,270 |
I detta dokument införs en metod för att skapa en subjektivitetslexikon för språk med knappa resurser. Metoden kan bygga en subjektivitetslexikon genom att använda en liten fröuppsättning subjektiva ord, en online ordbok, och en liten rå corpus, tillsammans med en bootstrappning process som rankar nya kandidatord baserat på en likhetsmått. Experiment som utförs med en regelbaserad subjektivitetsklassificering på meningsnivå visar en absolut förbättring på 18 % av F-måttet jämfört med tidigare föreslagna semiövervakade metoder. | Bygga ordböcker för språk med knappa resurser kan stödjas av bootstrappa metoder REF. | 7,372,879 | A Bootstrapping Method for Building Subjectivity Lexicons for Languages with Scarce Resources | {'venue': 'LREC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,271 |
Abstract-I denna bokstav föreslår vi en analytisk modell baserad på differentialekvationer (DDE) för att utvärdera spridningen av meddelanden i grupper med hänsyn till sändningstiden för meddelanden. Denna modell validerades genom simuleringsstudier med hjälp av ONE-simulatorn. Utvärderingsresultat visar att, med tanke på effekten av dataöverföringstiden är av yttersta vikt, som när meddelandestorleken ökar (t.ex. när korta videor sänds), diffusionen begränsas av denna överföringstid, och resultatet är att spridningstiden ökar något när antalet noder ökar (i motsats till den ständigt minskande spridningstiden för epidemins spridning utan fördröjning). | I samband med analytiska undersökningar föreslås en analytisk modell baserad på Delay Differentiella ekvationer för upphovsmännen till REF för att utvärdera spridningen av meddelanden i grupper med beaktande av meddelandenas sändningstid. | 206,430,051 | Evaluating the Impact of Data Transfer Time in Contact-Based Messaging Applications | {'venue': 'IEEE Communications Letters', 'journal': 'IEEE Communications Letters', 'mag_field_of_study': ['Computer Science']} | 6,272 |
Abstract-Autonoma trådlösa agenter såsom obemannade luftfartyg, mobila basstationer, eller självgående trådlösa noder utgör en stor potential för distribution i nästa generations trådlösa nätverk. Medan aktuell litteratur främst har varit inriktad på användning av agenter inom robotik eller programvarutekniska applikationer, föreslår vi en ny användningsmodell för självorganiserande agenter som är anpassade till trådlösa nätverk. I den föreslagna modellen krävs ett antal agenter för att samla in data från flera godtyckligt lokaliserade uppgifter. Varje uppgift representerar en rad paket som kräver insamling och efterföljande trådlös överföring från agenterna till en central mottagare. Problemet är modellerat som en hedonisk koalitionsformation spel mellan agenterna och de uppgifter som interagerar för att bilda osammanhängande koalitioner. Varje formad koalition är modellerad som ett valsystem bestående av ett antal agenter som rör sig mellan de olika uppgifter som finns i koalitionen, samla in och överföra paketen. Inom varje koalition, vissa agenter kan också ta rollen som ett relä för att förbättra paket framgången i överföringen. Den föreslagna algoritmen gör det möjligt för uppdragen och agenterna att fatta distribuerade beslut för att gå med i eller lämna en koalition, baserat på den uppnådda nyttan i form av effektivt genomflöde, och kostnaden i form av försening. Som ett resultat av dessa beslut strukturerar agenterna och uppgifterna sig själva till oberoende osammanhängande koalitioner som utgör en Nash-stabil nätverkspartition. Dessutom gör den föreslagna algoritmen det möjligt för agenter och uppgifter att anpassa topologin till miljöförändringar såsom ankomst/borttagande av uppgifter eller uppgifternas rörlighet. Simuleringsresultat visar hur den föreslagna algoritmen gör det möjligt för agenter och uppgifter att själv organisera sig i oberoende koalitioner, samtidigt förbättra prestanda, i termer av genomsnittliga spelare (agent eller uppgift) payoff, av minst 30.26% (för ett nätverk av 5 agenter med upp till 25 uppgifter) relativt till ett system som fördelar närliggande uppgifter lika bland agenter. | I REF introducerar författarna en koalitionsspelsmodell för självorganiserande obemannade luftfartyg som samlar in data från slumpmässigt placerade uppgifter i trådlösa nätverk. | 8,050,310 | Hedonic Coalition Formation for Distributed Task Allocation among Wireless Agents | {'venue': 'IEEE Transactions on Mobile Computing, 2011', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 6,273 |
Internetbaserade tillämpningar och deras distribuerade arkitekturer på flera nivåer har ändrat designens fokus för storskaliga Internettjänster. Internetserverprogram kör i en horisontellt skalbar topologi över hundratals eller tusentals råvaruservrar i Internet datacenter. Ökande skala och effekttäthet påverkar avsevärt datacenterets termiska egenskaper. Effektiv värmestyrning är avgörande för robustheten i uppdragskritiska tillämpningar. Internet tjänstearkitekturer kan adressera flersystemresurshantering samt termisk hantering inom datacenter. Hermal ledning är en allt mer framträdande arkitektonisk hänsyn för högpresterande datorer. Det innebär utmaningar som kan gälla för marker, servrar, rack och datacenter. Nya typer av tillämpningar, såsom Internettjänster och distribuerad vetenskaplig bearbetning, har förvärrat situationen genom att använda horisontella skaltekniker som resulterar i datormiljöer med hög densitet. [1][2][3] Kraftfulla processorer avlägsnar allt större mängder spillvärme för en viss förpackningsstorlek. Ny forskning visar att dynamisk termisk hantering (DTM) kan reagera på termiska förhållanden genom att anpassa ett chips effektförbrukningsprofil på grundval av återkoppling från temperaturgivare. 4,5 Forskning visar också hur man utökar DTM för att förbättra processorns energieffektivitet (se sidofältet "Relaterat arbete i dynamisk värmestyrning", s. 47). Dessa tekniker är viktiga element i termisk design för nästa generations servermiljöer, men de tar bara upp en aspekt av problemet. Flera faktorer driver övergången av beräkningskraft till stora matriser (eller rack) av servrar aggregerade i datacenter, främst för Internet-baserade applikationstjänster. Strömavledning har vuxit enormt i dessa datacenter, och deras arkitektur presenterar svåra termiska tekniska utmaningar som härrör från ökande storlek och densitet. 7 Dessutom kan Internet datacenter använda tusentals sådana rack under det kommande årtiondet för att utnyttja stordriftsfördelar i förvaltning, strömförsörjning och säkerhet. center snarare än enskilda servrar eller marker. Våra föreslagna policyer för arbetsbelastning placering främjar enhetlig temperaturfördelning med hjälp av aktiva termiska zoner. Vår detaljerade beräkningsvätska dynamik (CFD) modell av ett typiskt datacenter kan hjälpa till att utvärdera effektiviteten av termiska riktlinjer genom felinsprutning simuleringar och dynamiska variationer i beräkningsbelastning. Till vår kännedom är vi de första som direkt hanterar samspelet mellan datacenter termisk arkitektur och funktioner programvara-resurs-hantering. Vår strategi är en del av ett bredare ramverk för att hantera ett datacenter som ett verktyg vars server, router eller switch, och lagringsresurser automatiskt tillhandahålls och säljs enligt efterfrågan, i stort sett som elektricitet är idag. I tidigare forskning beskrev vi en arkitektur för storskalig internetbaserad datorinfrastruktur. 8 I stället för att fysiskt koppla varje resurs till en statisk topologi behandlar det programmerbara datacenteret (PDC) dator-, lagrings- och nätverkskomponenter som delade, virtualiserade resurser som dynamiskt kan delas upp och fördelas mellan värdprogram på grundval av kvalitetskrav (QoS). Exempel på tillämpningar är webbaserade tjänster, dataschemaläggare och databastjänster för beslutsstöd, datautvinning eller andra tillämpningar. Eftersom server- och lagringsresurser är generiska och utbytbara kan resursförvaltaren konfigurera arbetsbelastningsplacering för att reagera på ändrade belastnings- och resursförhållanden. 8 Funktioner som service migration, 9 säkerhet, och prestanda isolering 10 kan vi bygga automatiserade datacenter med dynamisk och adaptiv resursförsörjning som upprätthåller servicenivåer trots förändringar i perapplicering arbetsbelastning intensitet och variation. PDC monteras efter en regelbunden, horisontellt skalbar topologi byggd av servicekärnor som omfattar serverlagring och nätverksställ. Varje servicekärna har ca 1000 beräkna noder och en motsvarande storlek lagring delsystem ansluten via en höghastighets Ethernet (lager 2) bytte tyg. Vi kan aggregera servicekärnor för att uppnå stora dator- och lagringsmöjligheter. PDC-arkitekturen stöder nära 50.000 rackmonterade servrar, petabyte lagring och tiotals terabit per sekund av in- och utfartstrafik. | Sharma m.fl. REF diskuterade en strategi för dynamisk termisk hantering i datacenter. | 18,142,045 | Balance of power: dynamic thermal management for Internet data centers | {'venue': 'IEEE Internet Computing', 'journal': 'IEEE Internet Computing', 'mag_field_of_study': ['Computer Science']} | 6,274 |
För autonoma agenter att framgångsrikt verka i den verkliga världen, förmågan att förutse framtida scenstater är en nyckelkompetens. I verkliga scenarier blir framtida stater alltmer osäkra och multimodala, särskilt på lång sikt. Avhoppsbaserad Bayesiansk slutledning ger en beräkningsbar, teoretiskt välgrundad metod för att lära sig troliga hypoteser/modeller för att hantera osäkra framtider och göra förutsägelser som väl motsvarar observationer är väl kalibrerade. Men det visar sig att sådana metoder inte räcker till för att fånga komplexa verklighetsscener, till och med för att halka efter i exakthet jämfört med de enkla deterministiska tillvägagångssätten. Detta beror på att den använda log-likelihood uppskattningen avskräcker mångfald. I detta arbete föreslår vi en ny Bayesiansk formulering för att förutse framtida scentillstånd som utnyttjar syntetiska sannolikheter som uppmuntrar lärande av olika modeller för att korrekt fånga de framtida scenstaternas multimodala karaktär. Vi visar att vår strategi uppnår exakta toppmoderna förutsägelser och kalibrerade sannolikheter genom omfattande experiment för scenförutsägelse på Cityscapes datauppsättning. Dessutom visar vi att vårt tillvägagångssätt generaliserar olika uppgifter som siffergenerering och nederbördsprognoser. | Bhattacharyya m.fl. REF använder Bayesian inlärning för att modellera framtidens multimodala natur och direkt förutsäga framtida semantiska segmentering av körscener. | 52,901,998 | Bayesian Prediction of Future Street Scenes using Synthetic Likelihoods | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,275 |
Gemenskapens struktur är ett av de viktigaste inslagen i verkliga nätverk och avslöjar den interna organisationen av noderna. Många algoritmer har föreslagits men den avgörande frågan om testning, dvs. Frågan om hur bra en algoritm är, med avseende på andra, är fortfarande öppen. Standardtester inkluderar analys av enkla konstgjorda grafer med en inbyggd gemenskap struktur, att algoritmen måste återhämta sig. De särskilda diagram som används i faktiska tester har dock en struktur som inte återspeglar de verkliga egenskaperna hos noder och samhällen som finns i verkliga nätverk. Här introducerar vi en ny klass av referensdiagram, som förklarar heterogeniteten i fördelningen av nodgrader och samhällsstorlekar. Vi använder detta nya riktmärke för att testa två populära metoder för community detektion, modularitet optimering och Potts modell kluster. Resultaten visar att det nya riktmärket utgör ett mycket svårare test för algoritmer än standardriktmärken, vilket avslöjar gränser som kanske inte syns vid en första analys. | Författarna i REF generaliserade metoden av Girvan och Newman och betonade att fördelningen av nodgrader och samhällsstorlekar i verkliga nätverk är heterogen. | 18,481,617 | Benchmark graphs for testing community detection algorithms | {'venue': 'Physical Review E78, 046110 (2008)', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Physics', 'Medicine']} | 6,276 |
Abstract-Cognitive radios (CRs) kan lindra den förestående spektrumbrist problem genom att utnyttja sin förmåga att få tillgång till licensierade spektrumband opportunistiskt. Medan de flesta befintliga arbeten fokuserar på att möjliggöra sådan opportunistisk spektrumaccess för stationära CR, är rörlighet en viktig fråga för sekundära användare (SU) eftersom framtida mobila enheter förväntas införliva CR-funktionalitet. I detta dokument identifierar och tar vi itu med tre grundläggande utmaningar som specifikt möter mobila SU:er. Först modellerar vi kanaltillgänglighet erfaren av en mobil SU som en två-state kontinuerlig-tid Markov kedja (CTMC) och verifierar dess noggrannhet genom djupgående simulering. Sedan, för att skydda primär/incumbent kommunikation från SU störningar, introducerar vi vaktavstånd i rymden domän och härleda den optimala vaktavstånd som maximerar spatio-temporal spektrum möjligheter tillgängliga för mobila CRs. För att underlätta effektiv spektrumdelning formulerar vi problemet med att maximera sekundärt nätflöde inom ett konvext optimeringsramverk, och härleder en optimal, distribuerad kanalurvalsstrategi. Våra simuleringsresultat visar att de föreslagna system för spektrumavkännande och distribuerad kanalaccess avsevärt förbättrar nätgenomströmning och rättvisa och minskar energiförbrukningen för spektrumavkänning med upp till 74 %. | I REF tar författarna hänsyn till CR-användarrörlighet genom att modellera CR-kanalens tillgänglighet som en två-state kontinuerlig-time Markov-kedja. | 17,622,714 | Opportunistic spectrum access for mobile cognitive radios | {'venue': '2011 Proceedings IEEE INFOCOM', 'journal': '2011 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Computer Science']} | 6,277 |
Bakgrund: Mikroarrayer har blivit extremt användbara för att analysera genetiska fenomen, men att etablera ett samband mellan mikroarray analysresultat (vanligtvis en lista över gener) och deras biologiska betydelse är ofta svårt. För närvarande är standardmetoden att i efterhand kartlägga resultaten på gennätverken för att belysa de funktioner som störs på banornas nivå. Att på förhand integrera kunskaperna om gennätverken skulle dock kunna bidra till den statistiska analysen av genuttrycksdata och till deras biologiska tolkning. Vi föreslår en metod för att på förhand integrera kunskapen om ett gennätverk i analysen av genuttrycksdata. Tillvägagångssättet är baserat på spektral nedbrytning av genuttrycksprofiler med avseende på eigensfunktionerna i grafen, vilket resulterar i en dämpning av högfrekvenskomponenterna i uttrycksprofilerna med avseende på grafens topologi. Vi visar hur man härleder oövervakade och övervakade klassificeringsalgoritmer för uttrycksprofiler, vilket resulterar i klassificeringar med biologisk relevans. Vi illustrerar metoden med analys av en uppsättning uttrycksprofiler från bestrålade och icke-bestrålade jäststammar. Inbegripet en förkunskaper om ett gennätverk för analys av genuttrycksdata leder till god klassificeringsprestanda och förbättrad tolkningsbarhet av resultaten. | REF föreslog en liknande metod, som först beräknar spektralgrafikstrukturen i ett gennätverk, och sedan använder spektralgrafstrukturen för att jämna ut genuttryck för mikroarray innan den används för provklassificering. | 6,132,929 | Classification of microarray data using gene networks | {'venue': 'BMC Bioinformatics', 'journal': 'BMC Bioinformatics', 'mag_field_of_study': ['Biology', 'Medicine', 'Computer Science']} | 6,278 |
Vi presenterar en algoritm och ett system för att generera inmatningshändelser för att träna smartphone-appar. Vår strategi är baserad på konkoliska tester och genererar sekvenser av händelser automatiskt och systematiskt. Det lindrar problemet med vägexplosion genom att kontrollera ett villkor på programutföranden som identifierar subkonsumtion mellan olika händelsesekvenser. Vi beskriver också vårt genomförande av strategin för Android, den mest populära smartphone app-plattformen, och resultaten av en utvärdering som visar dess effektivitet på fem Android-appar. | ACTEve REF är ett konkoliskt testverktyg som genererar sekvenser av händelser automatiskt och systematiskt. | 500,458 | Automated concolic testing of smartphone apps | {'venue': 'SIGSOFT FSE', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,279 |
I detta dokument undersöks en modell där annonsörer erbjuder "sponsrade länkar" positioner på en sökmotor. Värdet annonsörer härrör från varje position är endogenized som kommer från försäljning till en befolkning av konsumenter som gör rationella slutsatser om fasta kvaliteter och söka optimalt. Konsumentsök strategier, jämvikt budgivning, och välfärdsfördelarna av position auktioner analyseras. Konsekvenser för reservpriser och ett antal andra frågor om auktionsdesign diskuteras. | REF studerade en modell för konsumentsökning och visade att reservpriser kan öka användarnas välfärd. | 8,681,024 | Position auctions with consumer search | {'venue': None, 'journal': None, 'mag_field_of_study': ['Business', 'Economics']} | 6,280 |
Ett ökande antal programmeringsspråk, såsom Fortran 90 och APL, ger en rik uppsättning av inneboende matrisfunktioner och matrisuttryck. Dessa konstruktioner som utgör en viktig del av dataparallella språk ger utmärkta möjligheter för kompilatoroptimering. I detta dokument presenterar vi ett nytt tillvägagångssätt för att kombinera på varandra följande matrisoperationer eller matrisuttryck till en sammansatt åtkomstfunktion för källkodsmatriserna. Vårt system bygger på sammansättningen av åtkomstfunktioner, vilket är jämförbart med en sammansättning av matematiska funktioner. Vårt nya system kan hantera inte bara datarörelser av matriser med olika antal dimensioner och med multi-clause array operationer men också maskerade array uttryck och flera källor array operationer. Som ett resultat, vårt föreslagna system är den första syntesen system som kollektivt kan syntetisera Fortran 90 RESHAPE, EOSHIFT, MERGE, array reduktion verksamhet, och VAR konstruerar. Dessutom diskuterar vi också fallet att syntessystemet kan resultera i en prestanda anomali på grund av förekomsten av gemensamma underuttryck och en-till-många array operationer. En lösning föreslås för att undvika en sådan avvikelse. Experimentella resultat visar uppfarter från 1.21 till 2.95 över baskoden för kodfragment från verkliga applikationer på en sekventiell multiprocessormaskin, och visar också jämförbara prestandaförbättringar på en 8-node SGI Power Challenge genom att införliva våra föreslagna optimeringar. | Vanliga underuttryck och one-to-many array operationer är problematiska att hantera i detta optimeringsramverk REF. | 805,272 | A Function-Composition Approach to Synthesize Fortran 90 Array Operations | {'venue': 'Journal of Parallel and Distributed Computing', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,281 |
Även neurala maskinöversättningsmodeller nådde hög översättningskvalitet, gör den autoregressiva naturen inference svårt att parallellisera och leder till hög översättning latens. Inspirerad av nya förfiningsmetoder föreslår vi en latent-variabel nonautoregressiv modell med kontinuerliga latenta variabler och deterministisk inferensprocedur. I motsats till befintliga metoder använder vi en deterministisk iterativ inferensalgoritm för att hitta en målsekvens som maximerar den nedre gränsen till logsannolikheten. Under slutsatsen anpassar sig översättningens längd automatiskt. Våra experiment visar att den nedre gränsen kan ökas avsevärt genom att köra inferensalgoritmen för endast ett steg, vilket resulterar i avsevärt förbättrad översättningskvalitet. Vår föreslagna modell minskar klyftan mellan icke-autoregressiva och autoregressiva metoder på ASPEC Ja-En dataset med 7,8x snabbare avkodning. På WMT'14 En-De dataset minskar vår modell prestandagapet med autoregressiv baslinje ner till 2,0 BLEU-poäng med 12,5x hastighetsökning. | REF visar hur ett latent-variabelt tillvägagångssätt kan överträffa det autoregressiva utgångsläget på japansk till engelsk översättning, men ändå observera ett betydande prestationsgap på WMT'14 EN-DE. | 201,103,818 | Latent-Variable Non-Autoregressive Neural Machine Translation with Deterministic Inference Using a Delta Posterior | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,282 |
Maskinförståelse (MC), som besvarar en fråga om ett givet sammanhang stycke, kräver modellering komplexa interaktioner mellan sammanhanget och frågan. På senare tid har man framgångsrikt utvidgat uppmärksamhetsmekanismerna till att omfatta MC. Vanligtvis dessa metoder använder uppmärksamhet för att fokusera på en liten del av sammanhanget och sammanfatta det med en fast storlek vektor, par uppmärksamhet temporalt, och / eller ofta bildar en enkelriktad uppmärksamhet. I detta dokument introducerar vi Bi-Directional Uppmärksamhet Flow (BIDAF) nätverk, en flerstegs hierarkisk process som representerar sammanhanget på olika nivåer av granularitet och använder dubbelriktad uppmärksamhet flöde mekanism för att få en frågemedveten kontext representation utan tidig sammanfattning. Våra experimentella utvärderingar visar att vår modell uppnår de senaste resultaten i Stanford Question Answering Dataset (SQuAD) och CNN/DailyMail cloze test. | Dessutom kan uppmärksamhetsmekanismerna mellan sammanhanget och frågan ge de neurala modellerna med högre prestanda REF ). | 8,535,316 | Bidirectional Attention Flow for Machine Comprehension | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,283 |
Vi introducerar ett nytt tillvägagångssätt för robust trosspårning av användarens avsikt i ett talat dialogsystem. Utrymmet för användarens intentioner modelleras av en probabilistisk utvidgning av den underliggande domän ontologi kallas en probabilistisk ontologi träd (POT). POTs förkroppsligar en principiell strategi för att utnyttja beroendena mellan domänkoncept och införliva bekräftande eller motstridiga dialogobservationer i form av tolkade användaruttalanden över dialogsvängar. Vi skräddarsyr standardinferensalgoritmer till POT-ramverket för att effektivt beräkna användarens avsikter i termer av m-bästa troligaste förklaringar. Vi validerar empiriskt effekten av vår POT och jämför den med en hierarkisk rambaserad metod i experiment med användare av ett turistinformationssystem. | REF-modellens användarintentioner genom användning av probabilistiska ontologiträd. | 1,560,151 | Probabilistic Ontology Trees for Belief Tracking in Dialog Systems | {'venue': 'Proceedings of the SIGDIAL 2010 Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,284 |
Figur 1: Vårt system rekonstruerar automatiskt och exakt 3D-skelettet i realtid med hjälp av monokulära djupdata från en enda kamera. (överst) referensbildsdata, (underst) de rekonstruerade ger överliggande djupdata. Vi presenterar en snabb, automatisk metod för att exakt fånga fullkroppsrörelsedata med hjälp av en enda djupkamera. Kärnan i vårt system ligger en realtid registreringsprocess som korrekt rekonstruerar 3D mänskliga poser från enskilda monokulära djup bilder, även i fallet med betydande ocklusioner. Tanken är att formulera registreringsproblemet i ett Maximum A Posteriori (MAP) ramverk och iterativt registrera en 3D-ledd människokroppsmodell med monokulära djupkurer via linjära systemlösare. Vi integrerar djupdata, silhuettinformation, helkropp geometri, temporal pose priors, och ocklusion resonemang i en enhetlig MAP uppskattning ramar. Vår 3D-spårningsprocess kräver dock manuell initiering och återhämtning från fel. Vi tar itu med denna utmaning genom att kombinera 3D-spårning med 3D-positionsdetektering. Denna kombination automatiserar inte bara hela processen utan förbättrar också avsevärt systemets robusthet och noggrannhet. Hela vår algoritm är mycket parallell och är därför enkelt implementerad på en GPU. Vi demonstrerar kraften i vår strategi genom att fånga upp ett brett spektrum av mänskliga rörelser i realtid och uppnå toppmodern noggrannhet i vår jämförelse mot alternativa system som Kinect [2012]. | Alternativt arbete använder ett datadrivet tillvägagångssätt för att återställa poserar från en enda djupkamera REF. | 13,097,290 | Accurate realtime full-body motion capture using a single depth camera | {'venue': 'TOGS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,285 |
Abstract-I detta dokument utvecklar vi en ram för konkurrens mellan framtida operatörer som sannolikt kommer att verka i en blandad allmännytta/rättighetsordning enligt regleringen av en spektrumpolitisk server (SPS). Operatörerna konkurrerar dynamiskt om såväl kunder som delar av tillgängligt spektrum. Operatörerna debiteras av SPS för den mängd bandbredd de använder i sina tjänster. Genom efterfrågeflexibel prissättning försöker operatörerna komma fram till övertygande serviceerbjudanden för kunderna, samtidigt som de försöker maximera sina vinster. Vi betraktar först ett system med en enda användare som ett belysande exempel. Vi formulerar konkurrensen mellan operatörerna som ett icke-kooperativt spel och föreslår ett SPS-baserat iterativt budsystem som resulterar i en Nash jämvikt av spelet. Numeriska resultat tyder på att konkurrensen ökar användarens (kundens) acceptans sannolikhet för den erbjudna tjänsten, samtidigt som den minskar de vinster som uppnås av operatörerna. Det noteras också att eftersom kostnaden för bandbredd per enhet ökar i förhållande till kostnaden för enhetsinfrastruktur (fast kostnad) blir operatören med överlägsen teknik (högre fasta kostnader) mer konkurrenskraftig. Sedan utvidgar vi ramverket till en fleranvändarmiljö där operatörerna konkurrerar om ett antal användare samtidigt. Vi föreslår ett SPS-baserat bandbreddstilldelningssystem där SPS optimalt fördelar bandbreddsdelar för varje användarsession för att maximera de totala förväntade intäkterna från operatörens betalningar. Jämförelse av detta systems prestanda med ett system där bandbredden delas lika mellan användarparen visar att ett sådant SPS-baserat system förbättrar sannolikheten för användaracceptans och bandbreddsutnyttjandet i fleranvändarsystem. | För många operatörer, Ileri et al. REF utvecklade ett icke-kooperativt spel för att modellera konkurrensen mellan operatörer i ett system med blandade allmänningar/egendomsrätter enligt förordningen om en spektrumpolitisk server. | 1,939,954 | Demand responsive pricing and competitive spectrum allocation via a spectrum server | {'venue': 'First IEEE International Symposium on New Frontiers in Dynamic Spectrum Access Networks, 2005. DySPAN 2005.', 'journal': 'First IEEE International Symposium on New Frontiers in Dynamic Spectrum Access Networks, 2005. DySPAN 2005.', 'mag_field_of_study': ['Business']} | 6,286 |
Tredimensionella geometriska data erbjuder en utmärkt domän för att studera representationsinlärning och generativ modellering. I detta dokument tittar vi på geometriska data som representeras som punktmoln. Vi introducerar ett djup autoencoder nätverk för punktmoln, som överträffar den senaste tekniken i 3D-igenkänning uppgifter. Vi designar också GAN-arkitekturer för att generera nya punktmoln. Viktigt, vi visar att genom att träna GAN i latent utrymme lärt sig av autoencoder, vi kraftigt öka GAN: s data-genererande kapacitet, skapa betydligt mer varierande och realistiska geometrier, med mycket enklare arkitekturer. Den uttrycksfulla kraften i våra lärda inbäddningar, som erhållits utan mänsklig övervakning, möjliggör grundläggande formredigeringsprogram via enkla algebraiska manipulationer, såsom semantisk delredigering och interpolering. | Achlioptas m.fl. föreslås LatentGAN genom att införa en ny djup AutoEncoder (AE) nätverk med toppmodern återuppbyggnad kvalitet och generalisering förmåga för punktmoln data REF. | 195,347,545 | Representation Learning and Adversarial Generation of 3D Point Clouds | {'venue': '35th International Conference on Machine Learning (ICML), 2018', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,287 |
Under de senaste åren har de traditionella sätten att hålla ökningen av hårdvaruprestanda i den takt som förutses i Moores lag försvunnit. När uni-cores var normen, frikopplades hårdvarudesign från programvarustacken tack vare en väldefinierad instruktionsuppsättning arkitektur (ISA). Detta enkla gränssnitt gjorde det möjligt att utveckla applikationer utan att oroa sig för mycket för den underliggande hårdvaran, medan maskinvarudesigners kunde aggressivt utnyttja undervisningsnivå parallellism (ILP) i superskalar processorer. Med irruption av multi-cores och parallella program, detta enkla gränssnitt började läcka. Som en följd av detta flyttades rollen som frikoppling igen program från hårdvaran till runtime-systemet. Effektivt använda den underliggande hårdvaran från denna körning utan att utsätta sin komplexitet för ansökan har varit målet för mycket aktiv och produktiv forskning under de senaste åren. Nuvarande multikärnor är konstruerade som enkla symmetriska multiprocessorer (SMP) på ett chip. Vi anser dock att detta inte är tillräckligt för att övervinna alla de problem som flera kärnor redan har att ta itu med. Det är vår ståndpunkt att runtime måste driva utformningen av framtida multi-cores för att övervinna de begränsningar i kraft, minne, programmerbarhet och motståndskraft som multi-cores har. I det här dokumentet introducerar vi en första strategi mot en Runtime-Aware Architecture (RAA), en massivt parallell arkitektur utformad ur runtimes perspektiv. Nyckelord: Parallella arkitekturer, runtime system, hårdvara-programvara co-design. När uniprocessorer var normen utnyttjades instruktionsnivåparallellism (ILP) och datanivåparallellism (DLP) i stor utsträckning för att öka antalet instruktioner som utfördes per cykel. De viktigaste hårdvarudesigner som användes för att utnyttja ILP var superskalar och mycket lång instruktion Word (VLIW) processorer. VLIW metoden kräver att statiskt bestämma beroenden mellan instruktioner och schemalägga dem. Eftersom det i allmänhet inte är möjligt att få optimala schemaläggningar vid sammanställningstidpunkten utnyttjar dock VLIW inte fullt ut den potentiella ILP som många arbetsbelastningar har. Superscalar design försöker övervinna de ökande minneslatenser, den så kallade Memory Wall [42], genom att använda Out of Order (OoO) och spekulativa avrättningar [18]. Dessutom, tekniker som prefetching, för att börja hämta data från minnet i förväg, djupa minneshierarkier, för att utnyttja den plats som många program har, och stora omordning buffertar, för att öka antalet spekulativa instruktioner som exponeras för hårdvaran, har också använts för att förbättra superskalar processorer prestanda. DLP uttrycks vanligtvis explicit på programvaruskiktet och bestod i en parallell operation på flera data som utförs av flera oberoende instruktioner, eller av flera oberoende trådar. I uniprocessorer, instruktion Set arkitektur (ISA) var ansvarig för att frikoppla ansökan, skriven i en hög nivå programmeringsspråk, och hårdvaran, som vi kan se i den vänstra sidan av Figur 1. I detta sammanhang tillämpades förbättringarna av arkitekturen på rörledningsnivå utan att ISA ändrades. För några år sedan försvann de traditionella sätten att fortsätta att öka hårdvaruprestandan i den takt som förutses i Moores lag, dessutom till minnesväggen. Processorn klockfrekvens stagnerade eftersom, när den ökade över en tröskel, effekten per enhet av area (effekttäthet) inte kunde avledas. Det problemet kallades Power Wall [27]. En studie 1 Barcelona Supercomputing Center, Carrer Jordi Girona 29, 08034 Barcelona, Spanien 2 Universitat Politecnica de Catalunya, Carrer Jordi Girona 1-3, 08034 Barcelona, Spanien DOI: 10.14529/jsfi140102 Supercomputing Frontiers and Innovations Figur 1. Vänster: Avkoppling av hårdvaran och programvarulagren i enprocessorer. Höger: Körtiden driver hårdvarudesignen i multiprocessorer. Vi kallar denna strategi en Runtime-Aware Architecture (RAA) design. enligt den internationella teknikfärdplanen för halvledare förutser en årlig frekvensökning på 5 % för de kommande 15 åren [19]. Det innebär att vi lämnas ensamma med parallellism för att ytterligare öka prestandan. För att övervinna stagnationen av processorn klockfrekvens, började leverantörer att släppa multi-core enheter över ett decennium sedan. De kan potentiellt ge önskade resultatvinster genom att utnyttja Task Level Parallelism (TLP). Men multi-core design, snarare än att fixa de problem som är förknippade med minne och makt väggar, förvärra dem. Förhållandet cachelagring / operation stagnerar eller minskar i flerkärnig design samt minnesbandbredden per operation gör det, vilket gör det mycket svårt att fullt ut utnyttja det dataflöde som flerkärnig design har. En annan viktig fråga är energiförbrukningen, eftersom om den fortsätter att växa med samma takt som i dag, kommer vissa stora tekniska utmaningar som att utforma exaskala superdatorer eller utveckla petaflop mobiler att bli chimeras. Denna uppsättning utmaningar relaterade till strömförbrukningsfrågor utgör en ny kraftmur. Dessutom kan flerkärniga system ha en heterogen uppsättning processorer med en annan ISA, ansluten genom flera lager av delade resurser med variabel åtkomst latens och distribuerade minnesregioner. Att hantera datarörelser inom denna djupa och heterogena minneshierarki samtidigt som man hanterar icke-enformiga minnesaccesseffekter (NUMA) på rätt sätt och respekterar en strikt maktbudget i datarörelser kommer att bli en stor utmaning i framtida multikärnmaskiner. Alla dessa problem när det gäller programmerbarhet och datahantering över hela minneshierarkin brukar kallas programmerbarhetsväggen [9]. Flerkärniga arkitekturer kan teoretiskt uppnå betydande prestanda med låga spänningar och frekvenser. Eftersom spänningen matar skalor i förhållande till transistor tröskelspänningen, ökar känsligheten för kretsförseningar för transistorparametervariationer anmärkningsvärt, vilket innebär att processorfel kommer att bli vanligare i framtida konstruktioner. Det faktum att det totala antalet kärnor i framtida konstruktioner kommer att öka i flera storleksordningar gör dessutom problemet med felprevalensen mer dramatiskt. Förutom de aktuella utmaningarna inom parallellism, minne och makthantering rör vi oss mot en tillförlitlighetsmur [43]. Med irruption av multi-cores och parallella program, det enkla gränssnittet mellan hårdvaran och programmet började läcka. Som en följd av detta flyttades rollen som frikoppling igen program från hårdvaran till runtime-systemet. Detta runtime lager är också ansvarig för att effektivt använda den underliggande hårdvaran utan att utsätta sin komplexitet för programmet. I själva verket blir samarbetet mellan den heterogena parallella hårdvaran och runtime-lagret det enda sättet att hålla den programmerbarhet som vi förutser inom acceptabla nivåer samtidigt som vi hanterar minnes-, kraft- och motståndskraftsväggarna. Nuvarande multikärnor är konstruerade som enkla symmetriska multiprocessorer (SMP) på ett chip. Vi anser dock att detta inte är tillräckligt för att övervinna alla de problem som flera kärnor redan har att ta itu med. För att på ett korrekt sätt dra nytta av deras potential krävs ett förstärkt samarbete med hårdvaruprogramvara. Det är vår ståndpunkt att runtime måste driva utformningen av framtida multi-cores för att övervinna utmaningarna med de ovan nämnda väggarna. Vi ser fram emot en Runtime-Aware Architecture (RAA), en helhetssyn där den parallella arkitekturen delvis implementeras som ett runtime-hanteringslager för programvara, och resten i hårdvara. I denna arkitektur styrs TLP och DLP av körtiden och är öppna för programmeraren. Tanken är att ha en uppgiftsbaserad representation av parallella program och hantera uppgifterna på samma sätt som superscalar processorer hantera ILP, eftersom uppgifter har databeroenden mellan dem och en databeroende graf kan byggas på runtime eller statiskt. Som sådan skulle körtiden driva utformningen av nya arkitekturkomponenter för att stödja sin verksamhet. På höger sida av figur 1 kan vi se en representation av denna idé, där applikationen genomförs med hjälp av en högnivåprogrammeringsmodell som frikopplar den från körtiden och hårdvaran. Runtime inte bara använder hårdvaran effektivt, men också driver sin design. Som sådan, specifika hårdvarukomponenter som stöder runtime aktiviteter är en viktig punkt i RAA-metoden. Under erfarenheten av den nuvarande slutåldern och utrustad med en mogen vision om vad en produktiv framtid kan vara, många bra idéer som försvann under RISC klockfrekvens boom på 80- och 90-talen kan omformas och tillämpas med oförutsedda skalor eller omfattning, vilket resulterar i en innovativ vision om hur man ska hantera den aktuella broderingen där hårdvaruteknik har tagit oss. Vår inställning till parallella arkitekturer erbjuder en enda lösning som kan lindra de flesta av de problem vi stöter på i de nuvarande strategierna: hantering av parallellism, minnesväggen, kraftväggen, programmerbarhetsväggen och den kommande tillförlitlighetsväggen i ett brett spektrum av applikationsdomäner från mobila upp till superdatorer. Sammantaget är denna nya inställning till framtida parallella arkitekturer ett sätt att säkerställa fortsatta prestandaförbättringar, så att vi kan ta oss ur de tekniska svårigheter som datorer har förvandlats till, än en gång på grund av Moores lag. I avsnitt 1 beskriver vi mer i detalj hur en uppgiftsbaserad körtid hanterar arbetsbelastningen och hur vissa idéer som utnyttjas av superskalarprocessorer kan utnyttjas av körtiden. I Avsnitt 2 förklarar vi hur superscalar runtime har använts för att effektivt utnyttja multi-cores. I avsnitt 3 förklaras begreppet runtime-aware arkitekturer i detalj. Avsnitt 4 berättar om några relaterade arbeten. Slutligen kommenterar vi i avsnitt 5 slutsatserna från detta arbete. Vi planerar att använda ett runtime-system som använder en aktivitetsbaserad abstraktion där programmeraren specificerar vilka indata- och utdataargument för de olika uppgifterna, som går till Supercomputing Frontiers och Innovations Out-of-Order Execution Pipelined Execution Speculative Executive Execution hanteras på samma sätt som superscalar processorer hanterar instruktioner. Denna dataflödesinformation gör det möjligt att dynamiskt bygga och underhålla en Task-Dependency Graph (TDG), som utgör grunden för ett tätt samarbete med hårdvaran för att driva schemaläggningsbeslut och för att upptäcka möjligheter att hantera datarörelser i arkitekturen. Mer exakt, som vi kan se i tabell 1, runtime lager föreställa sig de olika uppgifterna i en parallell tillämpning som om de var instruktioner i en superskalar processor. På samma sätt kan hämta, avkoda och funktionella enheter i en pipeline ses som kärnan i den heterogena mångkärniga hårdvaran, medan register kan förutses som lokala och huvudsakliga minnen av parallella arkitekturer. Som sådan, begrepp som Out-of-Order, piped, och spekulativt utförande visas naturligt på körtidsnivå i termer av uppgiftsbaserade parallella tillämpningar. Aktivitetsberoende grafen tillåter körtiden att utföra oberoende uppgifter Out-of-Order, som instruktioner i traditionella superskalar arkitekturer. Djupa pipelines, som typiskt är en komponent i superskalar processorer, visas också på många kärnnivå i termer av sekvenser av uppgifter som kan överlappas för att uppnå mer prestanda. I framtiden många kärnsystem med hundratals kärnor, tomgångskärnor kan användas för att spekulativt utföra uppgifter för att påskynda ansökan framsteg och prefetch data i chipet. Eftersom vårt tillvägagångssätt består i att bearbeta uppgifter på samma sätt som superskalararkitekturer hanterar dynamiska instruktioner, kan många tillvägagångssätt som vanligtvis har tillämpats på undervisningspipelinenivå inspirera till optimeringar av körtiden och nya maskinvarudesigner. Ännu mer, eftersom uppgiftsberoende grafen är mycket mer komplex och har mycket mer parallellism att utnyttja än instruktioner beroenden, betydande optimeringar i termer av prestanda, kraft eller motståndskraft kan uppnås genom att exponera uppgift-beroende grafen för den tillgängliga hårdvaran och sedan balansera arbetsbelastningen i enlighet därmed. Dessutom förväntas nya arkitektoniska komponenter för att stödja körtiden spela en viktig roll. I synnerhet planerar vi att genomföra vår strategi i toppen av OpenMP Superscalar (Omps) [11] runtime lager, som representerar den senaste tekniken i uppgiftsbaserade runtime lager. Omps är en inbäddning av StarS [29] i OpenMP. Uppgiften abstraktion och hantering av parallellism från runtime systemet utgjorde ett stort genombrott i parallellprogrammering. Exponera dataflödet över uppgifter, gör det möjligt för runtime-systemet att effektivt driva den parallella hårdvaran på samma sätt som superscalar-processorerna hanterar de funktionella enheterna. Detta öppnar dörren för en stor mängd komplexa optimeringar som runtime-systemet och den underliggande arkitekturen kan prestera på ett transparent sätt, vilket ger varaktiga prestandaförbättringar över nya maskinvarugenerationer. För resten av avsnittet kommenterar vi flera tekniker som körtiden kan gälla för att övervinna var och en av de ovan nämnda väggarna. Runtime schemaläggaren kan upptäcka och utnyttja tidsdata återanvändning genom att ombeställa uppgifter som återanvänder samma indata, eller som använder resultaten av de tidigare uppgifterna. Dessutom kan det fatta beslut om datadistribution, allokera data i närheten av var uppgiften kommer att utföras, förhämtning av data i förväg, och skapa explicita kopior för ökad lokalitet om samma data krävs på flera platser samtidigt. Bellens m.fl. [3] visa den potentiella nyttan av dessa tekniker i Cell Broadband Engine mikroarkitektur, som har åtta acceleratorer, var och en med ett 256KB lokalt minne, och en PowerPC-processor. Runtime tar hand om uppgiften schemaläggning och datahantering mellan de olika processorer i denna heterogena arkitektur genom att använda en lokal-medveten mekanism för att minska overhead av dataöverföringar från PowerPC till acceleratorer. Minimering av datarörelser i minneshierarkin är verkligen en nyckelteknik för att hantera minnesväggen, eftersom det minskar antalet åtkomster till huvudminnet och utnyttjar synergier mellan minnessystemets olika komponenter. Vissa initiala resultat har redan erhållits i CPU+GPU-system [7]. Runtime systemet flyttar data som behövs mellan de olika noderna och GPUs minimerar effekten av kommunikation genom att använda affinitet schemaläggning, caching, och genom överlappande kommunikation med den beräkningsuppgift. När en GPU-kärna startas, begär GPU-trådarna en ny uppgift till schemaläggaren. Därefter initieras överföringen av data som kan behövas av den förbeställda uppgiften. På så sätt kommer uppgifterna redan att vara tillgängliga när denna uppgift kan utföras. Denna prefetch är mer effektiv när den kombineras med överlappande beräkningar och dataöverföringar. För att göra det möjligt för processorer att utnyttja mer ILP, har registerrenaming utnyttjats i superskalar arkitekturer. Sådana metoder gör det möjligt att ha mer fysiska register än logiska register, undvika seriellisering sanktioner på grund av register återanvändning. De kräver att man håller reda på beroenden mellan instruktioners operander för att avgöra om ett nytt namnbytesregister kan tilldelas ett arkitekturregister. Renaming kan bidra till att ta bort anti-beroende mellan instruktioner, som också kan tillämpas på uppgifter [4]. Renaming kan tillämpas vid direktioneringstid, eller skjutas upp till strax före utförandet av uppgiften, på samma sätt som virtuella register [15], som kan fördröja fördelningen av fysiska register tills ett sent skede i rörledningen, i stället för att göra det i avkodar skedet. Eftersom diagrammet för uppgiftsberoende kan genereras i förväg är det möjligt att fördröja minnestilldelningen till uppgifter tills de börjar köras. Denna virtuella resursallokering gör det möjligt för andra uppgifter i den kritiska vägen att dra nytta av detta extra minne. Power Wall Potentialen att utnyttja den kritiska vägen har redan utvärderats i MPI-program [6]. Genom att använda kunskapen om den kritiska vägen och kombinera den med enkla profilbaserade tekniker, en uppsättning kompakta prestandaindikatorer som beskriver viktiga prestandarelaterade frågor, såsom belastningsobalans, resursförbrukning eller dynamisk arbetsbelastning, kan en effektiv schemaläggning härledas. Dessa prestandaindikatorer kan användas av körtidssystemet för att effektivt hantera belastning, handel prestanda för kraft eller vice versa, och totalt sett optimera och anpassa beslut om körtid till användarnas behov. Förbättringar upp till 18% i Runtime-Aware Architectures: A First Approach Supercomputing Frontiers and Innovations exekveringstid och 21% i energieffektivitet har uppnåtts genom att använda dynamiska prestandamått för att justera runtime beslut [37]. Utnyttja uppgift specialisering kan ge betydande förbättringar eftersom olika uppgifter kan schemaläggas och mappas till olika hårdvarukomponenter för att leverera maximal prestanda medan du spenderar låg effekt. Till exempel, genom att använda minnesspecifik prestandainformation (dvs. cachekapacitet och minne bandbredd krävs), kan de olika uppgifterna mappas till hårdvara komponenter med de nödvändiga minnesresurserna eller, alternativt, om en uppgift redan var igång, det skulle vara möjligt att stänga av icke-krävda bitar av minnet. Detta skulle innebära mycket viktiga förbättringar när det gäller energiförbrukningen. Dessutom kan programmeraren eller kompilatorn för samma uppgift tillhandahålla olika versioner av kod som riktar sig mot flera acceleratorer och, enligt hårdvarutillståndet, körtiden kan välja vilken version av koden som ska användas [30]. Som sådan, om maskinen har vissa kärnor med stöd för vektor instruktioner, kan körtiden minska strömförbrukningen schemalägga lämpliga uppgifter för dem att utnyttja sin minskade hämta och avkoda strömförbrukningen. Tillförlitlighet Vägg Ett brett utbud av tekniker kan tillämpas på körtidsnivå för att öka applikationernas motståndskraft och hantera pålitlighetsväggen. Om vi antar att uppgifterna är idempotent, kan vi ta kontroll-punkter av uppgifternas indata och åter utföra dem om något fel äger rum [38]. För att minska minnet overhead, kan vi använda en smart kopieringsmekanism som tar bara en kontrollpunkt per inmatning, även om det används av flera uppgifter. Alternativt är det också möjligt att utöka programmeringsmodellen för att göra det möjligt för användaren att ange koder som är särskilt känsliga ur motståndskraftssynpunkt genom att använda särskilda pragmaanmärkningar. Detta skulle ge till körningen informationen om vilka uppgifter som bör kartläggas i mer motståndskraftiga hårdvarukomponenter. En annan möjlig förbättring som uppgiftsbaserade körtider tillåter är att tolerera latency som recomputation tekniker inducerar genom överlappande beräkning med återvinningstekniker och låt utförandet fortskrider om den felaktiga uppgiften inte är i den kritiska vägen. Det är ett utmärkt ramverk för att distribuera algoritmiska återvinningar eftersom dess kostnad kan tolereras genom att överlappa dem med vanliga körtidsuppgifter. Körtiden kan hantera databeroenden som gör det möjligt för programmeraren att leverera en enkel kod där bara in- och utgångsparametrarna för de olika uppgifterna specificeras, vilket i synnerhet förenklar arbetet med att effektivt programmera heterogena många huvudarkitekturer. Som sådan används aktivitetsberoendekurvan av körtiden för att exponera den parallella arbetsbelastningen för den tillgängliga hårdvaran på ett transparent sätt från programmerarens synvinkel, i den meningen att programmets källkod inte innehåller information om hur arbetsbelastningen ska hanteras förutom att ange in-/utmatningsparametrarna. Som sådan kan de programmeringssvårigheter som observerats i heterogena mångkärniga arkitekturer som Cellprocessorn [41] undvikas genom att man betraktar körtidshanteringen som en del av den hårdvara som effektivt hanterar lasten utan att problemet uttryckligen behöver exponeras för programmerarna. Som en följd av detta tar runtime hand om att balansera belastningen mellan olika kärnor och kan tilldela fler uppgifter till snabbare kärnor. Samma runtime-lager kan enkelt anpassas till program med flera implementationer av samma aktivitetstyp (dvs. justerat för olika acceleratorer eller kärnor) och bestämma i vilken exekveringsenhet uppgiften ska köras. En uppgiftsbaserad metod kan potentiellt minska de synkroniseringskostnader som delade minnesstrategier normalt har och därmed uppnå betydande prestandaförbättringar när de hanterar mycket parallella arbetsbelastningar på många kärnor marker. Eftersom de gör det möjligt för programmeraren att ange programdelar som kallas uppgifter, som kan utföras samtidigt, görs kartläggningen av uppgifter till trådar dynamiskt genom en körtidsmiljö utan något specifikt programmeraransvar på det sätt som synkroniseringskostnaderna minskas. Vår visionerade Runtime-Aware Architecture (RAA) utgör ett nytt paradigm av parallella datorsystem där runtime management lager driver hårdvara design, och de båda samarbetar för att utnyttja en aldrig tidigare skådad grad av parallellism on-chip och utnyttja information om databeroenden. I detta avsnitt beskriver vi i detalj de olika aspekterna av sådan hårdvara-programvara samarbete och vi diskuterar några nya möjligheter som det medför. Vi exponerar flera aspekter av RAA-metoden genom att beskriva flera tekniker för att hantera minne, kraft, motståndskraft och programmerbarhet väggar och förklara hur hårdvaru-samarbete kan utnyttja dem. Minnesvägg Ökande data återanvändning i superskalar arkitekturer var avgörande för att minska effekten av minnesväggen. I RAA:s finns det en stor marginal för prestanda- och energieffektivitetsförbättringar i utvecklingen av schemaläggningsstrategier som utnyttjar denna kunskap om framtiden, kodad i uppgiftsberoende grafen. RAA: s erbjuda möjligheten att utöka dessa idéer med specifik hårdvara stöd som automatiskt hanterar dessa dataöverföringar med hjälp av runtime systemet genom att förlita sig på programvara samstämmighet eller på specifikt arkitektoniskt stöd för att sprida uppdateringar över flera kopior av data. Prefetching spelade en oerhört viktig roll i kampen mot minnesväggen i superskalar arkitekturer. I RAA: s kan vi kombinera kapaciteten hos runtime schemaläggaren för att utnyttja information om framtida dataöverföringar, med rätt typ av hårdvara stöd för att optimera sådana överföringar. Det nödvändiga hårdvarustödet är asynkrona datarörelser, som gör det möjligt för schemaläggaren att överlappa de dataöverföringar som krävs för framtida uppgifter med utförandet av den aktuella uppgiften, vilket minskar bandbreddskraven och tolererar minneslatenser eftersom överföringen är utanför den kritiska vägen [25]. Konstruktionskraven för detta nya minnessystem skiljer sig avsevärt från dagens konstruktioner där minnesöverföringar alltid befinner sig i den kritiska vägen. Eftersom körtiden systemet kan avgöra i förväg vilka uppgifter som kommer att utföras i en viss kärna efter den aktuella verkställande uppgiften slutförs, kan det också bestämma de data som krävs av den kommande uppgiften och förladda dessa data till önskad nivå i cachehierarkin med hjälp av lås- och spolningsmekanismer som utvecklats med detta mål [14, 28]. Denna teknik har en hel del potential, men om tillämpas för aggressivt eller för tidigt, kan vräka aktiva data av den aktuella verkställande uppgiften, negativt påverkar prestandan av ansökan. Som ett alternativ kan särskilda buffertar läggas till arkitekturen för att lagra indata från framtida uppgifter utan att påverka innehållet i cachehierarkin. Dessutom kan uppgifter från tillverkare och konsumenter på ett effektivt sätt vidarebefordras med lämpligt hårdvarustöd [23]. Minimera datarörelser på chip och off-chip är mycket viktigt när det gäller slutprestanda och strömförbrukning. Att utnyttja lokaliteten genom återanvändning eller förhämtning kommer inte att vara tillräckligt i framtida mångkärniga system. Förenklade koherensprotokoll som styrs av körtidens system kan användas för att minska koherenstrafiken [24]. Ett intressant komplement består av uppgraderade rörelseprimära som utför användardefinierade transformationer på datan när den överförs. In-minne funktionella enheter för heltal, flyttal eller vektor operationer har varit Supercomputing Frontiers och Innovationer föreslås i det förflutna, men dessa omvandlingar kan också göras i nätverket routrar. Dessutom, mer avancerade Network-on-Chip (NoC) topologier som kan dynamiskt anpassa datarörelser beroende på innehållet i nätverket kan bidra till att minska NoC:s tviste- och kommunikationslatenser. I allmänhet, kritisk-medveten kommunikation kommer att vara avgörande i vår föreställande RAA. Vi kan också föreställa oss strategier som tilldelar mer eller snabbare resurser till uppgifter som befinner sig i den kritiska vägen (eller sannolikt kommer att vara) för den parallella tillämpningen. I ett mångkärnigt system är schemaläggning av kritiska uppgifter till snabbare kärnor och samtidigt minimering av resursinnehåll och datarörelse av största vikt och kräver ett nära samarbete mellan arkitekturen och runtime-systemet. Eftersom hybrida NoC:er och minnen kommer att bli verklighet i sådana system, är utvecklingen av lämpliga prioriteringsmekanismer för kommunikation och minnesåtkomst av kritiska uppgifter en nyckelpunkt för att minska den totala verkställighetstiden för den parallella applikationen. Power Wall Den kritiska vägen är en av de viktigaste dynamiska egenskaperna hos ett parallellt program. Eftersom det är den globala genomförandevägen för uppgifter som tvingar till att vänta på andra uppgifter utan att själv fördröjas, är de händelser som inte ingår på den upp till en viss utsträckning latenstoleranta, eftersom de kan ta mer tid att slutföra utan att skada utförandet av hela ansökan. Det öppnar ett brett spektrum av potentiella förbättringar när det gäller strömförbrukning eller prestanda: Om en given minnesåtkomst inte är i den kritiska vägen, kan den utföras i en lång-latens och därmed låg effekt region i minnet. På samma sätt kan uppgifter som inte är i den kritiska vägen kartläggas till långsammare och därmed låg effekt hårdvarukomponenter i det mångakärniga systemet. Alternativt, om en viss uppgift är i den kritiska vägen, kan det kartläggas till snabbare hårdvarukomponenter eftersom dess tidiga slutförande kan avsevärt minska väntetiden för andra uppgifter och därmed minska den totala energiförbrukningen. I superscalar processorer, specialiserade funktionella enheter kan förbättra prestanda och uppnå låga strömförbrukningshastigheter för olika faser av program utförande. Heterogena konstruktioner kan påskynda många tillämpningar som kombinerar beräkningsintensiva och kontrollintensiva faser av beräkning, som helst bör hanteras av olika bearbetningselement. Dessa koder inkluderar storskaliga vetenskapliga beräkningar, komplexa simuleringar av fysiska fenomen, komplexa visualiseringar eller finansmarknadernas förutsägelser. Medan system med heterogena funktionella enheter avsevärt kan förbättra prestanda och strömförbrukning, de kräver att korrekt dela upp programmets kod över alla tillgängliga funktionella enheter eller att effektivt hantera datarörelser mellan funktionella enheter. Således kan runtime systemet bli en utmärkt hantering lager för att effektivt använda hårdvara med heterogena kärnor och acceleratorer utan att göra programmerbarheten svårare. Eftersom diagrammet över uppgiftsberoende kan skapas före uppgifternas utförande kan hanteringen av heterogena funktionella enheter planeras på ett korrekt sätt. Dessutom kan viss historisk information om de uppgifter som redan har utförts i form av prestanda eller resursanvändning behållas av körtiden. Genom att kombinera dessa historiska data med diagram över uppgiftsberoende kan effektiva planeringsbeslut fattas av körtiden. Tillförlitlighet Vägg Minska felutbredning är avgörande för att öka applikationernas motståndskraft och hantera pålitlighetsväggen. Eftersom mjuka fel som inträffar under en aktivitetsutförande kommer att påverka dess utgångar och alla uppgifter som använder dessa som inmatningsparametrar, erbjuder RAA viktiga möjligheter eftersom informationen i aktivitetsberoendekurvan kan användas som en proxy för uppgifternas känslighet när det gäller felutbredning. Som sådan kan vi bestämma de mest känsliga delarna av uppgiftsberoende grafen och utföra motståndskraftsförbättringar på dem. Dessa en- hancements kan variera från enkla tillvägagångssätt såsom uppgift replikation till sofistikerade algoritmiska kontroller. I vilket fall som helst bör motståndskraftsteknikerna kunna kontrollera fel och korrigera så många som möjligt. Hårdvaran kan stödja dessa motståndskraftsförbättringar antingen genom att möjliggöra snabba och effektiva omräkningar, genom att använda data som redan finns i cache, genom att stödja snabba datarörelser, eller genom att ha några dedikerade kärnor uteslutande inriktade på att köra algoritmiska kontroller för att upptäcka och korrigera datakorruptioner. Felkorrigering av koder (ECC) [35] är en välkänd teknik baserad på kodning av vissa data på ett redundant sätt speciellt utformad för att upptäcka eventuell korruption i de ursprungliga uppgifterna. De implementeras vanligtvis i minnessystem för att upptäcka och korrigera datakorruptioner. ECC kan även användas för att mäta felfrekvensen som en viss hårdvarukomponent experiment, som gör det möjligt att leverera maskiner med en viss motståndskraft garanti. RAA-metoden kan också dra nytta av dessa metoder genom att utföra ECC-kontroller av data medan de överförs. Till exempel, om ett visst paket väntar i kön på en omkopplare, kan vissa ECC-baserade kontroller utföras på det för att upptäcka korruption och återställa dataintegritet om möjligt. Sådana ECC-kontroller skulle inte påverka prestandan, eftersom de utförs under transmisioner. Som sådan, minne, on- and off-chip nätverk bör ha stöd för ECC. Programmerbarhet Vägg För nuvarande körtidssystem, granulariteten av uppgifter måste vara grov nog att försumma körtiden overhead. Till följd av detta måste uppgifternas minsta varaktighet vara i storleksordningen tiotals hundra millisekunder. För vissa algoritmer krävs finare detaljrikedomar av uppgifter för att bättre uttrycka algoritmens inneboende parallellism. Av den anledningen har arkitektoniskt stöd för uppgiftsbaserade genomförandeparadigm föreslagits för att påskynda körtiden systemet och tolerera mycket finare uppgifter granulariteter. Att hantera tusentals uppgifter i drift kräver hårdvarumekanismer för att påskynda byggandet av THG [12, 44], och schemaläggning beslut [22, 33]. För att balansera belastningen av ansökan, uppgift stjäla tekniker kan genomföras i hårdvara [22]. I heterogena system är belastningsbalansering och schemaläggning mycket komplex ur programmerarens perspektiv. Att kunna hantera en enorm mängd finkorniga uppgifter tillsammans med hårdvarustöd för lastbalansering och schemaläggning kommer avsevärt att underlätta skrivandet av parallella applikationer för många kärnor. Vår visionerade RAA Architecture Figur 2 och 3 skildrar de olika delarna av vår visionerade runtime-medveten arkitektur. Vi utformar ett massivt parallellt system med flera noder där varje nod har flera uttag, och varje uttag flera kluster av kärnor. Det är vår ståndpunkt att framtida exaskala system kommer att vara heterogena på flera nivåer, med olika typer av exekveringsenheter (stora och små kärnor) och acceleratorer (GPU, vektorprocessorer, nätverk, etc.).), sammankopplingsnät (elektriska, optiska och trådlösa) och minnen (DRAM, icke-flyktigt minne osv.). Dessutom kommer hanteringen av djupa minneshierarkier och sammankopplingsnät på flera nivåer att vara avgörande för att uppnå toppprestanda. Med tanke på hårdvarans heterogenitet, datalokalitet och återanvändning, strömförbrukning och tillförlitlighet i drift är det avgörande för att övervinna de väggar som hotar Moores lag. Berikad information på hårdvarunivå krävs för att köra systemet för att optimera dessa mål. För att minimera omkostnaderna för detta körtidssystem är särskilt hårdvarustöd obligatoriskt [12, 22, 33]. Med hjälp av dessa strukturer kan viktiga aspekter av RAA:s uppbyggnad av GDG, schemaläggning av uppgifter, lastbalansering och dataplacering göras utan att det påverkar programmets prestanda. Dessa strukturer skulle vara den största delen av systemkärnor blockdiagram i figur 2. På samma sätt som IBM Blue Gene/Q-processor [17] ingår en specifik kärna för operativsystemets verksamhet (OS i figur 2 ) i varje kluster av kärnor, medan runtime front-end-aktiviteter sker i en specifik hårdvara (RT). Det är fortfarande en öppen fråga om dessa två kärnor kan kombineras i en enda struktur. Körbara uppgifter sätts in i ett kösystem som liknar Carbon [22], som stöder aktivitetsstöld och schemaläggs till de tillgängliga kärnorna. För att karakterisera de hårdvaruresurser som varje aktivitetstyp kräver, utformas en specifik struktur, betecknad resursinnehåll Core (RCC). Slutligen är en Data Transfer Engine (DTE) ansvarig för datarörelser i kärnklustret. Den DTE utnyttjar data återanvändning, lokalitet, och prefetches uppgifter in i förväg. De generiska klusterkärnorna i figur 2 omfattar exekveringskärnor, acceleratorer, on-chip-nätverk och cachehierarki. Processorkärnor fungerar alltså effektivt som funktionella enheter. I RAA:s föreslår vi att ha en hybridminneshierarki med en L1-datacache och ett lokalt minne (eller scratchpad) per kärna, som visas i figur 2. Det är mycket svårt att hantera en sådan minneshierarki, men om vi gör det på ett tillfredsställande sätt kan vi avsevärt minska koherenstrafiken och få ett mer energieffektivt system. Vi har till exempel visat att med lämpligt kompilatorstöd kan en sådan hybridhierarki utnyttjas för OpenMP-koder [1]. I detta tillvägagångssätt betjänas avancerade åtkomster av det lokala minnet, medan oregelbundna åtkomster betjänas av L1-datacachen. Ett minimalt maskinvarustöd krävs för enhetlighet och konsekvens, men betydande energibesparingar uppnås som ett resultat av detta. I samband med RAA:s verksamhetsbaserade programmeringsmodeller som Omps kan vara till stor hjälp. Till exempel kan aktivitetsindata och utdata automatiskt kartläggas till lokala minnen, medan andra åtkomster skulle betjänas av L1-cachen. DTE i systemkärnorna kan hantera DMA-överföringar för att förge data i tid. Med detta tillvägagångssätt skulle slutligen datarörelserna på grund av koherensprotokollen minskas avsevärt. Den nuvarande Network-on-Chip (NoC) designar som ring- och bussbaserade topologier [39] ger en energi- och genomströmningseffektiv lösning för kommunikation inom små multikärnor. Eftersom dessa traditionella tillvägagångssätt för NoC inte skala för många kärnor, är det nödvändigt att utforska nya och skalbara NoC metoder såsom trådlösa sammanlänkningar, som kan användas i samband med traditionella trådbundna och optiska sammanlänkningar i nya RAA NoC topolo-gies för både 2D och 3D integrerade kretsar [45]. Slutligen utformas heterogena nätverk på chip för att tjäna de olika egenskaperna hos dessa strukturer i hybridminneshierarkin. Cluster kärnor delar en lokal L2 cache, medan en stor sista nivå på chip cache delas mellan olika kluster i uttaget. Lokala minnen i olika kluster kommer att kunna kommunicera via ett specifikt kluster till klusterkommunikationsmotorn (benämns CL2CL Comm i figur 2). Denna motor kunde också hantera kommunikation mellan olika uttag i en nod. Olika uttag i en nod är anslutna med ett höghastighetsnät, medan olika typer av minnen är tillgängliga för uttaget. Att bestämma om man ska fördela minnet i ett vanligt DRAM-minne eller i ett icke-flyktigt minne kommer att vara en viktig aspekt som kommer att bli lättare att avgöra tack vare den berikade information som tillhandahålls av dataflödesrepresentationen av programmet. Vi kan till exempel föreställa oss att de slutliga resultaten av en ansökan bör kartläggas till ihållande minnen. Flera forskargrupper har föreslagit systemarkitekturer med likheter med vår visionerade RAA. Till exempel föreslår SARC-arkitekturen [31] att man ska ha separata kluster av master- och arbetarkärnor med lokala minnen och sammanhängande L2- och L3-cacher. Rigelarkitekturen [21] föreslår att man ska ha kluster av kärnor med L1-instruktionscacher och inkonsekventa L2-cacher (per kluster), tillsammans med en global delad L3-cache. Slutligen bygger Runnemede-arkitekturen [8] också på en dataflödesutförandemodell för att utföra i en datormiljö nära tröskeln, med flera kluster av homogena kärnor och en hierarki av lokala minnen. I denna arkitektur hanteras samstämmigheten mellan kluster fullt ut i programvara. Relaterat arbete Det mest spridda distribuerade minnet API är MPI [16], som i princip består av en uppsättning makron för att uttryckligen indikera datautbyte mellan olika uppgifter. Kommunikation kan vara peka på punkt eller kollektiv och använda synkrona eller asynkrona protokoll, den första är mer robust i den meningen att data inte kan förloras utan betala den typiska synkronisering börda. OpenMP är en implementering av den klassiska delade minne multitrådade gaffeljoin programmeringsmodell [2]. Som standard kör varje tråd sin egen parallelliserade kodsektion självständigt. Parallellism på uppgifts- och datanivå kan uppnås genom arbetsdelningskonstruktioner som används för att dela upp beräkningsbelastningen mellan trådarna. Trådar allokeras till processorer baserade på miljövariabler eller i kod med hjälp av funktioner. Runtime-Aware Architectures: A First Approach Supercomputing Frontiers and Innovations I samband med högpresterande datorer används OpenMP vanligtvis för att hantera parallellism på chip, eftersom delning av datatrådar kan använda minnesresurserna mer effektivt. OpenMP skalas dock inte upp till flera tiotals trådar på grund av synkroniseringskostnader. Följaktligen måste MPI användas för att uppnå godtagbar skalbarhet i måttliga och storskaliga körningar. Typiskt är MPI används för att hantera off-chip kommunikation. Det är intressant att säga att hybrid MPI+OpenMP implementationer på något sätt återspeglar hur minnet är organiserat i parallella kluster. Som sådan har hybrid MPI+OpenMP blivit normen inom området vetenskaplig databehandling. Flera aktivitetsbaserade programmeringsmodeller har utvecklats under de senaste åren: Cilk [5] är ett runtime-system för multitrådade koder. För att till fullo kunna utnyttja Cilk-potentialen måste koderna struktureras för att exponera parallellism och utnyttja lokalitet, vilket lämnar Cilks körtid med ansvar för att schemalägga beräkningen för att optimalt köras på en given plattform. Som sådan, Cilk runtime systemet hanterar saker som lastbalansering, synkronisering och kommunikationsprotokoll. Intel Threading Building Blocks (TBB) [32] är ett C++ mallbibliotek för aktivitetsbaserad parallellism. Det är tänkt att förenkla den parallella programbördan genom att be programmerarna att ange logisk parallellism i stället för trådar och genom att låta runtimebiblioteket kartlägga logisk parallellism på trådar som effektivt använder den tillgängliga hårdvaran. CUDA (Compute Unified Device Architecture) är en parallell datormaskinvara och programmeringsmodell som utvecklats av NVIDIA speciellt utformad för grafikenheter (GPU). Det gör det möjligt för utvecklarna att komma åt den virtuella instruktionsuppsättningen och minnet av de parallella GPU:erna. OpenCL är en standard för plattformsoberoende parallellprogrammering. Det gör det möjligt för programmerare att implementera och köra parallella koder i heterogena plattformar som kan inkludera CPU, GPU's, Digital Signal Processors (DSP) eller andra typer av processorer. Trots att många av de programmeringsmodeller och datorparadigm som nämns ovan har varit framgångsrika på att uppnå betydande genomgångar från nuvarande högpresterande datorinfrastrukturer, utmattning av traditionella prestandaförbättringar tekniker, som ILP eller OoO, innebär att mer asynkrona och flexibla programmeringsmodeller och runtime system kommer att användas för att exponera enorma mängder parallellism till hårdvaran. För att minska synkroniseringskostnaderna, optimera datarörelse över djupa minneshierarkier och hantera kritiska vägbaserade optimeringar behöver vi dataflödesscenarier som är mycket mer flexibla och har mycket mer potential än traditionella gaffel-join-strategier. Vissa modeller för dataflödesprogrammering håller på att utformas för att lösa sådana problem. Projektet Habanero [34] syftar till att utveckla en programmeringsmodell, en kompilator och ett runtime-system för att hantera uppgiftsbaserad asynkron parallellism samtidigt som man utnyttjar lokaliteten bland uppgifter och data som distribueras över kärnorna. Charm++ [20] är en C++-baserad asynkron meddelandedriven programmeringsmodell. Dess grundläggande arbetsenheter är meddelandedrivna föremål som kallas tecken. När programmet startar ett meddelande skapas ett objekt och dess tillhörande arbete utförs. När arbetet är klart förstörs skaran och dess utgång skickas till nästa utbrott av tecken som använder dessa data som inmatning. De tecken är dynamiskt kartlagda till fysiska processorer av körtiden systemet. Sådan kartläggning är transparent för programmet och därför görs det i syfte att öka belastningsbalansen och feltoleransen. Intressant nog har domänspecifika programmeringsspråk, som Sequoia [13], utvecklats för att specifikt uttrycka hierarkiskt minne genom att använda vissa programmeringsmodell primitiver och därmed låta programmeraren beskriva datarörelser vertikalt genom maskinen och lokalisera beräkningar till särskilda minnesplatser inom den. 4.4. Vad är det för fel på dig? Data-Graph Execution ISA: s Vissa ISA: s har särskilt utformats för att utföra instruktionerna med hjälp av en data-graf metod. LAU:s multiprocessor [10] föreslogs som syftar till att dra nytta av parallellism över tre nivåer: mellan jobb, mellan uppgifter inom ett arbete och mellan instruktioner inom en uppgift. För att möjliggöra skalbara och distribuerade processorkärnor har klinkerarkitektur föreslagits [26, 36, 40]. De består av flera enkla bearbetningselement som är sammankopplade med en on-chip-anslutning. Schemaläggningsinstruktioner i klinkerarkitekturer är avgörande för att få bra prestanda [26]. Explicit Data Graph Execution (EDGE) arkitekturer är exempel på kaklade arkitekturer [36]. Till skillnad från traditionella processorarkitekturer som arbetar på granulariteten av en enda instruktion, EDGE ISA stöd stora grafer av beräkning kartlagt till en flexibel hårdvara substrat, med instruktioner i varje graf kommunicera direkt med andra instruktioner, snarare än att gå igenom en delad registerfil. Denna förmåga minskar inte bara design komplexitet, men avtecknar utförandet overheads över en stor graf av instruktioner. I det här dokumentet introducerar vi en första strategi mot en Runtime-Aware Architecture (RAA), en massivt parallell arkitektur utformad ur runtimes perspektiv. Detta tillvägagångssätt erbjuder en enhetlig och allmän lösning som potentiellt kan lösa de flesta av de problem vi stöter på i de nuvarande strategierna: hantering av parallellism, minnesväggen, kraftväggen, programmerbarhetsväggen och den kommande tillförlitlighetsväggen i ett brett spektrum av applikationsdomäner från mobila upp till superdatorer. Sammantaget är denna nya inställning till framtida parallella arkitekturer ett sätt att säkerställa fortsatta prestandaförbättringar, så att vi kan ta oss ur de tekniska svårigheter som datorer har förvandlats till, än en gång på grund av Moores lag. Erkännanden. Detta arbete har delvis fått stöd av det spanska ministeriet för vetenskap och innovation inom ramen för bidraget TIN2012-34557, HiPEAC Network of Excellence och av Europeiska forskningsrådet inom ramen för Europeiska unionens sjunde ramprogram, ERC Grant Agreement nummer 321253. Vi vill tacka Alex Ramirez, Osman Unsal, Adrian Cristal, Mario Nemirovsky, Ramon Beivide, Alejandro Rico och hela RoMoL-teamet för de produktiva diskussionerna och all den feedback som vi fick när vi förberedde detta manuskript. | Uppgift Superscalar avbröts på grund av några design dödlägen, och inspirerade Picos som ett tidigt exempel på en Runtime-Aware arkitektur REF. | 31,696,400 | Runtime-Aware Architectures: A First Approach | {'venue': 'Supercomputing Frontiers and Innovations', 'journal': 'Supercomputing Frontiers and Innovations', 'mag_field_of_study': ['Computer Science']} | 6,288 |
Radiofrekvens (RF) möjliggör trådlös energiöverföring (WET), som en lovande lösning för att tillhandahålla kostnadseffektiva och tillförlitliga nätaggregat för energianslutna trådlösa nät, har på senare tid väckt växande intresse. För att övervinna den betydande spridningsförlusten över avstånd, med flera antenner vid energitransmittern (ET) till effektivare direkt trådlös energi till önskade energimottagare (ERs), kallas energi strålformning, är en viktig teknik för att möjliggöra WET. Den uppnåeliga vinsten av energiformning beror dock på tillgänglig kanalstatsinformation (CSI) vid ET, som måste förvärvas i praktiken. I detta dokument studerar vi utformningen av en effektiv kanal förvärvsmetod för en point-to-point multipleinput multiple-output (MIMO) WET-system genom att utnyttja kanalen ömsesidighet, dvs ET uppskattar CSI via dedikerad omvänd länk utbildning från ER. Med tanke på den begränsade energitillgången vid ER bör utbildningsstrategin vara noggrant utformad så att kanalen kan uppskattas med tillräcklig noggrannhet och ändå utan att förbruka alltför mycket energi vid ER. I detta syfte föreslår vi att man maximerar den nettoskördade energin vid ER, vilket är den genomsnittliga avverkade energin som kompenseras av den som används för kanalutbildning. Ett optimeringsproblem är formulerat för träningen design över MIMO Rician blekningskanaler, inklusive den delmängd av ER antenner som ska tränas, samt den träningstid och makt tilldelade. Closed-form lösningar erhålls för vissa speciella scenarier, baserat på vilka användbara insikter dras när utbildning bör användas för att förbättra nätet överförd energi i MIMO WET-system. Index Terms-Wireless energiöverföring (WET), energi strålformning, kanal utbildning, RF energi skörd. | Referensreferensreferensen föreslår en pilotutformningsmetod som överför piloter från energimottagaren till energisändaren för ett WET-system från punkt till punkt och avlastar kanalens uppskattningsnoggrannhet och motsvarande förbrukade energi. | 3,543,648 | Optimized Training Design for Wireless Energy Transfer | {'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 6,289 |
APS algoritmer använder den grundläggande idén om distansvektor routing för att hitta positioner i ett ad hoc-nätverk med endast en bråkdel av landmärken, till exempel GPS-aktiverade noder. Alla noder i nätverket antas ha möjlighet att mäta: räckvidd, ankomstvinkel (AOA), orientering, eller en kombination av dem. Vi ger en lägre gräns för positioneringsfel i ett multihop-nätverk för en spännvidd/vinkelfri algoritm, och undersöker felegenskaperna hos fyra klasser av multihop APS-algoritmer under olika förhållanden, med hjälp av teoretisk analys och simuleringar. Analys av spännvidd/vinkelfri, avståndsbaserad, vinkelbaserad och multimodal algoritm visar en komplex avvägning mellan de kapaciteter som används, nätverkets densitet, förhållandet mellan landmärken och kvaliteten på de positioner som erhålls. | Niculescu och Nath REF föreslår en lokaliseringsmetod som bygger på den grundläggande idén om avstånd vektor routing med endast en bråkdel av fyrar, med antagandet att varje sensor nod har någon kombination av förmåga att mäta räckvidd, vinkel för ankomst (AOF), orientering. | 1,391,289 | Error characteristics of ad hoc positioning systems (aps) | {'venue': "MobiHoc '04", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,290 |
Vi överväger att använda överföringslärande, genom användning av djupa Convolutional Neural Networks (CNN) för bildklassificeringsproblem som uppstår i samband med säkerhetskontroll av röntgenbagage. Användningen av en djup flerskikts CNN-strategi kräver traditionellt stora mängder träningsdata för att underlätta uppbyggnaden av en komplex fullständig endto-end-funktionsextraktion, representation och klassificeringsprocess. Inom ramen för säkerhetsscreening av röntgenbilder kan därför begränsad tillgång till utbildning för särskilda föremål utgöra ett problem. För att lösa detta problem använder vi en överföring lärande paradigm så att en förtränad CNN, främst utbildad för generaliserade bild klassificering uppgifter där tillräckliga utbildningsdata finns, kan särskilt optimeras som en senare sekundär process som riktar sig specifikt denna applikation domän. För det klassiska problemet med detektering av handeldvapen uppnår vi 98.92% detekteringsnoggrannhet som överträffar tidigare arbete inom området och utvidgar dessutom vår utvärdering till en flerfaldig objektklassificeringsuppgift i detta sammanhang. | Genom att använda överföringslärande i genomsnitt visar REF att CNN-arkitekturen överträffar BoVW-funktionerna genom att uppnå 98,92 % detektionsnoggrannhet i skjutvapenklassificeringen. | 2,084,038 | Transfer learning using convolutional neural networks for object classification within X-ray baggage security imagery | {'venue': '2016 IEEE International Conference on Image Processing (ICIP)', 'journal': '2016 IEEE International Conference on Image Processing (ICIP)', 'mag_field_of_study': ['Computer Science']} | 6,291 |
Displayer baserade på organisk ljusavgivande diod (OLED) teknik visas på många mobila enheter. Till skillnad från flytande kristall displayer (LCD), OLED-skärmar förbrukar dramatiskt olika makt för att visa olika färger. I synnerhet OLED-displayer är ineffektiva för att visa ljusa färger. Detta har gjort dem oönskade för mobila enheter eftersom mycket av webbinnehållet är av ljusa färger. För att ta itu med detta problem presenterar vi motivationsstudier, design och förverkligande av Chameleon, en färgad adaptiv webbläsare som gör webbsidor med strömoptimerade färgscheman under användarbaserade begränsningar. Drivs av resultaten från våra motivationsstudier, Chameleon ger slutanvändare med viktiga alternativ, avlastar uppgifter som inte är absolut nödvändiga i realtid, och utför realtidsuppgifter genom att noggrant förbättra kodbasen för en webbläsare motor. Enligt mätningar med OLED smartphones, Chameleon kan minska den genomsnittliga system strömförbrukningen för webbsurfning med 41 procent och kan minska visningseffektförbrukningen med 64 procent utan att införa någon märkbar fördröjning. | Till exempel föreslog REF Chameleon, en mobil webbläsare för OLED-skärmar. | 2,292,328 | Chameleon: A Color-Adaptive Web Browser for Mobile OLED Displays | {'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']} | 6,292 |
Abstract-En allt äldre befolkning världen över sätter vår medicinska kapacitet på prov. Forskning och kommersiella grupper undersöker nya sätt att vårda äldre och kroniskt sjuka både i sina egna hem och på vårdinrättningar. Detta dokument beskriver en prototyp som vi har utvecklat för fjärrövervakning inom hälso- och sjukvården. Detta personliga smarta hemvårdssystem använder smarta telefoner, trådlösa sensorer, webbservrar och IP-webbkameror. För att illustrera prototypens funktionalitet beskriver vi en serie typiska telehälsoövervakningsscenarier. | Leijdekkers et al in REF presenterade ett system för patientövervakning med smartphones, trådlösa sensorer, webbservrar och IP-webbkameror. | 16,166,650 | Smart Homecare System for Health Tele-monitoring | {'venue': "First International Conference on the Digital Society (ICDS'07)", 'journal': "First International Conference on the Digital Society (ICDS'07)", 'mag_field_of_study': ['Computer Science']} | 6,293 |
Eftersom den ökade betydelsen läggs på kundequity i dagens affärsmiljö fokuserar många företag på begreppet kundlojalitet och lönsamhet för att öka marknadsandelarna. Bygga framgångsrik kundrelationshantering (CRM), ett företag börjar med att identifiera kundernas verkliga värde och lojalitet eftersom kundvärdet kan ge grundläggande information för att distribuera mer riktad och personlig marknadsföring. I detta papper används kundlivslängdsvärde (CLV) för kundsegmentering av ett hälso- och skönhetsföretag. Två metoder används: i det första tillvägagångssättet används RFM-analysmetoden (Recency, Frequency, and Monetary) för att segmentera kunderna, och i det andra tillvägagångssättet används den föreslagna utvidgade RFM-analysmetoden med ytterligare en parameter – så kallad Count Item. Jämförande resultat av dessa metoder, visar att tillägg av antal Post som en ny parameter till RFM-metoden inte gör någon skillnad för klusterresultat, så CLV beräknas baserat på viktad RFM-metod för varje segment. Resultaten av beräknade CLV för olika segment kan användas för att förklara marknadsförings- och försäljningsstrategier av företaget. | Upphovsmän REF tillämpade K-means klustermetod för kundsegmentering för att mäta CLV för varje segment. | 4,357,178 | Estimating customer lifetime value based on RFM analysis of customer purchase behavior: Case study | {'venue': 'WCIT', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,294 |
ABSTRACT Detta dokument behandlar design- och applikationsregulatorn för en liten obemannad flygfarkost. En ny robust glidlägesregulator (SMC) föreslås för att förbättra prestandan under inre modellosäkerhet och yttre störningsförhållanden. För att exakt kontrollera attityden och positionen formuleras en ny SMC baserad på bakstegsteknik för att garantera attitydsystemets stabilitet. För att genomföra denna controller, en utökad stat observatör används för att uppskatta de omätbara tillstånd och yttre störningar. Dessutom tillämpas en ny glidningsmetod med backstepping-teknik för att säkerställa att positionssystemet är stabilt. Dessutom visar Lyapunov-teorin stabiliteten i attityden och positionsslingorna. Slutligen ges de numeriska experimentella flygresultaten för att illustrera den föreslagna flygledarens effektivitet och robusthet. INDEX TERMS UAV, backsteping control, slide mode control, Lyapunov teori. | I REF används en utökad tillståndsobservatör för att uppskatta okända parametrar och yttre störningar. | 49,567,726 | Extended State Observer-Based Robust Backstepping Sliding Mode Control for a Small-Size Helicopter | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 6,295 |
Abstract-När man fångar bilder i låg ljusförhållanden, är bilderna ofta lider av låg synlighet. Förutom att försämra den visuella estetiken hos bilder, kan denna dåliga kvalitet också avsevärt degenerera prestandan hos många datorseende och multimediaalgoritmer som i första hand är utformade för högkvalitativa ingångar. I detta dokument föreslår vi en enkel men effektiv lowlight image enhancement (LIME) metod. Mer konkret uppskattas belysningen av varje pixel först individuellt genom att man hittar det maximala värdet i R, G och B-kanaler. Dessutom förfinar vi den ursprungliga belysningskartan genom att införa en struktur innan den, som den slutliga belysningskartan. Med den välkonstruerade belysningskartan kan förbättringen uppnås i enlighet med detta. Experiment på ett antal utmanande lågljusbilder är närvarande för att avslöja effektiviteten i vår LIME och visa sin överlägsenhet över flera state-of-the-arts när det gäller förbättring kvalitet och effektivitet. | LIME REF uppnår bra resultat genom att införa en struktur före belysningskartan. | 5,778,488 | LIME: Low-Light Image Enhancement via Illumination Map Estimation | {'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Medicine']} | 6,296 |
I detta arbete kastar vi abstrakt textsammanfattning som ett sekvens-till-sekvens problem och använda ramen för uppmärksamhet Encoder-Decoder Recurrent Neural Networks till detta problem, outperforming state-of-the art modell av (Rush et al., 2015) på två olika corpora. Vi går också bortom den grundläggande arkitekturen, och föreslår flera nya modeller för att ta itu med viktiga problem i summering inklusive modellering nyckelord, fånga hierarkin av mening-till-ord struktur och ta itu med problemet med ord som är nyckeln till ett dokument, men sällsynta på annat håll. Vårt arbete visar att många av våra föreslagna lösningar bidrar till ytterligare prestandaförbättringar. Dessutom föreslår vi en ny uppsättning data som består av multi-sentssammanfattningar och fastställer resultatriktmärken för ytterligare forskning. | I REF föreslogs flera nya modeller för att ta itu med kritiska problem i sammanfattningen. | 8,928,715 | Abstractive Text Summarization Using Sequence-to-Sequence RNNs and Beyond | {'venue': 'The SIGNLL Conference on Computational Natural Language Learning (CoNLL), 2016', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,297 |
ABSTRACT Fog computing har blivit den primära infrastrukturen på Internet för att förbättra kvaliteten på tjänsterna. Vi anser att ett dim kösystem med begränsade infrastrukturresurser för att rymma realtidsuppgifter med heterogeniteter i uppgiftstyper och genomförandetider. På grund av den osäkra genomförandetiden bör ett sådant dimsystem tillsammans överväga fördelning av dimresurser och avlastning av uppgifter för att uppfylla tidsfristerna. För att ta hänsyn till uppgiften heterogenitet, en parallell virtuell kö modell tillämpas för att buffra varje typ av uppgift i en separat kö. Därefter använder vi ett ramverk, inklusive tre parallella algoritmer, nämligen avlastning, buffring och resursallokering, för att förbättra resursallokeringsbalansen, genomströmningen och uppgiftsfullbordandet. Uppgiften offloading beslutas enligt uppgiften brådskande i termer av slapphet tider, som står för deadline, beräknad genomförandetid, och överföringsfördröjning till molnet. Buffringsprocessen omorganiserar ankommande uppgifter baserat på deras slapphetstid och den beräknade tiden för utförandet av uppgiften vid dimnivån. Resurstilldelningen använder en adaptiv kövikt baserad på Lyapunovdriften för att undvika uppgiftssvält som kan leda till en lång köfördröjning för uppgifter med lång genomförandetid. Simuleringsresultaten tyder på att vår föreslagna politik kan undvika uppgiftssvält och skapa en kompromiss mellan hög genomströmning och ett högt måluppfyllelseförhållande. | Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. studerade problemet med resursfördelning och avlastning av uppgifter för heterogena realtidsuppgifter i ett dim kösystem REF, i syfte att åstadkomma en avvägning mellan hög genomströmning och hög aktivitetsgrad. | 59,554,396 | Resource Allocation and Task Offloading for Heterogeneous Real-Time Tasks With Uncertain Duration Time in a Fog Queueing System | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 6,298 |
Abstract-Major trådlösa operatörer står idag inför problem med nätkapacitet i strävan att möta de ökande kraven från mobila användare. Samtidigt drar 3G-aktiverade enheter i allt högre grad nytta av ad hoc-radioanslutning (t.ex. Wi-Fi). I detta sammanhang av hybrid konnektivitet föreslår vi Push-and-track, ett ramverk för innehållsspridning som utnyttjar ad hoc-kommunikationsmöjligheter för att minimera belastningen på den trådlösa infrastrukturen och samtidigt garantera snäva leveransförseningar. Det uppnår detta genom en kontrollloop som samlar användaren-sent erkännanden för att avgöra om nya kopior måste återinsättas i nätverket via 3G-gränssnittet. Push-and-Track innehåller flera strategier för att avgöra hur många kopior av innehållet som ska injiceras, när och till vem. Den korta fördröjningstoleransen för vanligt innehåll, t.ex. nyheter eller trafikuppdateringar, gör dem lämpliga för ett sådant system. Baserat på en realistisk storskalig fordonsdatauppsättning från staden Bologna som består av mer än 10 000 fordon, visar vi att Push-and-Track konsekvent uppfyller sina leveransmål samtidigt som användningen av 3G-nätet minskas med över 90 %. | Whitbeck m.fl. REF utforma en ram, kallad Push-andTrack, som innehåller flera strategier för att avgöra hur många kopior som ska injiceras av 3G och till vem, och sedan utnyttja DTNs för att avlasta 3G-trafik. | 8,614,730 | Relieving the Wireless Infrastructure: When Opportunistic Networks Meet Guaranteed Delays | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,299 |
Abstract-På grund av radioutbredningens karaktär är det trådlösa luftgränssnittet öppet och tillgängligt för både auktoriserade och olagliga användare. Detta skiljer sig helt från ett trådbundet nät, där kommunikationsanordningar är fysiskt anslutna via kablar och en nod utan direkt koppling inte kan komma åt nätverket för olaglig verksamhet. Den öppna kommunikationsmiljön gör trådlösa sändningar mer sårbara än trådbunden kommunikation för skadliga attacker, inklusive både passiv avlyssning för dataavlyssning och aktiv störning för att störa legitima sändningar. Därför är detta dokument motiverat att undersöka de säkerhetsrisker och hot som följer av den trådlösa kommunikationens inneboende öppna natur och att utforma effektiva försvarsmekanismer för att förbättra säkerheten i det trådlösa nätverket. Vi sammanfattar först säkerhetskraven för trådlösa nätverk, inklusive deras äkthet, sekretess, integritet och tillgänglighetsfrågor. Därefter presenteras en omfattande översikt över säkerhetsattacker i trådlösa nätverk med tanke på nätverksprotokollarkitekturen, där de potentiella säkerhetshoten diskuteras i varje protokollskikt. Vi tillhandahåller också en kartläggning av befintliga säkerhetsprotokoll och algoritmer som antas i befintliga trådlösa nätverk standarder, såsom Bluetooth, Wi-Fi, WiMAX, och den långsiktiga utvecklingen (LTE) system. Sedan diskuterar vi den senaste tekniken inom fysisk lagersäkerhet, som är en framväxande teknik för att säkra den öppna kommunikationsmiljön mot tjuvlyssnande attacker på det fysiska lagret. Flera fysiska lager säkerhetstekniker ses över och jämförs, inklusive information-teoretisk säkerhet, artificiellt buller med hjälp av säkerhet, säkerhetsorienterad strålformning, mångfald assisterad säkerhet, och fysiska lager nyckelgeneration metoder. Eftersom en störningsdämpare som avger radiosignaler lätt kan störa de legitima trådlösa användarna, introducerar vi också familjen av olika störningsattacker och deras motåtgärder, inklusive konstant störning, intermittent störning, reaktiv störning, adaptiv störning och intelligent störning. Dessutom diskuterar vi integreringen av fysiskt lagersäkerhet i befintliga autentiserings- och krypteringsmekanismer för att ytterligare säkra trådlösa nätverk. Slutligen sammanfattas vissa tekniska utmaningar som fortfarande är olösta vid tidpunkten för skrivandet och de framtida trenderna inom trådlös säkerhet diskuteras. | I REF, för att säkra kommunikationen, författarna anser PLS-teknik såsom mångfald-stödd säkerhet, fysisk lager nyckelgenerering, artificiellt buller-stödd säkerhet, information-teoretisk säkerhet, och säkerhetsorienterade strålformningsstrategier. | 6,779,551 | A Survey on Wireless Security: Technical Challenges, Recent Advances and Future Trends | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 6,300 |
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med | Medan Snabbare R-CNN REF föreslog ett regionförslag nätverk som ingår i detektionsnätet. | 10,328,909 | Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 6,301 |
Generativa modeller av 3D mänsklig rörelse är ofta begränsade till ett litet antal aktiviteter och kan därför inte generalisera väl till nya rörelser eller tillämpningar. I detta arbete föreslår vi en djupinlärning ram för mänsklig rörelse fånga data som lär sig en generisk representation från en stor corpus av rörelse fånga data och generaliserar väl till nya, osynliga, rörelser. Med hjälp av ett kodning-avkodning nätverk som lär sig att förutsäga framtida 3D-poser från det senaste förflutna, extraherar vi en funktion representation av mänskliga rörelser. De flesta arbeten med djupinlärning för sekvensförutsägelse fokuserar på video och tal. Eftersom skelettdata har en annan struktur presenterar och utvärderar vi olika nätverksarkitekturer som gör olika antaganden om tidsberoenden och korrelationer mellan extremiteter. För att kvantifiera de inlärda funktionerna använder vi utdata från olika lager för åtgärdsklassificering och visualiserar de mottagliga fälten i nätverksenheter. Vår metod överträffar den senaste tekniken inom skelettrörelseförutsägelse även om dessa använder åtgärdsspecifika träningsdata. Våra resultat visar att djupa feedforward nätverk, utbildade från en generisk mocap databas, framgångsrikt kan användas för funktionsextraktion från mänskliga rörelsedata och att denna representation kan användas som en grund för klassificering och förutsägelse. | • I REF utbildade författarna en LSTM för att förutsäga framtida 3D poserar från det senaste förflutna. | 2,469,127 | Deep Representation Learning for Human Motion Prediction and Classification | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 6,302 |
Skuggningen i en scen beror på en kombination av många faktorer-hur belysningen varierar rumsligt över en yta, hur den varierar längs olika riktningar, geometriska kröknings- och reflektansegenskaper hos objekt, och platser för mjuka skuggor. I den här artikeln genomför vi en komplett första ordning eller lutning analys av belysning, skugga och skuggor, visar hur varje faktor bidrar separat till scenen utseende, och när det är viktigt. Gradienter är väl lämpade för att analysera den intrikata kombinationen av utseende effekter, eftersom varje gradient term motsvarar direkt variation i en specifik faktor. Först visar vi hur ljusfältets rumsliga och riktningsmässiga lutningar förändras när ljuset interagerar med böjda objekt. Detta utökar den senaste frekvensanalysen av Durand et al. [2005] till gradienter, och har många fördelar för operationer, som bula kartläggning, som är svåra att analysera i Fourier domänen. För det andra anser vi att de individuella termer som är ansvariga för skuggning lutningar, såsom ljusvariation, konvolution med ytan BRDF, och objektets krökning. Denna analys visar den relativa betydelsen av olika termer, och visar exakt hur de kombineras i skugga. För det tredje förstår vi effekterna av mjuka skuggor, beräkna exakt siktgradienter, och generalisera tidigare arbete till godtyckliga böjda ockluders. Som en praktisk tillämpning, våra siktgradienter kan direkt användas med konventionella ray-tracing metoder i praktiska gradient interpolation metoder för effektiv rendering. Dessutom kan vår teoretiska ram användas för att adaptivt ta bilder i höggradiga regioner för effektiv rendering. | Medan de flesta varianter utvecklades med ett öga mot praktisk tillämpning, REF genomförde en mer omfattande första ordningen analys av belysning, skuggning och skuggor i direkt belysning. | 708,674 | A first-order analysis of lighting, shading, and shadows | {'venue': 'TOGS', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 6,303 |
I detta dokument studerar vi multibeam satellitsäker kommunikation genom fysiska (PHY) lager säkerhetstekniker, d.v.s. gemensam effektstyrning och strålformning. Genom att först anta att Channel State Information (CSI) är tillgänglig och att strålformningsvikterna är fasta undersöks en ny säker satellitsystemdesign för att minimera sändningskraften med individuella sekretesskrav. En iterativ algoritm föreslås för att få en optimerad effektallokeringsstrategi. Dessutom erhålls suboptimala strålformningsvikter genom att helt eliminera co-kanalinterferensen och upphäva tjuvlyssnarens signal samtidigt. För att få fram gemensamt optimerad effektallokering och strålformningsstrategi i vissa praktiska fall, t.ex. med vissa skattningsfel av CSI, utvärderar vi ytterligare effekten av tjuvlyssnarens CSI på den säkra konstruktionen av satellitsystemet med flera strålar. Konvergensen i den iterativa algoritmen bevisas under berättigade antaganden. Prestandan utvärderas genom att man tar hänsyn till inverkan av antalet antennelement, antalet balkar, kravet på individuell sekretess och CSI. Den föreslagna nya, säkra konstruktionen av satellitbaserade flerbalkssystem kan uppnå en optimerad effektallokering för att säkerställa minimikravet på individuell sekretess. Resultaten visar att systemet med gemensam strålformning är gynnsammare än systemet med fast strålformning, särskilt när det gäller ett större antal satellitantennelement och krav på högre sekretessgrad. Slutligen jämför vi resultaten under det nuvarande satellitluftgränssnittet i DVB-S2 och resultaten under Gaussiska ingångar. Multibeam satellit, strålformning, fysisk lagersäkerhet och effektallokering. | För att minimera sändningskraften hos satelliten med begränsningar av individuell sekretessgrad, föreslogs en gemensam konstruktion av effektstyrning och BF-algoritm i REF. | 16,101,238 | Secure Satellite Communication Systems Design with Individual Secrecy Rate Constraints | {'venue': 'IEEE Transactions on Information Forensics and Security', 'journal': 'IEEE Transactions on Information Forensics and Security', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 6,304 |
Uppgiften semantisk rollmärkning (SRL) är ofta uppdelad i två deluppgifter: verb argument identifikation, och argument klassificering. Nuvarande SRL-algoritmer visar lägre resultat på identifieringsunderuppgiften. Dessutom övervakas de flesta SRL-algoritmer, beroende på stora mängder manuellt skapade data. I det här dokumentet presenterar vi en oövervakad algoritm för att identifiera verbargument, där den enda typ av notering som krävs är POS-märkning. Algoritmen använder sig av en helt oövervakad syntaktisk parser, med hjälp av dess utdata för att upptäcka klausuler och samla kandidatargument samlokaliseringsstatistik. Vi utvärderar vår algoritm på PropBank10, med en precision på 56%, jämfört med 47% av en stark baslinje. Vi får också en 8-procentig ökning av precisionen för en spansk corpus. Detta är det första papper som hanterar oövervakade verb argument identifiering utan att använda manuellt kodade regler eller omfattande lexiska eller syntaktiska resurser. | I REF föreslogs en oövervakad algoritm för argumentidentifiering som använder en helt oövervakad syntaktisk parser och där den enda övervakade noten är en del av talmärkning (POS). | 6,771,277 | Unsupervised Argument Identification for Semantic Role Labeling | {'venue': 'ACL-IJCNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,305 |
Sammanfattning av denna webbsida: Äkta amerikanska Federal Reserve Notes har en konsekvent, tvåkomponent inneboende fluorescence livstid. Detta gör det möjligt att upptäcka förfalskade papperspengar på grund av dess betydande skillnader i fluorescens livstid jämfört med äkta papperspengar. Vi använde scanning två-foton laser excitation och tid-korrelerad enkel foton räkning (TCSPC) metod för att prova en ~4 mm 2 region. Tre typer av förfalskade prover testades. Fyra av de nio förfalskade proven passar till ett enkomponentsfall. Fem av nio förfalskade prover passar till en tvåkomponentsmodell, men identifieras som förfalskning på grund av betydande avvikelser i den längre livslängd komponenten jämfört med äkta räkningar. | Den fluorescence livstid undersöks REF, Det finns med hjälp av en två-foton laser excitation och tid-korrelerad singel fotonräkning (TCSPC) metod, betydande skillnader i varaktigheten av fluorescence observeras vid jämförelse äkta och förfalskade anteckningar. | 29,986,731 | Detection of counterfeit US paper money using intrinsic fluorescence lifetime | {'venue': 'Optics express', 'journal': 'Optics express', 'mag_field_of_study': ['Medicine', 'Physics']} | 6,306 |
Komplexa nätverk som World Wide Web eller sociala nätverk har ofta inte någon konstruerad arkitektur utan är istället självorganiserade genom åtgärder från ett stort antal individer. Från dessa lokala interaktioner kan icke-triviala globala fenomen uppstå som t.ex., små-världs egenskaper eller en skala-fri fördelning av graden. I småvärlden nätverk korta vägar mellan nästan två platser finns även om noder är mycket kluster som i en vanlig lattice. Skalafria nätverk kännetecknas av en makt-lag distribution av en nod grad, definieras som antalet sina nästa grannar, vilket innebär att strukturen och dynamiken i nätverket påverkas starkt av noder med ett stort antal anslutningar. Dessa globala egenskaper har betydande konsekvenser för beteendet hos nätverket under fel eller attack på 3, när slumpmässiga eller starkt anslutna noder förstörs, samt på spridningen av information eller epidemier. De starkt sammankopplade "hub" noderna i ett skalfritt nätverk och de korta vägarna i en starkt klungad liten värld underlättar i hög grad spridningen av en infektion över hela nätverket, vilket måste beaktas vid utformningen av effektiva vaccinationsstrategier. Här rapporterar vi att nätverk som består av personer som är anslutna genom utbytt e-post visar både egenskaperna hos små globala nätverk och skalfria nätverk. De flesta av de skalningsexponenter som hittills rapporterats för graden distributioner av datorer och sociala nätverk ligger i intervallet 2 till 3 till 10. Ett undantag är det sociala nätverket av medförfattare i högenergifysik, där Newman fann en exceptionellt liten skalning exponent av och 1,2 på 11. I likhet med vårt arbete studerar vi nätverk av telefonsamtal som görs under en dag. Dessa telefon-samtalsnätverk visar skalan-fritt beteende av examensfördelningen också, med en exponent av A2.1 på 12,13. Det skalfria e-postnätverket. Det e-postnätverk som studeras här är konstruerat från loggfiler på e-postservern vid Kiel University, som registrerar källan och destinationen för varje e-post från eller till ett studentkonto under en period av 112 dagar. Noderna i e-postnätverket motsvarar e-postadresser som är anslutna via en länk om ett e-postmeddelande har utväxlats mellan dem. Det resulterande nätverket består av N på 59 812 noder, inklusive 5165 studentkonton, med en medelgrad av och 2,88 och innehåller flera separerade kluster med mindre än 150 noder och en jättekomponent av 56 969 noder. Fördelningen av grad k lyder en makt lag n-k -k, -1 och exponentiellt cutoff -Fig. Vad är det för fel på dig? Låt oss kort diskutera hur vårt resultat på e-postnätverk kan påverkas av mätningsprocessen. Provtagningen av nätverket har begränsats till en distinkt e-postserver. Därför är bara graderna av konton på denna server kända exakt. Här motsvarar dessa interna konton e-postadresser för lokala studenter, medan de externa noderna ges av alla andra e-postadresser. Vi löser graden av fördelning av interna konton endast till Fig. 2 på, och hitta att det kan approximeras av en makt-lag n int (k) κk på 1,32 samt på medel grad och k int på 14.86). Eftersom graden av externa noder normalt underskattas, är denna exponent mindre än för hela nätverket. Av samma anledning finns det fler noder med liten grad i distributionen av hela nätverket och Fig. 1 till än i distributionen begränsad till interna noder och Fig. Två. Observera att brytpunkten för båda distributionerna är ungefär densamma. Därför externa källor som behandlar nästan alla interna noder, t.ex. annonser eller skräppost inte partiska examensstatistiken. Den dubbellogaritmiska komplotten av antalet e-postadresser med vilka en nod utbytte e-post uppvisar en maktlag med exponent på 1.81.10 under två decennier. Denna fördelning används för att beräkna skattningar för klustringskoefficienten och den genomsnittliga kortaste spårlängden för hela nätet och se text. | Ebel m.fl. REF analyserade också e-postloggarna från Kiel Unversity och fann att den visade en skalfri topologi. | 12,964,274 | Scale-free topology of e-mail networks | {'venue': 'Phys. Rev. E 66 (2002) 035103(R)', 'journal': None, 'mag_field_of_study': ['Medicine', 'Physics']} | 6,307 |
Vi föreslår det kopplade generativa kontrariska nätverket (CoGAN) ramverk för att generera par av motsvarande bilder i två olika domäner. Den består av ett par generativa kontradiktoriska nätverk, var och en ansvarig för att generera bilder i en domän. Vi visar att genom att genomdriva en enkel vikt-delning begränsning, CoGAN lär sig att generera par av motsvarande bilder utan att det finns några par av motsvarande bilder i de två områdena i träningssetet. Med andra ord, CoGAN lär sig en gemensam distribution av bilder i de två domänerna från bilder som dras separat från marginalfördelningarna av de enskilda domänerna. Detta står i kontrast till de befintliga multimodala generativa modellerna, som kräver motsvarande bilder för utbildning. Vi tillämpar CoGAN på flera par bildgenerering uppgifter. För varje uppgift lär sig GoGAN att generera övertygande par av motsvarande bilder. Vi demonstrerar vidare tillämpningarna av CoGAN-ramverket för domänanpassning och övergripande bildgenereringsuppgifter. | gemensam distribution från olika domäner ytterligare förbättrad realism av syntetiserade bilder REF. | 10,627,900 | Coupled Generative Adversarial Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 6,308 |
Abstrakt. I den här artikeln undersöker vi om semantiska relationer mellan enheter kan läras av att analysera mikroblogginlägg publicerade på Twitter. Vi identifierar semantiska kopplingar mellan personer, produkter, händelser och andra enheter. Vi utvecklar en relation upptäckt ram som gör det möjligt att upptäcka typade relationer som dessutom kan ha temporal dynamik. Baserat på en stor Twitter dataset, utvärderar vi olika strategier och visar att samtidiga strategier möjliggör hög precision och presterar särskilt bra för relationer mellan personer och händelser som uppnår precisioner på mer än 80%. Vi analyserar ytterligare prestandan i inlärningsrelationer som endast gäller under en viss tidsperiod och avslöjar att för dessa typer av relationer Twitter är en lämplig källa eftersom det gör det möjligt att upptäcka trendiga ämnen med högre noggrannhet och med lägre fördröjning i tiden än traditionella nyhetsmedier. | Ilknur Celik m.fl. Ref undersöka semantiska relationer b/w enheter från inlägg som publiceras av användare på Twitter och utveckla en relation upptäckt ram som upptäcker relationer mellan enheter av post. | 15,371,993 | Learning Semantic Relationships between Entities in Twitter | {'venue': 'IN: PROC. OF ICWE', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,309 |
Automatisk uppskattning av antalet människor i oöverskådliga trånga scener är en utmanande uppgift och en stor svårighet beror på den enorma variationen av människor. I detta dokument föreslår vi en ny Deep Structured Scale Integration Network (DSSINet) för crowd counting, som behandlar skalan variation av människor genom att använda strukturerad funktionsrepresentation lärande och hierarkiskt strukturerad förlust funktionsoptimering. Till skillnad från konventionella metoder som direkt sammansmälter flera funktioner med viktat genomsnitt eller konkatering, introducerar vi först en strukturerad funktion Enhancement Module baserat på villkorliga slumpmässiga fält (CRFs) för att förfina flerskaliga funktioner ömsesidigt med en meddelande passerar mekanism. I denna modul betraktas varje skalspecifik funktion som en kontinuerlig slumpmässig variabel och vidarebefordrar kompletterande information för att förfina funktionerna i andra skalor. För det andra använder vi en dilaterad multiscale strukturell likformighet förlust för att genomdriva vår DSSINet för att lära sig den lokala korrelationen av människors skalor inom regioner av olika storlek, vilket ger hög kvalitet densitet kartor. Omfattande experiment på fyra utmanande riktmärken visar tydligt hur effektiv vår metod är. Speciellt, vårt DSSINet uppnår förbättringar av 9,5% felreduktion på Shanghaitech dataset och 24,9% på UCF-QNRF dataset mot de senaste metoderna. * Motsvarande författare är Liang Lin. | Liu m.fl. REF föreslog ett nätverk för integration av djupstrukturerad skala (DSSINet), som skulle kunna svara på förändringar av folkmängdstätheten genom strukturerad och multi-level funktionsinlärning och motsvarande förlustfunktionsoptimering. | 201,645,306 | Crowd Counting With Deep Structured Scale Integration Network | {'venue': '2019 IEEE/CVF International Conference on Computer Vision (ICCV)', 'journal': '2019 IEEE/CVF International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 6,310 |
Abstract-Image restaurering är ett långvarigt problem i låg nivå datorseende med många intressanta applikationer. Vi beskriver en flexibel inlärningsram baserad på konceptet med ickelinjära reaktionsspridningsmodeller för olika bildrenoveringsproblem. Genom att förkroppsliga de senaste förbättringarna i ickelinjära diffusionsmodeller föreslår vi en dynamisk ickelinjär reaktionsspridningsmodell med tidsberoende parametrar (dvs linjära filter och påverkansfunktioner). I motsats till tidigare ickelinjära diffusionsmodeller lär sig alla parametrar, inklusive filter och påverkansfunktioner, samtidigt från träningsdata genom ett förlustbaserat tillvägagångssätt. Vi kallar detta för TNRD-utbildningsbar ickelinjär reaktionsdiffusion. TNRD-metoden är tillämplig för en mängd olika bildrenoveringsuppgifter genom att införa lämplig reaktionskraft. Vi demonstrerar dess kapacitet med tre representativa applikationer, Gaussian image denoising, single image super upplösning och JPEG avblockering. Experiment visar att våra utbildade ickelinjära diffusionsmodeller till stor del drar nytta av utbildningen av parametrarna och slutligen leder till bästa rapporterade prestanda på vanliga testdataset för de testade applikationerna. Våra utbildade modeller bevarar den strukturella enkelheten hos diffusionsmodeller och tar bara ett litet antal spridningssteg, vilket gör att de är mycket effektiva. Dessutom är de också väl lämpade för parallell beräkning av GPU, vilket gör inferensproceduren extremt snabb. | I REF föreslog Chen och Pock en tränad ickelinjär reaktionsdiffusionsmodell för effektiv bildrenovering. | 15,799,108 | Trainable Nonlinear Reaction Diffusion: A Flexible Framework for Fast and Effective Image Restoration | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 6,311 |
Abstract -Aims: Att undersöka relationen mellan alkoholutloppstäthet och våldsbrott som kontrollerar kvarterets sociostrukturella egenskaper och effekterna av rumsligt autokorrelerade fel. Design: Provet för denna ekologiska studie bestod av 188 folkräkningstraktater från staden Austin, Texas och 263 traktater från staden San Antonio i Texas. Uppgifter om närområdets sociala struktur, alkoholtäthet och våldsbrott samlades in från arkivkällor och analyserades med hjälp av bivariat-, multivariat- och geospatiala analyser. Resultat: Med hjälp av vanliga minst kvadratanalyser förklarade kvarterets sociostrukturella kovariater nära 59 % av variationen i antalet våldsbrott i Austin och nära 39 % i San Antonio. Att lägga till alkohol utloppstäthet i målet och angränsande folkräkningstraktater förbättrade den förklarande kraften i båda modellerna. Alkoholavloppstätheten i målräkningskanalen förblev en betydande prediktor för våldsbrott i båda städerna när effekterna av autokorrelerade fel kontrollerades. I Austin var också effekterna av alkoholavloppstätheten i de angränsande folkräkningstrakterna betydande. Den slutliga modellen förklarar 71% av variationen i våldsbrott i Austin och 56% i San Antonio. Slutsatser: Resultaten visar att det finns ett tydligt samband mellan alkoholutloppstäthet och våld och tyder på att frågan om alkoholtillgång och tillgång är grundläggande för att förebygga alkoholrelaterade problem i samhällen. | Zhu m.fl. REF genomförde en studie som kvantifierade förhållandet mellan alkoholtäthet och våldsnivåer. | 36,773,737 | Alcohol outlet density and violence: a geospatial analysis. | {'venue': 'Alcohol and alcoholism', 'journal': 'Alcohol and alcoholism', 'mag_field_of_study': ['Medicine']} | 6,312 |
Abstrakt. Vi anser att en framtida självorganiserad energigemenskap som består av "prosumenta" hushåll som självständigt kan generera, lagra, importera och exportera kraft, och också själviskt strävar efter att minimera sina kostnader genom att justera sina lastprofiler med hjälp av flexibiliteten i deras distribuerade lagring. I ett sådant scenario kommer den sammanlagda belastningsprofilen för det självorganiserade samhället sannolikt att vara instabil på grund av flexibiliteten hos de okoordinerade själviska hushållen och intermittensen hos de distribuerade generationerna. Tidigare föreslogs antingen centraliserade lösningar eller samarbetsbaserade decentraliserade lösningar för att hantera den sammanlagda belastningen, eller också övervägdes belastningen hos ett enskilt själviskt hushåll. Vi studerar samspelet mellan själviska hushåll och samhällsbeteende genom att föreslå en ny dynamisk prismodell som ger en optimal prisvektor till hushållen för att jämna ut den totala samhällsbelastningsprofilen. Vår dynamiska prissättningsmodell anpassar sig intelligent till GD:s intermittens och den feedback från slutna kretsar som kan bli följden av att de själviska hushållen reagerar med hjälp av sin inlärningsmekanism. Vårt dynamiska prissättningssystem har tydliga import- och exporttariffkomponenter. Baserat på vår dynamiska prismodell, föreslår vi en polynom-tid distribuerad DS schemaläggning algoritm som körs på varje hushåll för att lösa ett kostnadsminimering problem som överensstämmer med den själviska naturen i hushållen. Våra simuleringsresultat visar att vår distribuerade algoritm uppnår upp till 72,5% minskning av standardavvikelsen för den totala nettoefterfrågan i samhället jämfört med en distribuerad schemaläggning med två nivåers prissättningssystem, och ger också jämförbar prestanda med en referens centraliserad schemaläggningsalgoritm. | Ref:s arbete föreslår en dynamisk prismodell för att jämna ut samhällets varierande aggregerade efterfrågan på grund av egenintresserade kunder. | 16,188,451 | Distributed storage management using dynamic pricing in a self-organized energy community | {'venue': 'IWSOS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 6,313 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.