src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
Multi-task lärande har en förmåga att dela kunskap mellan relaterade uppgifter och implicit öka träningsdata. Den har emellertid länge varit frustrerad över inblandningen i uppgifterna. Detta papper undersöker prestandan av kapselnätverk för text, och föreslår en kapsel-baserad multi-task lärande arkitektur, som är enhetlig, enkel och effektiv. Med fördelarna med kapslar för funktionsklustring, kan föreslagna aktivitet routing algoritm kluster funktioner för varje uppgift i nätverket, vilket bidrar till att minska störningen bland uppgifter. Experiment på sex textklassificeringsdata visar effektiviteten hos våra modeller och deras egenskaper för funktionsklustring. | För lärande med flera uppgifter använder REF kapselnätverk för att förbättra differentieringen mellan uppgifter. | 53,080,947 | MCapsNet: Capsule Network for Text with Multi-Task Learning | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,613 |
Stackade denoiserande autokodrar (SDA) har framgångsrikt använts för att lära sig nya representationer för domänanpassning. Nyligen har de uppnått rekordnoggrannhet på standardriktmärkesuppgifter för känsloanalys över olika textdomäner. SDA lär sig robusta data representationer genom rekonstruktion, återhämta original funktioner från data som är artificiellt korrumperade med buller. I detta dokument föreslår vi marginaliserad SDA (mSDA) som tar upp två avgörande begränsningar av SDA: höga beräkningskostnader och brist på skalbarhet till högdimensionella funktioner. I motsats till SDAs, vår strategi för mSDA marginaliserar buller och därmed inte kräver stokastisk lutning nedstigning eller andra optimeringsalgoritmer för att lära sig parametrar - i själva verket, de beräknas i sluten form. Följaktligen, mSDA, som kan genomföras i endast 20 rader av MATLAB TM, avsevärt påskyndar SDA med två storleksordningar. Dessutom är de representationer som MSDA har lärt sig lika effektiva som de traditionella SDA-kontoren, med nästan identiska noggrannheter i referensuppgifter. | REF marginalisera buller i denoiserande autokodrar för att lära sig robusta representationer. | 10,686,834 | Marginalized Denoising Autoencoders for Domain Adaptation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 81,614 |
Näten håller på att slås samman med Internet för att utgöra en grundläggande informationsplattform, som är en nödvändig del av ett intelligent transportsystem (ITS) [1]. Detta kommer så småningom att utvecklas till alla fordon anslutna i eran av sakernas Internet (IoT) [2]. Genom att stödja trafikrelaterad insamling och behandling av uppgifter kan fordonsnätverken framför allt förbättra transportsäkerheten, minska trafikstockningarna, minska luftföroreningarna och förbättra körkomforten [3]. Det har rapporterats att i Västeuropa kan dödsfall på grund av bilolyckor minskas med 25 procent genom att man använder varningssystem vid motorvägskorsningar [4]. Ett annat exempel är att trafikinformation i realtid kan samlas in och överföras till datacenter för behandling, och i gengäld kan information sändas till förare för ruttplanering. Trafikstockningar i städerna skulle lindras och restiden minskas, vilket skulle leda till grönare städer. En mängd olika informationsteknik har utvecklats för intelligenta fordon, vägar och trafikinfrastrukturer så att alla fordon är anslutna. Smarta sensorer och ställdon används i fordon och väginfrastrukturer för datainsamling och beslut. Avancerad kommunikationsteknik används för att koppla samman fordon och väginfrastrukturer och så småningom få tillgång till Internet. Till exempel är särskild kortdistanskommunikation (DSRC) särskilt utformad för kommunikation mellan fordon (V2V) och fordon till vägtransport (V2R). IEEE 802.11p, som kallas Wireless Access in Vehicular Environments (Wave) [5], är för närvarande en populär standard för DSRC. Dessutom är Long Term Evolution (LTE), LTE-Advanced och kognitiv radio (CR) [6, 7] alla ganska konkurrenskraftiga tekniker för fordonsnätverk [8, 9]. Trots den välutvecklade informationstekniken finns det en betydande utmaning som hindrar den snabba utvecklingen av fordonsnätverk. Fordon begränsas normalt av resurser, inklusive beräkning, lagring och bandbredd i radiospektrumet. På grund av kraven på små och billiga hårdvarusystem har ett enda fordon begränsade resurser för beräkning och lagring, vilket kan leda till låg databehandlingskapacitet. Å andra sidan kräver många nya tillämpningar komplexa beräkningar och stor lagring, inklusive multimediaunderhållning i fordon, fordonsbaserade sociala nätverk och platsbaserade tjänster. Det blir allt svårare för ett enskilt fordon att effektivt stödja dessa tillämpningar. En mycket lovande lösning är att dela med sig av beräknings- och lagringsresurserna till alla fordon eller fordon i närheten. Detta motiverar oss att studera det nya paradigmet för molnbaserade fordonsnätverk. Nyligen har några forskningsprojekt rapporterats som studerar kombinationen av cloud computing och fordonsnätverk. [10] föreslås begreppet autonoma fordonsmoln (AVC) för att utnyttja de underutnyttjade resurserna i fordonsbaserade ad hoc-nätverk (VANET). En plattform som tjänstemodell (PaaS) är utformad i [11] för att stödja molntjänster för mobila fordon. Arbetet i [12] föreslår arkitekturer av fordonsmoln (VC), fordon som använder moln (VuCs) och hybridmoln (HCs). Fordon fungerar som molntjänsteleverantörer och kunder i VC respektive VuC, respektive som både i HC. I den här artikeln föreslår vi en hierarkisk molnarkitektur för fordonsnätverk. Vårt arbete skiljer sig från tidigare forskning i tre huvudaspekter. För det första strävar vi efter att skapa en genomgripande molnmiljö för mobila fordon genom att integrera överflödiga fysiska resurser i ITS-infrastrukturer, inklusive datacenter, vägenheter och fordon. Aggregering av dessa sporadiska fysiska resurser potentiellt komponera massiva och kraftfulla molnresurser för fordon. För det andra föreslår vi en treskiktad arkitektur för att organisera molnresurserna. Den skiktade strukturen gör det möjligt för fordon att välja sitt V 48 IEEE Network • I tiden för sakernas Internet kommer alla komponenter i intelligenta transportsystem att anslutas för att förbättra transportsäkerheten, minska trafikstockningar, minska luftföroreningarna och förbättra körkomforten. Synen på alla fordon som är anslutna utgör en stor utmaning för insamlingen och lagringen av stora mängder trafikrelaterade data. I den här artikeln föreslår vi att molntjänster integreras i fordonsnätverk så att fordonen kan dela beräkningsresurser, lagringsresurser och bandbreddsresurser. Den föreslagna arkitekturen omfattar ett fordonsmoln, ett vägbanemoln och ett centralt moln. Sedan studerar vi tilldelning av molnresurser och migrering av virtuella maskiner för effektiv resurshantering i detta molnbaserade fordonsnätverk. Ett spel-teoretiskt tillvägagångssätt presenteras för att optimalt fördela molnresurser. Migrering av virtuella maskiner på grund av fordonsrörlighet är löst baserat på ett resursreservationssystem. | Författarna i REF presenterade en hierarkisk arkitektur för att organisera molnresurserna i ett fordonsnätverk, bestående av tre lager: fordonsmoln, RSU-moln och centralt moln. | 410,952 | Toward cloud-based vehicular networks with efficient resource management | {'venue': 'IEEE Network', 'journal': 'IEEE Network', 'mag_field_of_study': ['Computer Science']} | 81,615 |
Abstract-A testability transformation är en käll-till-källa transformation som syftar till att förbättra förmågan hos en given testgenerering metod för att generera testdata för det ursprungliga programmet. I detta dokument införs testability transformation, vilket visar att den skiljer sig från traditionell omvandling, både teoretiskt och praktiskt, samtidigt som många traditionella omvandlingsregler fortfarande kan tillämpas. Tidningen illustrerar teorin om testability transformation med ett exempel tillämpning på evolutionär testning. En algoritm för borttagning av flagga definieras och resultaten presenteras från en empirisk studie som visar hur algoritmen förbättrar både prestandan hos den evolutionära testdatagenereringen och tillräckligheten hos de testdata som genereras på detta sätt. | Det verkar som om detta problem kan hanteras genom testbarhetsomvandling, ett lovande tillvägagångssätt för att förbättra prestandan hos testdatagenereringstekniken REF. | 15,111,625 | Testability transformation | {'venue': 'IEEE Transactions on Software Engineering', 'journal': 'IEEE Transactions on Software Engineering', 'mag_field_of_study': ['Computer Science']} | 81,616 |
Ordet sense disambiguation är nödvändigt i översättning eftersom olika ord sinnen ofta har olika översättningar. Neural maskinöversättning modeller lära sig olika sinnen av ord som en del av en endto-end översättning uppgift, och deras förmåga att utföra ord sense disambiguation har hittills inte kvantifierats. Vi utnyttjar det faktum att neurala översättningsmodeller kan poäng godtyckliga översättningar för att utforma en ny cross-lingual word sense disambiguation uppgift som är skräddarsydd för att utvärdera neurala maskinöversättning modeller. Vi presenterar en testuppsättning på 7 200 lexiska tvetydigheter för tyska→engelska, och 6 700 för tyska→franska, och rapporterar utgångsresultat. Med 70% av lexiska ambiguities korrekt disambiguated, finner vi att ordet sense disambiguation förblir ett utmanande problem för neural maskin översättning, särskilt för sällsynta ord sinnen. För att förbättra word sense disambiguation i neural maskinöversättning, experimenterar vi med två metoder för att integrera känsla inbäddningar. I ett första tillvägagångssätt vi passerar känsla inbäddningar som ytterligare input till neurala maskinen översättningssystemet. För det andra experimentet extraherar vi lexiska kedjor baserade på sinnesinbäddningar från dokumentet och integrerar denna information i NMT-modellen. Medan en baslinje NMT-system disambiguerar frekventa ord sinnen ganska tillförlitligt, annotationen med både sense labels och lexical kedjor förbättrar de neurala modellernas prestanda på sällsynta ord sinnen. | REF använder sense inbäddningar och lexiska kedjor som ytterligare inmatningsfunktioner. | 529,114 | Improving Word Sense Disambiguation in Neural Machine Translation with Sense Embeddings | {'venue': 'WMT', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,617 |
....................................... Till skillnad från nuvarande ansiktsreagens som bara modifierar uttrycket av en målaktör i en video, vår nya djup video porträtt approach möjliggör full kontroll över målet genom att överföra stel huvudpose, ansiktsuttryck och ögonrörelse med en hög nivå av fotorealism. Vi presenterar ett nytt tillvägagångssätt som möjliggör fotorealistisk återupplivning av porträttvideor med hjälp av endast en indatavideo. I motsats till befintliga metoder som är begränsade till manipulationer av ansiktsuttryck är vi de första som överför hela 3D-huvudet, huvudrotation, ansiktsuttryck, ögon blick och ögon blinkar från en källskådespelare till en porträttvideo av en målskådespelare. Kärnan i vår strategi är ett generativt neuralt nätverk med en ny rymdtidsarkitektur. Nätverket tar som indata syntetiska renderingar av en parametrisk ansiktsmodell, baserat på vilken det förutsäger fotorealistiska videoramar för en given målaktör. Realismen i denna rendering-till-video överföring uppnås genom noggrann kontradiktorisk utbildning, och som ett resultat, kan vi skapa ett modifierat mål | Kim och Al. I REF presenteras en metod för att överföra hela 3D-huvudets position, huvudrotation, ansiktsuttryck, ögonblick och ögat blinkar från en källaktör till en porträttvideo av en målaktör. | 44,073,530 | Deep video portraits | {'venue': 'TOGS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,618 |
I detta dokument presenteras en studie om den klonade kodens stabilitet. Resultaten från en analys av 200 veckors utveckling av fem mjukvarusystem visar att stabiliteten mätt genom förändringar i systemet domineras av radering av kodkloner. Det kan också noteras att tillägg till ett system är oftare tillägg till icke-kloned kod än tillägg till klonad kod. Om den dominerande faktorn för raderingar elimineras, kan man i allmänhet dra slutsatsen att klonad kod är mer stabil än icke-klonerad kod. | I en andra studie undersökte Krinke REF om klonad eller icke-klonad kod är mer stabil med avseende på antalet ändringar som tillämpas på klonad och icke-kloned kod. | 13,164,189 | Is Cloned Code More Stable than Non-cloned Code? | {'venue': '2008 Eighth IEEE International Working Conference on Source Code Analysis and Manipulation', 'journal': '2008 Eighth IEEE International Working Conference on Source Code Analysis and Manipulation', 'mag_field_of_study': ['Computer Science']} | 81,619 |
Krafthantering och konkurrenskraft Problemsättning: I ett allmänt scenario får vi en anordning som alltid finns i en av flera stater. I översiktsartiklar utöver det aktiva tillståndet kan det till exempel finnas standby-, suspensions-, sömn- och full-off-tillstånd. Dessa stater har individuella strömförbrukningsnivåer. Den energi som uppstår vid övergången från en högre makt till ett lägre makttillstånd är vanligtvis försumbar. En uppströmsdrift förbrukar dock en betydande mängd energi. Med tiden upplever enheten en alternerande sekvens av aktiva och inaktiva perioder. Under aktiva perioder måste systemet vistas i aktivt läge för att utföra de uppgifter som krävs. Under inaktiva perioder kan systemet flyttas till lägre effekttillstånd. En algoritm måste bestämma när övergången ska utföras och till vilka stater den ska flyttas. Målet är att minimera den totala energiförbrukningen. Eftersom energiförbrukningen under de aktiva perioderna är fast, förutsatt att föreskrivna uppgifter måste utföras, fokuserar vi på energiminimering i de inaktiva intervallerna. I själva verket fokuserar vi på alla sysslolösa perioder och optimerar energiförbrukningen i alla sådana tidsramar. Detta power management problem är ett online problem, det vill säga när som helst en enhet inte är medveten om framtida händelser. Mer specifikt, i en sysslolös period, systemet har ingen information när perioden slutar. Är det värt att flytta till en lägre makt och dra nytta av den minskade energiförbrukningen, med tanke på att systemet äntligen måste drivas upp igen till en kostnad för det aktiva läget? Prestandaanalys: Trots att det är svårt att inte känna till framtiden, bör en onlinestrategi uppnå ett tydligt bra resultat. Här använder sig algoritmerna av konkurrensanalys, där en online-algoritm ALG jämförs med en optimal offline-algoritm OPT. 38 OPT är en allvetande strategi som känner till hela framtiden och kan beräkna en statlig övergångsplan för minsta totala energi. Online-algoritm ALG kallas c-konkurrenskraft om för varje ingång, t.ex. för varje tomgångsperiod, den totala energiförbrukningen för ALG är högst c gånger den för OPT. Konkurrenskraftig analys ger en stark prestandagaranti i värsta fall. En online-strategi måste fungera bra på alla ingångar (idle perioder) som till och med kan genereras av en motståndare. Detta kontradiktoriska scenario kan verka pessimistiskt men det är förenligt med klassisk algoritmanalys som utvärderar strategier i termer av deras värsta-fall resurser, typiskt körtid eller minne krav. I detta avsnitt kommer vi främst att studera algoritmer med hjälp av konkurrensanalys men kommer också att överväga prestanda på indata som genereras enligt sannolikhetsfördelningar. I det följande kommer vi först att studera system som endast består av två stater. Då kommer vi att ta itu med system med flera stater. Vi betonar att vi överväger att minimera energin. Vi bortser från den försening som uppstår när ett system övergår från en lägre makt till ett högre makttillstånd. Överväga ett tvåstatssystem som kan vistas i ett aktivt tillstånd eller i ett viloläge. Låt r vara strömförbrukningen, mätt i energienheter per tidsenhet, i aktivt tillstånd. Energiförbrukningen i viloläge antas vara 0. Resultaten vi presenterar i följande generalisera till en godtycklig konsumtion i viloläge. Låt b energienheter, där b > 0, krävas för att omvandla systemet från vilotillståndet till det aktiva tillståndet. Vi antar att energin i övergången från det aktiva till sömntillståndet är 0. Om så inte är fallet kan vi helt enkelt vika den motsvarande energin till kostnaden b som uppstår i nästa power-up drift. Systemet upplever en tomgångsperiod vars längd T till en början är okänd. En optimal offline-algoritm OPT, som känner till T i förväg, är enkel att formulera. Vi jämför värdet av rT, vilket är den totala energi som förbrukas under tomgången när du bor i det aktiva läget, med power-up kostnaden för b. Om rT < b, förblir OPT i aktivt tillstånd under hela den inaktiva perioden eftersom övergången mellan de aktiva och vilolägen kostar mer. Om rT 3 b, med hjälp av viloläge är fördelaktigt. I detta fall övergår OPT till sömntillståndet redan i början av den tomgångsperiod och krafter fram till den aktiva staten i slutet av perioden. Följande deterministiska online-algoritm efterliknar beteendet hos OPT, som använder viloläge på tomgång perioder av längd minst b/r. Energin har blivit en ledande konstruktionsbegränsning för datorutrustning. maskinvaruingenjörer och systemdesigners utforskar nya riktningar för att minska energiförbrukningen av sina produkter. Överväga ett system med l stater s 1,..., s l. Låta r i vara strömförbrukning av s i. Vi numrerar staterna i ordning av minskande hastigheter, såsom r 1 >... > r l. Därför är s 1 den aktiva staten och s l representerar staten med lägsta energiförbrukning. Låt b i vara den energi som krävs för att övergången systemet från s i till det aktiva tillståndet s 1. Eftersom övergångar från lägre makt stater är dyrare har vi b 1 £... £ b l. Dessutom naturligtvis b 1 = 0. Vi antar återigen att övergångar från högre makt till lägre makt stater ådrar sig 0 kostnad eftersom motsvarande energi är vanligtvis försumbar. Målet är att skapa ett övergångsschema som minimerar den totala energiförbrukningen under en tomgång. Irani m.fl. 24 presenterade online och offline algoritmer. De antar att övergångsenergierna är additiva, såsom, övergång från en lägre makt tillstånd s j till en högre makt tillstånd s i, där i < j, ådrar sig en kostnad av b j − b i. En algoritm aLG-d: I en tomgångsperiod återstår först i det aktiva tillståndet. Efter b/r tidsenheter, om perioden ännu inte har avslutats, övergång till vilotillstånd. Det är lätt att bevisa att ALG-D är 2-konkurrenskraftigt. Vi behöver bara överväga två fall. Om rT < b, förbrukar ALG-D rT-enheter energi under tomgångsintervallet och detta är i själva verket lika med förbrukningen av OPT. Om rT 3 b, då ALG-D först förbrukar r. b/r = b energienheter för att förbli i aktivt tillstånd. En extra power-up-kostnad på b uppstår vid slutet av tomgångsintervallet. Därför är ALG-D:s totala kostnad 2b, medan OPT ådrar sig en kostnad på b för uppeffektdriften vid slutet av tomgångsperioden. Det är också lätt att verifiera att ingen deterministisk online-algoritm kan uppnå ett konkurrensförhållande mindre än 2. Om en algoritm övergår till vilotillståndet efter exakt t-tidsenheter, då i en tomgång period av längd t det ådrar sig en kostnad av tr + b medan OPT betalar min{rt, b} endast. Vi konstaterar att maktstyrning i tvåstatssystem motsvarar det berömda problemet med skidhyra, ett grundläggande problem i teorin om online-algoritmer, se till exempel Irani och Karlin. 26 Intressant nog är det möjligt att slå konkurrenskraften av 2 med hjälp av randomisering. En randomiserad algoritm övergår till vilotillståndet enligt en sannolikhetsdensitetsfunktion p(t). Sannolikheten för att systemet slår ner under de första t 0-tidsenheterna under en tomgångsperiod är ò 0 t 0 p(t)dt. Karlin m.fl. 28 bestämde den bästa sannolikhetsfördelningen. Den densitet funktion är den exponentiella funktionen e rt/b, multiplicerad med faktorn för att säkerställa att p(t) integrerad över hela tidshorisonten är 1, det vill säga, systemet är definitivt drivs ner någon gång. Algoritm alLG-r: Övergång till viloläge enligt sannolikhetstäthetsfunktionen ALG-R uppnår en avsevärt förbättrad konkurrenskraft, jämfört med deterministiska strategier. Resultat av Karlin et al. 28 innebär att ALG-R uppnår ett konkurrenskraftigt förhållande, Där e » 2.71 är det eulerska numret. Mer exakt är den förväntade energiförbrukningen för ALG-R inte mer än gånger den för OPT under någon tomgångsperiod. Återigen, är det bästa konkurrensförhållandet en randomiserad strategi kan få. Ur praktisk synvinkel är det också lärorikt att studera stokastiska inställningar där längden på tomgångsperioder styrs av sannolikhetsfördelningar. I praktiken kan korta perioder förekomma oftare. Sannolikhetsfördelning kan också modellera specifika situationer där antingen mycket korta eller mycket långa tomgångsperioder är mer benägna att inträffa, jämfört med perioder med medellång längd. Naturligtvis är en sådan sannolikhetsfördelning kanske inte känd i förväg men kan läras med tiden. I det följande antar vi att distributionen är känd. Låt Q = (q(T) ) 0£T <∞ vara en fast sannolikhetsfördelning på längden T av tomgångsperioder. För alla t 3 0, beakta den deterministiska algoritm ALG t som alltid driver ner efter exakt t tid enheter. Om tomgångsperioden slutar innan ALG t slår ner, t.ex. om T < t, förblir algoritmen i aktivt tillstånd under tomgångsintervallets varaktighet och använder en rT-energi. Om tomgångsperioden ännu inte har avslutats när ALG t slår ut, såsom, om T 3 t, då algoritmen ådrar sig en fast energi av rt + b eftersom en energi av rt förbrukas innan systemet i drivs ner och en kostnad b uppstår för övergången tillbaka till det aktiva läget. För att bestämma den förväntade kostnaden för ALG t, Vi måste integrera över alla möjligheter för längden T av overksam period med hjälp av sannolikhetsfördelningen Q. De två begreppen nedan representerar de två fallen. Observera att sannolikheten för att overksamhetsperioden ännu inte har avslutats när ALG t driver ner är (1) Karlin et al. 28 föreslog följande strategi som, med tanke på Q, helt enkelt använder den bästa algoritmen ALG t. algoritm alG-P: Med tanke på en fast Q, låt A Q * vara den deterministiska algoritm ALG t som minimerar ekvation 1. Karlin m.fl. visade att för alla Q, den förväntade energiförbrukningen av Intressant, för variabel T den optimala kostnaden har en enkel grafisk representation, se figur 1. Om vi anser att alla linjära funktioner f i (t) = r i t + b i, som representerar den totala energiförbrukningen med hjälp av tillstånd s i, då den optimala energiförbrukningen ges av den nedre delen av arrangemanget av linjer. Man kan använda denna lägre kuvert för att styra en online-algoritm för att välja vilket tillstånd som ska användas när som helst. Låt S OPT (t) betecknar det tillstånd som används av OPT i en tomgång period av total längd t, såsom, S OPT (t), det vill säga lösningen på ekvationen Här antar vi att stater vars funktioner inte förekommer på den lägre kuvert, när som helst, kastas. Vi noterar att algoritmen är en generalisering av ALG-D för tvåstatssystem. Irani m.fl. 24 bevisade att Lower-Envelope är 2-konkurrenskraftig. Detta är den bästa konkurrenskraften en deterministisk algoritm kan uppnå i godtyckliga statliga system. Irani m.fl. 24 studerade också den inställning där längden av tomgångsperioder genereras av en sannolikhetsfördelning Q = (q(T) ) 0£T <∞. De bestämmer tiden t i när en online-strategi bör gå från stat s i-1 till s i, 2 £ i £ l. I detta syfte överväga den deterministiska online-algoritm ALG t som övergår till lägre makt tillstånd efter exakt t tid enheter. Vi bestämmer den förväntade kostnaden för ALG t i en tomgång period vars längd T genereras enligt Q, förutsatt att endast tillstånd s i-1 och s i är tillgängliga. Till en början bor ALG t i staten s i−1. Om tomgångsperioden slutar innan ALG t övergår till lågeffekttillståndet, som t.ex. om T < t, är energiförbrukningen r i‐1 T. Om tomgångsperioden inte har avslutats ännu när ALG t övergår till lågeffekttillståndet, t.ex. om T 3 t, ådrar sig algoritmen en energi r i‐1 t medan den är bosatt i s i‐1 under de första t-tidenheterna och en ytterligare energi av r i (T − t) när den är i tillstånd i under de återstående T − t-tidsenheterna. Vid slutet av den tomgångsperiod, en power-up kostnad b i − b i‐1 betalas för övergången från s i tillbaka till s i‐1. Därför, i detta fall ALG t ådrar sig en total energi av r i‐1 t Den förväntade kostnaden för ALG t, förutsatt att endast s i‐1 och s i är tillgängliga, är Låta t i vara den tid t som minimerar ovanstående uttryck. Irani m.fl. 24 föreslog följande algoritm. Algoritm ALG-P(l): Ändra tillstånd vid övergångstiderna t 2,...,t l definieras ovan. ALG-P(l) är en generalisering av ALG-P för tvåstatssystem. Irani m.fl. bevisade att för varje fast sannolikhetsfördelning Q är den förväntade energiförbrukningen för ALG-P(l) inte mer än gånger den förväntade optimala förbrukningen. Dessutom Irani et al. presenterade en metod för att lära sig en till en början okänd Q. De kombinerade metoden med ALG-P(l) och utförde experimentella tester för en IBM mobil hårddisk med fyra power states. Det visar att det kombinerade systemet uppnår låg energiförbrukning nära den optimala och vanligtvis överträffar många enstaka värdeförutsägelsealgoritmer. Augustine m.fl. 5 undersöka generaliserade flerstatssystem där statsövergångsenergierna kan ta godtyckliga värden. Låt b ij 3 0 vara den energi som krävs för övergången från s i till s j, 1 £ i, j £ l. Augustine et al. visa att LowerEnvelope kan generaliseras och uppnå en konkurrenskraft på 3 + 2Ö2 på 5,8. Detta förhållande gäller för alla tillståndssystem. Bättre gränser är möjliga för specifika system. Augustine m.fl. Utforma en strategi som, för ett givet system S, uppnår ett konkurrensförhållande som är godtyckligt nära den bästa möjliga konkurrenskraften för S. Slutligen överväger författarna stokastiska inställningar och utvecklar optimala övergångstider. Många moderna mikroprocessorer kan köras med variabel hastighet. Exempel är Intel SpeedStep och AMD-processorn PowerNow. Höga hastigheter resulterar i högre prestanda men också hög energiförbrukning. Lägre hastigheter sparar energi men prestanda försämras. Den välkända kub-rot regel för CMOS-enheter anger att hastigheten s av en enhet är proportionell mot kub-roten av kraften eller, motsvarande, kraften är proportionell till s 3. Algoritmlitteraturen överväger en generalisering av denna regel. Om en processor körs i hastighet S, då den erforderliga effekten är s a, där en > 1 är en konstant. Det är uppenbart att energiförbrukningen är integrerad med tiden. Målet är att dynamiskt ställa in hastigheten på en processor för att minimera energiförbrukningen, samtidigt som den ger en önskad servicekvalitet. Dynamisk hastighetsskalning leder till många utmanande schemaläggningsproblem. När som helst måste en schemaläggare bestämma inte bara vilket jobb att utföra utan också vilken hastighet som ska användas. Följaktligen har det funnits ett stort forskningsintresse för utformning och analys av effektiva schemaläggningsalgoritmer. I detta avsnitt granskas de viktigaste resultaten från de senaste åren. Vi tar först upp schemaläggningsproblem med hårda jobbdeadlines. Sedan tänker vi på minimeringen av svarstider och andra mål. I allmänhet är två scenarier av intresse. I offline-inställningen är alla jobb som ska bearbetas kända i förväg. I online-miljö, jobb anländer över tid, och en algoritm, när som helst, måste fatta schemaläggning beslut utan kunskap om framtida jobb. Online-strategier utvärderas igen med hjälp av konkurrensanalys. Onlinealgoritm ALG är c-kompetitiv om, för varje insats, det objektiva funktionsvärdet (vanligtvis energiförbrukningen) för ALG ligger inom c gånger värdet av en optimal lösning. I en seminal tidning, initierar den algoritmiska studien av hastighetsskalning, Yao et al. 40 undersökte ett schemaläggningsproblem med strikta tidsgränser. Vid denna punkt är detta ramverk den överlägset mest studerade algoritmiska hastighetsskalning problem. Betrakta n jobb J 1,..., J n som måste bearbetas på en processor med variabel hastighet. Varje jobb J i anges av en release tid r i, en deadline d i, och en bearbetning volym w i. Frisläppningstiden och deadline markerar det tidsintervall under vilket jobbet måste utföras. Bearbetningsvolymen är den mängd arbete som måste göras för att slutföra arbetet. Intuitivt kan bearbetningsvolymen ses som antalet CPU cykler som krävs för att avsluta jobbet. Handläggningstiden för ett jobb beror på hastigheten. Om J i utförs med konstant hastighet s, det tar w i / s tid enheter för att slutföra jobbet. Företräde för arbetstillfällen är tillåtet, dvs. behandlingen av ett arbete kan avbrytas och återupptas senare. Målet är att skapa en genomförbar tidsplan som minimerar den totala energiförbrukningen. Ramverket av Yao et al. förutsätter att det inte finns någon övre gräns för den maximala processorns hastighet. Därför finns det alltid en genomförbar tidsplan som uppfyller alla tidsgränser. Dessutom antas ett kontinuerligt hastighetsspektrum finnas tillgängligt. Vi kommer senare att diskutera hur vi kan lätta på dessa antaganden. Grundläggande algoritmer: Yao et al. 40 först studera offline-inställningen och utveckla en algoritm för att beräkna optimala lösningar, minimera total energiförbrukning. Strategin kallas YDS som hänvisar till upphovsmännens initialer. Algoritmen fortsätter i en rad iterationer. I varje iteration identifieras ett tidsintervall med maximal densitet och ett motsvarande delschema konstrueras. Löst taget, densiteten i ett intervall I är den minsta genomsnittliga hastighet som krävs för att slutföra alla jobb som måste schemaläggas i I. En hög densitet kräver hög hastighet. Formellt är densiteten D I för ett tidsintervall I = [t, t ¢] det totala arbete som ska slutföras i I dividerat med längden på I. Mer exakt, låt S I vara den uppsättning av jobb J i som måste bearbetas i I eftersom deras release tid och deadline är i I, såsom Algorithm YDS upprepade gånger bestämmer intervallet I av maximal densitet. I ett sådant intervall I schemalägger algoritmen jobben för S I i hastighet D Jag använder Earliest Deadline First (EDF) policy. Denna välkända politik utför alltid jobbet med den tidigaste deadline, bland de tillgängliga oavslutade jobben. Efter detta uppdrag, YDS tar bort set S I samt tidsintervall jag från problem instans. Mer specifikt, för alla ledig jobb J i vars deadline är i intervallet I, den nya deadline är satt till början av I eftersom tidsfönstret jag inte är tillgänglig längre för behandling av J i. Formellt, för alla J i med d i I, den nya deadline tiden är inställd på d i := t. På samma sätt, för alla oplanerade J i vars releasetid är i I, den nya releasetiden är inställd på slutet av I. Återigen, formellt för alla J i med r i I, är den nya release tiden r i := t ¢. Tidsintervall Jag är kasserad. Denna process upprepas tills det inte finns fler lediga jobb. Vi ger en sammanfattning av algoritmen i pseudokod. granska artiklar den horisontella axeln. I den första iteration YDS identifierar I 1 = [3, 8] som intervall av maximal densitet, tillsammans med uppsättning S I 1 = { J 2, J 3 }. I I 1, det röda jobbet J 2 är föreslagen vid tidpunkten 5 för att ge företräde till orange jobb J 3 med en tidigare deadline. I den andra iterationen I 2 = [13, 20] är det maximala densitetsintervallet. De mörkgröna och ljusgröna jobben är planerade; företrädet används igen en gång. I den tredje iterationen är det återstående jobbet J 3 schemalagt i de tillgängliga ankomst- och avgångstiderna. När man identifierar intervaller av maximal densitet behöver YDS bara beakta intervaller vars gränser är lika med releasetider och tidsgränser för jobben. En enkel implementering av algoritmen har en körtid på O(n 3 ). Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. 34 visade att tiden kan minskas till O(n 2 log n). Ytterligare förbättringar är möjliga om arbetsintervallen bildar en trädstruktur. Om det inte är möjligt att genomföra en viss arbetsuppgift, är situationen mer känslig. I detta fall är det omöjligt att slutföra alla arbetstillfällen. Målet är att designa algoritmer som uppnår bra genomströmning, vilket är den totala bearbetningsvolymen av jobb som slutförs vid sin deadline, och samtidigt optimera energiförbrukningen. Papper 7, 17 presenterar algoritmer som även fungerar på nätet. Vid varje tidpunkt som strategierna upprätthåller en pool av jobb som de har för avsikt att slutföra. Nyanlända jobb kan komma in i poolen. Om poolen innehåller för stor bearbetning volym, arbetstillfällen utvisas så att genomströmningen inte minskas avsevärt. Algoritmen av Bansal et al. 7 är 4 konkurrenskraftiga när det gäller genomströmning och konstant konkurrenskraft i fråga om energiförbrukning. Temperaturminimering: Höga processorhastigheter leder till höga temperaturer, vilket försämrar en processors tillförlitlighet och livslängd. Bansal m.fl. 9 överväga minimering av den maximala temperatur som uppstår under bearbetning. De utgår från att kylningen följer Newtons lag, som säger att en kropps kylningshastighet står i proportion till temperaturskillnaden mellan kroppen och miljön. Bansal m.fl. 9 visar att algoritmer YDS och BKP har gynnsamma egenskaper. För alla jobb sekvens, är den maximala temperaturen inom en konstant faktor för minsta möjliga optimal schema för de nuvarande tillgängliga oavslutade jobb. Bansal m.fl. 9 gav en omfattande analys av ovanstående algoritm och visade att konkurrensförhållandet är exakt en. När det gäller konkurrenskraften är därför Optimal Tillgängligt bättre än genomsnittet. Bansal m.fl. 9 presenterade också en ny online-algoritm, kallad BKP enligt författarnas initialer, som kan ses som en approximering av de optimala hastigheterna för YDS på ett online sätt. Återigen, algoritmen tar hänsyn till intervalltätheter. För tider t, t 1, och t 2 med t 1 < t £ t 2, låt w(t, t 1, t 2 ) vara den totala bearbetningsvolymen av jobb som har anlänt med tid t, har en releasetid på minst t 1 och en deadline på högst t 2. Sedan, intuitivt, max t 1, t 2 w(t, t 1, t 2 )/(t 2 − t 1 ) är en uppskattning av den hastighet som används av YDS, baserat på kunskap om jobb som har anlänt med tiden t. Den nya algoritmen BKP approximerar denna hastighet genom att överväga specifika tidsfönster [et − (e − 1) t¢, t¢], för t¢ > t, av längd e(t¢ − t). Motsvarande nödvändiga hastighet multipliceras sedan med en faktor av e. algoritm BKP: När som helst t använda en hastighet av e. s(t), där tillgängliga oavslutade jobb bearbetas med EDF. Bansal m.fl. 9 visade att BKP uppnår ett konkurrenskraftigt förhållande av, vilket är bättre än konkurrenskraften för Optimal Tillgänglig för stora värden av a. Alla ovanstående online-algoritmer uppnår konstanta konkurrensförhållanden som beror på en och inga andra problemparameter. Beroendet av a är exponentiellt. För små värden av a, som förekommer i praktiken, är konkurrensförhållandena relativt små. Ett resultat av Bansal et al. 9 innebär att det exponentiella beroendet av a är en naturlig del av problemet. Varje randomiserad onlinealgoritm har en konkurrenskraft på minst W (4/3) a ). förfining-Bounded hastighet: Den problem inställning som anses hittills förutsätter en kontinuerlig, obegränsad spektrum av hastigheter. I praktiken är dock endast en begränsad uppsättning av diskreta hastighetsnivåer s 1 < s 2 <... < s d tillgängliga. De 23 undersöker en utökad problematik där en processor med variabel hastighet kan övergå till ett vilotillstånd. I viloläget, är energiförbrukningen 0 medan i aktivt tillstånd även vid hastighet 0 viss icke-negativ mängd energi förbrukas. Därför Irani et al. 23 kombinerar hastighetsskalning med power-down-mekanismer. I standardinställningen utan viloläge, algoritmer tenderar att använda låg hastighet nivåer som omfattas av release tid och deadline begränsningar. Däremot kan det i viloläge vara fördelaktigt att påskynda ett arbete för att generera inaktiva tider då processorn kan övergå till viloläge. Irani m.fl. 23 utveckla online- och offlinealgoritmer för denna utökade inställning. Baptiste m.fl. 11 och Demaine m.fl. 21 också studera schemaläggning problem där en processor kan ställas in sömn, om än i en inställning utan hastighetsskalning. Minimera Svarstid Ett klassiskt mål i schemaläggningen är minimeringen av svarstiderna. En användare som släpper en uppgift till ett system vill få feedback, säger resultatet av en beräkning, så snabbt som möjligt. Användarnöjdhet beror ofta på hur snabbt en enhet reagerar. Tyvärr, svarstid minimering och energiminimering strider mot målen. För att uppnå snabba svarstider måste ett system vanligtvis använda höga processorer hastigheter, vilket leder till hög energiförbrukning. För att spara energi bör däremot låga hastigheter användas, vilket leder till höga svarstider. Därför måste man hitta sätt att integrera båda målen. Betrakta n jobb J 1,..., J n som måste schemaläggas på en processor med variabel hastighet. Varje jobb J i anges av en release tid r i och en bearbetning volym w i. När ett arbete anländer är dess bearbetningsvolym känd. Företräde av 37 studera en problematik där en fast energi volym E ges och målet är att minimera den totala flödestiden för jobben. Författarna antar att alla jobb har samma bearbetningsvolym. Genom att skala, kan vi anta att alla jobb har enheter. Pruhs och Al. 37 överväga offline scenariot där alla jobb är kända i förväg och visa att optimala scheman kan beräknas i polynom tid. Inom detta ramverk med en begränsad energivolym är det dock svårt att konstruera bra online-algoritmer. Om framtida arbetstillfällen är okända är det oklart hur mycket energi som ska investeras för de uppgifter som för närvarande finns tillgängliga. energi plus flödestider: Albers och Fujiwara 2 föreslog ett annat tillvägagångssätt för att integrera energi och flödestidsminimering. De betraktar en kombinerad objektiv funktion som helt enkelt lägger till de två kostnaderna. Låt E betecknar energiförbrukningen i ett schema. Vi vill minimera. Genom att multiplicera energi eller flödestid med en skalar kan vi också överväga en viktad kombination av de två kostnaderna, vilket uttrycker det relativa värdet av de två termerna i den totala kostnaden. Albers och Fujiwara koncentrerar sig på jobb i enhetsstorlek och visar att optimala offlinescheman kan konstrueras i polynomtid med hjälp av en dynamisk programmeringsmetod. I själva verket algoritmen kan också användas för att minimera den totala flödestiden för jobb med tanke på en fast energivolym. Bansal m.fl. och Lam et al. 7, 32 föreslå algoritmer för inställningen att det finns en övre gräns på den maximala processorn hastighet. Alla ovanstående resultat antar att när ett arbete anländer, dess bearbetning volym är känd. Papper 18, 32 undersöker det svårare fallet att denna information inte är tillgänglig. De resultat som presenterats hittills gäller arkitekturer med en processor. Energiförbrukning är dock också ett stort problem i multiprocessormiljöer. För närvarande är relativt få resultat kända. Albers m.fl. 3 undersöka deadline-baserad schemaläggning för m identiska parallella processorer. Målet är att minimera den totala energin på alla maskiner. Författarna löser först komplexiteten i offline-problemet genom att visa att datorer optimala scheman är NP-hårda, även för enhet storlek jobb. Om inte P = NP kan optimala lösningar därför inte beräknas på ett effektivt sätt. Albers m.fl. 3 sedan utveckla polynom tid offline algoritmer som uppnår konstant faktor approximationer, såsom, för varje inmatning den förbrukade energin ligger inom en konstant faktor för den sanna optimal. De utformar också online-algoritmer som uppnår konstanta konkurrensförhållanden. Lam m.fl. 30 studiedeadlinebaserad schemaläggning på två hastighetsbegränsade processorer. De presenterar en strategi som är konstant konkurrenskraftig i termer av throughput maximization och energiminimering. Bunde 15 undersöker flödestidsminimering i multiprocessormiljöer, givet en fast energivolym. Han presenterar hårdhet resultat samt approximation garantier för enhet storlek jobb. Lam m.fl. 31 överväga den objektiva funktionen att minimera energi plus flödestider. De designar online-algoritmer som uppnår konstanta konkurrensförhållanden. Makespan minimization: En annan grundläggande objektiv funktion i schemaläggning är makespan minimization, det vill säga minimiseringen av den punkt i tiden när hela schemat slutar. Bunde 15 förutsätter att jobb anländer över tid och utvecklar algoritmer för enkel- och multiprocessormiljöer. Pruhs och Al. 36 överväga uppgifter som har företräde begränsningar som definieras mellan dem. De utformar algoritmer för parallella processorer med en fast energivolym. Trådlösa nätverk som ad hoc-nät och sensornätverk har fått stor uppmärksamhet under de senaste åren. Framträdande tillämpningar av sådana nätverk är observation av livsmiljöer, miljöövervakning och prognoser. Nätverksnoder har vanligtvis mycket begränsad batterikapacitet så att effektiva energihanteringsstrategier är nödvändiga för att förbättra ett näts livslängd. I den här undersökningen fokuserar vi på två algoritmiska problem som har fått stort intresse för forskarsamhället på senare tid. Dessutom kan dessa problem betraktas som planeringsproblem och är därmed relaterade till de ämnen som behandlas i de föregående avsnitten. nättopologier Trådlöst ad hoc-nätverk har ingen fast infrastruktur. Nätverket består i princip av en samling radiostationer med antenner för att sända och ta emot signaler. Under överföringen en station s måste välja en transmissionseffekt P s, med hänsyn till att signalstyrkan minskar över avstånd. Signalen tas emot med framgång av en station t endast om P s/dist(s,t) a > g. Här betecknar dist(s,t) avståndet mellan s och t, koefficienten a > 1 är dämpningshastigheten och g > 0 är en överföringskvalitetsparameter. I praktiken är dämpningshastigheten mellan 2 och 5. Utan förlust av allmängiltighet kan vi anta g = 1. Vid dataöverföring sänds en mycket grundläggande operation, där en viss källa nod vill skicka en bit information till alla andra noder i nätverket. Vi studerar problemet med att utforma topologier som möjliggör energieffektiv sändningsverksamhet i trådlösa nät. Överväg en uppsättning V av n noder som ligger i det verkliga planet R 2. En källa nod s V måste sprida ett meddelande till alla andra noder i nätverket. Men s behöver inte informera alla v ί V direkt. I stället kan noder fungera som relästationer. Om v tar emot meddelandet och överför det till w 1,..., w k, sedan v måste använda en effekt av P v = max 1 £ j k dist( v, w j ) a. Målet är att hitta en topologi, det vill säga ett överföringsschema som minimerar den totala effekten/energin E = S v V P v uppstår av alla noderna. Observera att ett sådant schema motsvarar ett träd T som är rotat på s och innehåller alla noder av V. Barnen i en nod v är noderna som v överför meddelandet. Clementi m.fl. 19 visade att beräkningen av optimala scheman är NP-hård. Därför tillgriper man approximationer. En algoritm ALG uppnår en c-uppskattning om för varje ingång, t.ex. för varje nodmängd V, den lösning som ALG beräknar medför en energiförbrukning på högst c gånger det optimala värdet. Wan m.fl. 39 undersöka olika algoritmer när det gäller deras approximativa garantier. Den mest studerade strategin är MST. För en given noduppsättning V beräknar MST en standard minsta spännvidd T, t.ex. ett träd med minsta totala kantlängd som innehåller alla hörn av V (se t.ex. Cormen et al. Europaparlamentets och rådets förordning (EU, Euratom) nr 966/2012 av den 25 oktober 2012 om finansiella regler för unionens allmänna budget och om upphävande av rådets förordning (EG, Euratom) nr 1605/2002 (EUT L 298, 26.10.2012, s. 1). Trädet är rotat vid källnoden s. Dataöverföring utförs längs kanterna på T, det vill säga varje nod sänder ett mottaget meddelande till alla sina barn i trädet. Intuitivt är denna algoritm förnuftig eftersom den lilla totala kantlängden på ett minsta spännträd bör leda till en liten total energiförbrukning. Algoritm MsT: För en given V, beräkna en minsta spännvidd träd rotad på s. Varje nod v överför ett givet meddelande till alla sina barn i T. Många och Wan et al. 39 innebär att approximationsgraden c av BIP uppfyller 13/3 £ c £ 6. Det skulle vara intressant att utveckla snäva gränser för denna algoritm. Som nämnts ovan används sensornätverk vanligtvis för att övervaka en miljö, mäta t.ex. temperatur eller ett kemiskt värde. Uppgifterna måste överföras till en utsedd diskbänksnod som kan utföra ytterligare åtgärder. Becchetti m.fl. 13 och Korteweg m.fl. utveckla energieffektiva protokoll för dataaggregation. Antag att överföringstopologin ges av ett träd T rotat vid diskhon s. Data som samlats in vid ett nätverk nod v överförs längs vägen från v till s i T. Nätverk noder har förmågan att kombinera data. Om två eller flera datapaket samtidigt befinner sig på en nod v, kan v sammanfoga dessa paket till en översiktsartiklar enstaka en och överföra den till den ursprungliga noden, i riktning mot s. Energin som uppstår av en nätverk nod är proportionell mot antalet paket som skickas. Becchetti m.fl. 13 anta att dataposter anländer över tid. Varje post i anges av noden v i där objektet uppstår, en ankomsttid r i och en deadline d i där uppgifterna måste nå diskbänken. Målet är att hitta ett genomförbart överföringsschema som minimerar den maximala energi som krävs vid någon nod. Becchetti m.fl. visa att offline problemet är NP-hård och presentera en 2- approximation algoritm. De utvecklar också distribuerade online-algoritmer för synkrona samt asynkrona kommunikationsmodeller. Korteweg m.fl. 29 studera en problemvariant där dataobjekten inte har tidsfrister men bör nå diskbänken med låg latens. De presenterar algoritmer som samtidigt approximerar energiförbrukning och latens, med tanke på återigen olika kommunikationsmodeller. I den här undersökningen har vi granskat algoritmiska lösningar för att spara energi. En annan undersökning om algoritmiska problem i makthantering skrevs av Irani och Pruhs. 27 Under de senaste månaderna har ett stort antal artiklar publicerats, och vi förväntar oss att energibevarande ur algoritmisk synvinkel kommer att fortsätta att vara ett aktivt forskningsämne. Det finns många vägar till framtida forskning. När det gäller t.ex. effektnedsättningsmekanismer skulle det vara intressant att utforma strategier som tar hänsyn till den latens som uppstår när ett system övergår från ett sömntillstånd till ett aktivt tillstånd. Dessutom behöver vi en bättre förståelse för hastighetsskalningsteknik i multiprocessormiljöer eftersom flerkärnig arkitektur blir allt vanligare inte bara på servrar utan även på stationära datorer och bärbara datorer. Dessutom förtjänar optimeringsproblem i nätverk ytterligare algoritmiska undersökningar. Här skulle det vara intressant att studera energieffektiva punkt-till-punkt-kommunikationer som kompletterar det befintliga arbetet med sändnings- och dataaggregateringsprotokoll. Sist men inte minst, de algoritmer som presenterats hittills måste analyseras i termer av deras genomförande och utförande kostnad: hur mycket extra energi uppstår vid genomförandet av algoritmer i realistiska miljöer. Susanne Albers är professor vid institutionen för datavetenskap vid Humboldt universitet, Berlin, Tyskland. | Albers m.fl. REF granskade några energieffektiva algoritmer som används för att minimera flödestiden genom att ändra processorns hastighet efter jobbstorlek. | 16,604,460 | Energy-efficient algorithms | {'venue': 'CACM', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,620 |
Traditionella påståenden uttrycker korrekthet egenskaper som måste hålla på varje program exekvering. Men många program har probabilistiska resultat och följaktligen deras korrekthet egenskaper är också probabilistiska (t.ex., de identifierar ansikten i bilder, förbrukar sensordata, eller körs på opålitlig hårdvara). Traditionella påståenden fångar inte dessa korrekthetsegenskaper. I detta dokument föreslås att programmerare uttrycker probabilistiska korrekthetsegenskaper med probabilistiska påståenden och beskriver en ny probabilistisk utvärderingsmetod för att effektivt verifiera dessa påståenden. Probabilistiska påståenden är booleska uttryck som uttrycker sannolikheten för att en fastighet kommer att vara sann i ett givet utförande snarare än att hävda att egendomen alltid måste vara sann. Eftersom antingen specifika ingångar eller distributioner på inmatningsutrymmet, probabilistisk utvärdering verifierar probabilistiska påståenden genom att först utföra distributionsextraktion för att representera programmet som ett Bayesian nätverk. Probabilistisk utvärdering använder sedan statistiska egenskaper för att förenkla denna representation för att effektivt beräkna sannolikheter direkt eller med provtagning. Vår strategi är en blandning av både statisk och dynamisk analys: distributionsextraktion bygger statiskt och optimerar Bayesians nätverksrepresentation och provtagning tolkar dynamiskt denna representation. Vi implementerar vår strategi i ett verktyg som kallas MAYHAP för C- och C++-program. Vi utvärderar uttrycklighet, korrekthet och prestanda av MAYHAP på program som använder sensorer, utför ungefärlig beräkning, och fördunkla data för integritet. Våra fallstudier visar att probabilistiska påståenden beskriver användbara korrekthetsegenskaper och att MAYHAP effektivt verifierar dem. | Slutligen finns det metoder som inbegriper symboliskt utförande; REF använder en blandning av statisk och dynamisk analys för att kontrollera probabilistiska program från den ungefärliga datorlitteraturen. | 5,809,796 | Expressing and verifying probabilistic assertions | {'venue': "PLDI '14", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,621 |
Ett koncept för att lösa kommunikationsproblemet bland moduler som dynamiskt placeras på en omkonfigurerbar enhet presenteras. Baserat på en dynamisk nätverksbaserad kommunikationsinfrastruktur (DyNoC) kan komponenter som placeras i drifttid på en enhet kommunicera ömsesidigt. En 4x4 dynamisk infrastrukturprototyp för nätverkskommunikation på chip, som implementeras i en FPGA, upptar endast 7 % av enheten och kan ställas in på 391 MHz. | Detta koncept, som kallas DyNoC (Dynamic Network on Chip) presenterades först i REF. | 13,599,642 | A dynamic noc approach for communication in reconfigurable devices | {'venue': 'IN PROCEEDINGS OF INTERNATIONAL CONFERENCE ON FIELD-PROGRAMMABLE LOGIC AND APPLICATIONS (FPL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,622 |
Mobile är en förlängning av.NET Common Intermediate Language som stöder certifierade In-Lined Reference Monitoring. Mobila program har den användbara egenskapen att om de är väldefinierade med avseende på en deklarerad säkerhetspolicy, då är de garanterade att inte bryta mot denna säkerhetspolicy när de utförs. När en In-Lined Reference Monitor (IRM) uttrycks i Mobile kan den därför certifieras av en enkel typkontrollör för att eliminera behovet av att lita på tillverkaren av IRM. Säkerhetspolicyer i Mobile är deklarativa, kan omfatta obundna samlingar av objekt som tilldelats på runtime, och kan beakta oändligt lång historia av säkerhetshändelser som visas av dessa objekt. Prototypen Mobile implementation upprätthåller egenskaper uttryckta av finit-state security automata-one automaton för varje säkerhetsrelevant objekt-och kan typkontroll Mobile-program i närvaro av undantag, finalizers, concurrency och non-termination. Köra Mobila program kräver ingen ändring till befintliga.NET virtuella maskin implementationer, eftersom Mobila program består av normal hanterad CIL-kod med extra skriva kommentarer lagras i.NET attribut. | Mobile REF är ett in-lined referensövervakningssystem för Microsoft.NET-ramverket. | 924,594 | Certified In-lined Reference Monitoring on .NET | {'venue': "PLAS '06", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,623 |
Abstrakt. Denna artikel beskriver motivationen, designen och genomförandet av Berkeley Lab Checkpoint/Restart (BLCR), ett system-nivå checkpoint/restart implementation för Linuxkluster som riktar sig till utrymmet för typiska högpresterande datorprogram, inklusive MPI. Lösningar på applikationsnivå, inklusive både kontroll- och feltoleranta algoritmer, anses vara mer tids- och rymdeffektiva än kontrollpunkter på systemnivå, som inte kan använda sig av någon tillämpningsspecifik kunskap. Kontroll av systemnivå möjliggör dock företräde, vilket gör det lämpligt för att reagera på "felprekursorer" (t.ex. förhöjda felfrekvenser från ECC-minne eller CRC-nätverk, eller förhöjd temperatur från sensorer). Preemption kan också öka effektiviteten i batch schemaläggning; till exempel minska tomgångscykler (genom att tillåta avstängning utan kö dräneringsperiod eller omfördelning av resurser för att eliminera tomgång noder när bättre montering jobb köas), och minska den genomsnittliga kötid (genom att begränsa stora jobb till att köras under off-peak timmar, utan att behöva begränsa längden på sådana jobb). Var och en av dessa potentiella användningsområden gör BLCR till ett värdefullt verktyg för effektiv resurshantering i Linuxkluster. | Som ytterligare ett paket med Berkeley Lab Checkpoint/Restart (BLCR) REF kan det hantera CUDA-applikationer. | 62,762,011 | Berkeley lab checkpoint/restart (blcr) for linux clusters | {'venue': 'in Proceedings of SciDAC. 2006', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,624 |
Mål: För att härleda datadrivna insikter, utvecklar vi Care Pathway Explorer, ett system som minerar och visualiserar en uppsättning frekventa händelsesekvenser från patientens EMR-data. Målet är att använda historiska EMR data för att extrahera vanliga sekvenser av medicinska händelser såsom diagnoser och behandlingar, och undersöka hur dessa sekvenser korrelerar med patientens utfall. Material och metoder: Care Pathway Explorer använder en frekvent sekvensbrytningsalgoritm anpassad för att hantera de verkliga egenskaperna hos EMR-data, inklusive tekniker för hantering av händelsekonvergens, flera nivåer-av-detalj, temporal kontext, och utfall. De minerade mönstren visualiseras sedan i ett interaktivt användargränssnitt bestående av ny översikt och flödesvisualiseringar. Resultat: Vi använder det föreslagna systemet för att analysera diagnoser och behandlingar av en kohort av hyperlipidemipatienter med hypertoni och diabetes pre-tillstånd, och visa den kliniska relevansen av mönster mined från EMR data. De mönster som identifierades motsvarade klinisk och publicerad kunskap, en del okända för läkaren vid tidpunkten för upptäckten. Slutsats: Vård Pathway Explorer, som kombinerar frekventa sekvensbrytning tekniker med avancerade visualiseringar stöder integreringen av datadrivna insikter i vårdväg upptäckt. | CareExplorer REF var ett nytt CP management verktyg som kombinerade frekventa sekvensbrytning tekniker med avancerade visualisering stöd. | 6,693,992 | Mining and exploring care pathways from electronic medical records with visual analytics | {'venue': 'Journal of biomedical informatics', 'journal': 'Journal of biomedical informatics', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 81,625 |
Abstract-Vi beskriver ett objekt detektionssystem baserat på blandningar av flerskaliga deformerbara delmodeller. Vårt system kan representera mycket varierande objektklasser och uppnå toppmoderna resultat i PASCAL-objektdetekteringsutmaningarna. Även om deformerbara delmodeller har blivit ganska populära, hade deras värde inte visats på svåra riktmärken såsom PASCAL-datamängderna. Vårt system bygger på nya metoder för discriminativ träning med delvis märkta data. Vi kombinerar ett marginalkänsligt tillvägagångssätt för data-mining hårda negativa exempel med en formalism som vi kallar latent SVM. En latent SVM är en omformulering av MI-SVM i termer av latenta variabler. En latent SVM är semikonvex och träningsproblemet blir konvext när latent information specificeras för de positiva exemplen. Detta leder till en iterativ träningsalgoritm som växlar mellan att fixera latenta värden för positiva exempel och optimera den latenta SVM objektivfunktionen. | Positionen behandlas som latenta variabler och lärs automatiskt genom att använda Latent SVM REF. | 3,198,903 | Object Detection with Discriminatively Trained Part-Based Models | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 81,626 |
Abstract-Med tillkomsten av små form-faktor enheter, protokoll standardisering, och robust protokoll implementeringar, multihop mobila nätverk bevittnar utbredd distribution. Övervakningen av sådana nät är avgörande för att de ska fungera väl. I detta syfte presenteras i detta dokument DAMON, ett distribuerat system för övervakning av mobilnät med flera block. DAMON använder agenter inom nätverket för att övervaka nätverksbeteendet och skicka insamlade mätningar till dataarkiv. DAMONs allmänna arkitektur stöder övervakning av ett brett spektrum av protokoll, enheter och nätverksparametrar. Andra viktiga funktioner i DAMON inkluderar sömlöst stöd för flera arkiv, automatisk upptäckt av sänkor av agenterna, och resililiens av agenter för arkivfel. Vi har implementerat DAMON agenter som samlar in statistik om datatrafik och ad hoc On-demand distans Vector (AODV) routing protokoll. Vi har använt vårt genomförande för att övervaka ett ad hoc-nätverk vid det 58:e mötet i Internet Engineering Task Force (IETF) i november 2003 i Minneapolis, MN. I det här dokumentet beskriver vi DAMON:s arkitektur och rapporterar om hur IETF-nätverket fungerar med hjälp av övervakningsinformation som samlas in av DAMON. Vårt nätverksövervakningssystem är tillgängligt online för användning av andra forskare. | DAMON-arkitekturen REF definierar ett distribuerat övervakningssystem för ad-hoc-nätverk, som stöder flera datadatabaser och inkluderar en mekanism för automatisk upptäckt av datadatabaser av agenterna. | 15,202,897 | DAMON: a distributed architecture for monitoring multi-hop mobile networks | {'venue': '2004 First Annual IEEE Communications Society Conference on Sensor and Ad Hoc Communications and Networks, 2004. IEEE SECON 2004.', 'journal': '2004 First Annual IEEE Communications Society Conference on Sensor and Ad Hoc Communications and Networks, 2004. IEEE SECON 2004.', 'mag_field_of_study': ['Computer Science']} | 81,627 |
Loop stängning detektionssystem för monokulära SLAM finns i tre breda kategorier: i) karta-till-karta, ii) bild-till-bild och iii) bild-till-karta. I detta dokument har vi valt ett genomförande av varje och utfört experiment som gör det möjligt att jämföra de tre tillvägagångssätten. De sekvenser som används inkluderar både inomhus- och utomhusmiljöer samt en- och flera loopbanor. | Som diskuteras i detalj i REF upptäcks slinga stängningar med hjälp av tre huvudsakliga metoder i litteratur -mapto-map, image-to-image och image-to-map. | 6,809,074 | A comparison of loop closing techniques in monocular SLAM | {'venue': 'ROBOTICS AND AUTONOMOUS SYSTEMS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,629 |
Vi introducerar en ny oövervakad domänanpassningsmetod för objektdetektering. Vi strävar efter att lindra det bristfälliga översättningsproblemet med pixel-nivåanpassningar, och det källobjektiva discriminativitetsproblemet med funktions-nivåanpassningar samtidigt. Vårt tillvägagångssätt består av två steg, dvs. Domain Diversification (DD) och Multidomain-invariant Representation Inlärning (MRL). I DD-stadiet diversifierar vi distributionen av märkta data genom att generera olika distinkta skiftade domäner från källdomänen. Vid MRL-stadiet tillämpar vi kontradiktoriskt lärande med en multi-domändiskriminator för att uppmuntra funktionen att vara oskiljaktig mellan domänerna. DD tar upp den källbaserade diskrimineringen, medan MRL minskar den ofullständiga bildöversättningen. Vi konstruerar en strukturerad ram för domänanpassning för vårt inlärningsparadigm och introducerar ett praktiskt sätt att DD för genomförande. Vår metod överträffar de senaste metoderna med en stor marginal på 3 % och 12 % i termer av genomsnittlig genomsnittlig precision (mAP) på olika datauppsättningar. | REF använder domändiversifiering och flerdomäninvarianta representationsinlärning för att ta itu med det bristfälliga översättnings- och källförgrundade problemet. | 153,312,783 | Diversify and Match: A Domain Adaptive Representation Learning Paradigm for Object Detection | {'venue': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 81,630 |
Abstract-I detta dokument studerar vi hur man kan minska energiförbrukningen i storskaliga sensornätverk, som systematiskt provar ett spatio-temporellt fält. Vi börjar med att formulera en distribuerad kompression problem som är föremål för aggregering (energi) kostnader till en enda diskho. Vi visar att den optimala lösningen är girig och bygger på att beställa sensorer enligt deras aggregeringskostnader-typiskt relaterade till närhet-och, kanske förvånande, det är oberoende av distributionen av datakällor. Därefter överväger vi en förenklad hierarkisk modell för ett sensornätverk som inkluderar flera sänkor, kompressorer/aggregationsnoder och sensorer. Med hjälp av ett rimligt mått för energikostnader, visar vi att den optimala organisationen av enheter är associerad med en Johnson-Mehl tessellation induceras av deras platser. Med hjälp av tekniker från stokastisk geometri analyserar vi den energibesparing som optimala hierarkier ger i förhållande till tidigare föreslagna organisationer baserade på närhet, d.v.s. tillhörande Voronoi tessellations. Vår analys och simuleringar visar att en optimal organisation av aggregering/kompression kan ge 8%-28% energibesparingar beroende på kompressionsförhållandet. | Tidig litteratur REF studerade hur man kan minska energiförbrukningen i storskaliga sensornätverk från en optimal hierarkisk organisation av sensorer där klusterbaserad struktur är en typ av energieffektiv struktur för trådlösa sensornätverk. | 3,066,769 | Minimizing energy consumption in large-scale sensor networks through distributed data compression and hierarchical aggregation | {'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']} | 81,631 |
Recurrent Neural Networks (RNN) har blivit det toppmoderna valet för att extrahera mönster från temporalsekvenser. Nuvarande RNN-modeller är dock olämpliga för att bearbeta oregelbundet provade data som utlöses av händelser som genereras i kontinuerlig tid av sensorer eller andra neuroner. Sådana data kan till exempel uppstå när indata kommer från nya händelsestyrda artificiella sensorer som genererar glesa, asynkrona strömmar av händelser eller från flera konventionella sensorer med olika uppdateringsintervall. I detta arbete introducerar vi den fasade LSTM-modellen, som utökar LSTM-enheten genom att lägga till en ny tidsgrind. Denna grind styrs av en parametriserad svängningar med ett frekvensområde som producerar uppdateringar av minnescellen endast under en liten procentandel av cykeln. Även med de glesa uppdateringar som följer av oscillationen uppnår det fasade LSTM-nätverket snabbare konvergens än vanliga LSTM:er på uppgifter som kräver inlärning av långa sekvenser. Modellen integrerar naturligt ingångar från sensorer med godtycklig provtagningsfrekvens och öppnar därmed nya utredningsområden för behandling av asynkrona sensoriska händelser som för med sig tidsinformation. Det förbättrar också avsevärt prestandan hos LSTMs i standard RNN-applikationer, och gör det med en order-of-magnitude färre beräkningar vid körning. | REF introducerar den fasade LSTM-modellen, som utökar LSTM-enheten genom att lägga till en ny tidsgrind som styrs av en parametriserad oscillation med ett frekvensintervall som producerar uppdateringar av minnescellen endast under en liten procentandel av cykeln. | 1,561,703 | Phased LSTM: Accelerating Recurrent Network Training for Long or Event-based Sequences | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 81,632 |
Abstract-Consider klasser av signaler som har ett begränsat antal grader av frihet per enhet av tid och kalla detta nummer graden av innovation. Exempel på signaler med en ändlig hastighet av innovation inkluderar strömmar av Diracs (t.ex., Poisson processen), nonuniform splines, och bitvis polynomials. Även om dessa signaler inte är bandbegränsade, visar vi att de kan provtas jämnt i (eller ovan) takten av innovation med hjälp av en lämplig kärna och sedan perfekt rekonstrueras. Således bevisar vi provtagning teorem för klasser av signaler och kärnor som generaliserar den klassiska "bandbegränsad och sinc kärna" fall. I synnerhet visar vi hur man kan ta prover och rekonstruera periodiska och ändliga-längd strömmar av Diracs, icke-uniform splines, och bitvis polynomials med sinc och Gaussian kärnor. För oändliga signaler med finita lokala innovationshastigheter visar vi lokal provtagning och rekonstruktion baserad på splinekärnor. Nyckeln i alla konstruktioner är att identifiera den innovativa delen av en signal (t.ex. tidsintryck och vikter av Diracs) med hjälp av ett släcknings- eller lokaliseringsfilter: en anordning som är välkänd i spektralanalys och felkorrigering kodning. Detta leder till standardiserade beräkningsprocedurer för att lösa provtagningsproblemet, vilket vi visar genom experimentella resultat. Tillämpningar av dessa nya provtagningsresultat finns i signalbehandling, kommunikationssystem och biologiska system. | Till skillnad från dessa exempel, de compound-Poisson processer, även om medlemmar av familjen Lévy, är styckvis-konstant och har en ändlig grad av innovation (FRI) i betydelsen REF. | 14,636,642 | Sampling signals with finite rate of innovation | {'venue': 'IEEE Transactions on Signal Processing', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 81,633 |
Vi introducerar en enkel Rollbaserad Trust-management språk RT 0 och en set-teoretisk semantik för det. Vi introducerar också credential grafer som en sökbar representation av referenser i RT 0 och bevisa att nåbarhet i credential grafer är ljud och komplett med avseende på semantik RT 0. Baserat på credential grafer, ger vi målriktade algoritmer för att göra credential kedja upptäckt i RT 0, både när credential lagring är centraliserad och när credential lagring distribueras. En målriktad algoritm börjar med en åtkomst-kontroll fråga och sökningar efter referenser som är relevanta för frågan, samtidigt som man undviker att överväga det potentiellt mycket stora antalet referenser som inte är relaterade till tillträde-kontroll beslut som finns. Detta tillvägagångssätt ger bättre förväntad prestanda än bottom-up algoritmer. Vi visar hur våra algoritmer kan tillämpas på SDSI 2.0 (den "SDSI" delen av SKI/SDSI 2.0). Vår målriktade, distribuerade kedjeupptäcktsalgoritm hittar och hämtar referenser efter behov. Vi bevisar att algoritmen är korrekt genom att bevisa att algoritmen är sund och komplett med avseende på den förtroendegraf som består av de referenser den hämtar, och att algoritmen hämtar alla referenser som utgör en traversabel kedja. Vi inför vidare ett system av lagringstyp för RT 0, som garanterar kedjors traverserbarhet när referenser är välskrivna. Detta typsystem kan också bidra till att förbättra sökeffektiviteten genom att vägleda sökningen i rätt riktning, vilket gör distribuerad kedjeupptäckt med ett stort antal referenser möjliga. * Ett utdraget abstract av en preliminär version av denna artikel publicerades i | En credential-chain-discovery algoritm för roll-baserade trust management språk RT 0 presenterades av Li et al. Hoppa över det. | 1,569,108 | Distributed Credential Chain Discovery in Trust Management | {'venue': 'Journal of Computer Security', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,634 |
Vi utvecklar en representation som lämpar sig för oinskränkt igenkänning av ord i naturliga bilder, där oinskränkt betyder att det inte finns någon fast lexikon och ord har okänd längd. I detta syfte föreslår vi en konvolutionell neurala nätverk (CNN) baserad arkitektur som innehåller en villkorlig Random Field (CRF) grafisk modell, tar hela ordet bild som en enda ingång. CRF:s unaries tillhandahålls av ett CNN som förutsäger tecken på varje position i utmatningen, medan högre ordertermer tillhandahålls av ett annat CNN som upptäcker förekomsten av N-gram. Vi visar att hela denna modell (CRF, tecken prediktor, N-gram prediktor) kan optimeras gemensamt genom att bakåt-förstärka den strukturerade output förlust, i huvudsak kräver systemet för att utföra multi-task lärande, och utbildning kräver endast syntetiskt genererade data. Den resulterande modellen är ett mer exakt system på standardiserade verkliga textigenkänningsriktmärken än bara teckenprognoser, vilket ger ett riktmärke för system som inte har utbildats på ett visst lexikon. Dessutom uppnår vår modell state-of-the-art noggrannhet i lexicon-konstruerade scenarier, utan att vara särskilt modellerad för begränsat erkännande. För att testa generaliseringen av vår modell utför vi även experiment med slumpmässiga alfanumeriska strängar för att utvärdera metoden när ingen visuell språkmodell är tillämplig. | Jaderberg m.fl. utformad en convolutional neural network (CNN) med strukturerade utdataskikt för oöverskådlig igenkänning REF. | 16,734,174 | Deep Structured Output Learning for Unconstrained Text Recognition | {'venue': 'ICLR 2015', 'journal': 'arXiv: Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 81,635 |
Abstrakt-Många autentiseringssystem har tidigare föreslagits för att skydda kommunikationens äkthet och integritet i trådlösa sensornätverk. De flesta av dem har dock följande begränsningar: hög beräkning eller kommunikation overhead, ingen motståndskraft mot ett stort antal nod kompromisser, försenad autentisering, brist på skalbarhet, etc. För att ta itu med dessa frågor föreslår vi i detta dokument en ny strategi för meddelandeautentisering som antar en perturbed polynombaserad teknik för att samtidigt uppnå målen för lättvikt, motståndskraft mot ett stort antal nodkompromisser, omedelbar autentisering, skalbarhet och icke-avvisning. Omfattande analyser och experiment har också genomförts för att utvärdera systemet när det gäller säkerhetsegenskaper och system omkostnader. | REF föreslog en perturbation polynom-baserad teknik för att autentisera meddelanden. | 14,389,730 | Lightweight and Compromise-Resilient Message Authentication in Sensor Networks | {'venue': 'IEEE INFOCOM 2008 - The 27th Conference on Computer Communications', 'journal': 'IEEE INFOCOM 2008 - The 27th Conference on Computer Communications', 'mag_field_of_study': ['Computer Science']} | 81,636 |
Abstrakt. Senserande anordningar används i allt större utsträckning för att övervaka den fysiska världen omkring oss. En typ av tillämpning för vilken sensordata är relevant är system för miljöbeslut, t.ex. Nödinsatser vid översvämningar. För att kunna tolka avläsningarna från sensorerna måste uppgifterna dock sättas i sammanhang genom korrelation med andra sensoravläsningar, sensordatahistoriker och lagrade data, samt genom att sammanjämka med kartor och prognosmodeller. I det här dokumentet använder vi ett program för planering av räddningsinsatser vid översvämningar för att identifiera krav på ett semantiskt sensornät. Vi föreslår en generisk tjänstearkitektur för att uppfylla de krav som använder semantiska kommentarer för att stödja välinformerade interaktioner mellan tjänsterna. Vi presenterar SemSorGrid4Env förverkligandet av arkitekturen och illustrerar dess möjligheter i samband med exempelapplikationen. | SemSorGrid4Env REF tillämpar den för planering av räddningsinsatser vid översvämningar. | 1,667,006 | A Semantically Enabled Service Architecture for Mashups over Streaming and Stored Data | {'venue': 'ESWC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,637 |
Programvara radios båge cmcrging som plattformar för multiband multimode personliga kommunikationssystem. Radio etiquttc är den uppsättning RF-band, luftgränssnitt, protokoll och rumsliga och tidsmässiga mönster som modulerar användningen av radiospektrum. Kognitiv radio utökar programvaran radio med radio-domän modell-baserad rcasoning om sådana ctiquettes. Cognitivc radio ökar flexibiliteten i personliga tjänster genom ett Radio Knowlcdge representationsspråk. Detta språk representerar kunskap om radioetiketter, enheter, programvarumoduler, spridning, nctworks, användarbehov och tillämpningsscenarier på ett sätt som stöder automatiserade resonemang om användarens behov. Detta ger programvaruradion möjlighet att utföra expressivc ncgotiations bland kamrater om användningen av radiospektrum över flytande rum, tid och uscr sammanhang. Med RCRL kan cognitivc radioagenter aktivt manipulera protokoll stacken för att anpassa kända etiketter till bättre satis$ LISCT'S nccds. Detta omvandlar radionoder från blinda executors av fördefinierade protokoll till radio-domain-aware intclligent agenter som scrapy ut sätt att dclivcr de tjänster thc uscr vill även om att uscr docs inte vet hur man får dem. Softwarc radio [l] ger en idkal plattform för thc rcalization av kognitiv radio. Kognitiv radio: Making Software Radios More Personal Global System for Mobile Communications (GSM) radio's equalizer kranar reflcct kanalen multipath struktur. Ett nätverk kanske vill fråga en telefonlur: "Hur många särskiljande multipatkomponenter ser du?" Kunskap om thc inre tillstånd av equalizern kan vara användbar bcorsak i vissa mottagningsområden, thcrc kan vara liten eller ingen multipat och 20 dB av extra signal-till-noisc förhållande (SNR). Programvarans radiobearbetningskapacitet slösas bort med att köra en beräkningsmässigt intcnsive equalizer algoritm när ingen cqualizer är nödvändig. Denna bearbetningskapacitet skulle kunna avledas till bättre användning, eller en del av processorn skulle kunna läggas till sömns, vilket skulle kunna rädda batteritiden. Dessutom skulle radio och nätverk kunna gå med på att lägga databitarna i den överflödiga inbyggda utbildningen, vilket ökar nyttolastens datahastighet i enlighet med detta." Två problem uppstår. För det första har nätverket inget standardspråk att ställa en fråga om cqualizer kranar. Sccand, telefonen har svaret i tid-domänstrukturen av dess equalizer kranar, men kan inte komma åt denna information. Den har ingen beräkningsmässig beskrivning av sin egen struktur. Därför vet den inte "vad den vet". Standardiseringsorgan har gradvis gjort sådana interna data tillgängliga för nätverk genom specifika luftgränssnitt, vilket teknikens behov kräver. Denna arbetsintensiva process kräver ycars för att åstadkomma. Radio Knowledge Represcentation Language (RCRL), å andra sidan, ger en standard languagc inom vilken sådana oförutsedda datautbyten kan definieras dynamiskt. Varför kan det uppstå behov av sådana oförutsebara utbyten? Avlusning av nya programradio nedladdningar kan kräva tillgång till interna mjukvaruparametrar. Skapa personliga tjänster som skiljer en tjänsteleverantör från en annan kan förbättras om leverantören inte behöver exponera nya idéer för konkurrensen i standardiseringsprocessen. Och tiden att använda dessa personliga tjänster kan minskas. Kognitiv radio, genom RCRL, vet att den naturliga lan- guage fras equalizer kranar hänvisar till specifika parametrar för en avlyssnad delay-line struktur. Denna struktur kan implementeras i en applikationsspecifik integrerad krets (ASIC), en fältprogrammerbar grindmatris (FPGA) eller en algoritm i en programvaruradio. Eftersom en kognitiv radio har en modell av sin egen interna struktur, kan den kontrollera modellen för att ta reda på hur equalizer har genomförts. Den kan då hämta thc-registervärden från ASIC (t.ex. med hjälp av en JTAG-port) eller hitta kranarna på rätt minnesplats för dess programimplementering. En radio som känner till sin egen interna struktur i denna grad behöver inte vänta på ett konsortium, forum eller standardiseringsorgan för att definiera en nivå H33492.x7 radio som en som kan komma åt dess equalizcr kranar. Nätverket kan utgöra en sådan oförutsedd fråga i (en standard) RKRL, och vilken RKRL-kompatibel radio som helst kan svara på den. För att möjliggöra ett sådant scenario har kognitiv radio en RKRL-modell av sig själv som inkluderar equalizerns struktur och funktion, som illustreras i bild. 1................................................................ I detta exempel består radiohårdvaran av antennen, radiofrekvensen (RF) konverteringsmodulen, modemet och de andra modulerna som visas i hårdvaran delen av figuren. Basbandsprocessorn innehåller ett basband modem och en back-end kontrollprotokoll stack. Dessutom innehåller denna processor en kognitionscngine och en uppsättning beräkningsmodeller. Modellerna består av RKRL-ramar som beskriver själva radion, inklusive equalizern, inom ramen för en omfattande ontologi, även skriven i RKRL. Med hjälp av denna ontologi kan radion spåra användarens miljö över tid och rum. Kognitiv radio matchar alltså sina interna modeller till cxternal observationer för att förstå vad det innebär att pendla till och från arbetet, ta en affärsresa till Europa, åka på semester och så vidare. Tydligt, betydande minne, beräkningsresurser, och kommunikationsbandbredd behövs för kognitiv radio, så denna teknik kanske inte kan användas för somc tid. Dessutom, en collcction av cognitivc radioapparater kanske inte kräver mänsklig intervention för att utveckla sina egna protokoll. Inledningsvis kommer det att krävas insatser för att sådana radionät skall förbli stabila (eller att vi vet vem vi skall skylla på om så inte är fallet). Nätverk av sådana radioapparater är komplexa adaptiva system [ 2 ], vars studie är en cmerging disciplin som handlar om nonlincar beteende av stora samlingar av adaptiva enheter som har komplexa interaktioner. Även om det finns många tekniska utmaningar motiverar möjligheterna till förbättrad personlig service utvecklingen av kognitiv radio. Denna artikel, thcrcfore, beskriver de viktigaste tekniska idéerna bakom kognitiv radio, RKRL, och relaterad forskning vid Kungliga Tekniska Högskolan (KTH), Sverige. De tjänster förbättringar till hc som möjliggörs av kognitiv radio motiveras av en del användningsfall [3] som kräver att radion har en avancerad degrec av "undcrstand" av ämnen som illustreras i Bild. 2............................................................... Nästa generations personkommunikationssystem (PCS) kommer att veta var telefoner och trådlösa personliga digitala assistenter (PDA) befinner sig inom 125 m för rapportering av nödlägen. Lokalitetsmedveten forskning [4] skapar teknik för lokaliseringsmedvetna tjänster, t.ex. flcxihlc-katalogtjänster [SI]. Kognitiv radio ger lokal avkänning av vanliga objekt, händelser och lokal R F contcxt. Således, till exempel, en kognitiv radio kan dra slutsatsen thc radio-rcated implikationer av en begäran om en taxi till en viss adress. Den kan sedan berätta för nätverket att den planerar att flytta från sin nuvarande plats till "Grev Turgatan 16". Nätverket vet då att denna uscr (med hög sannolikhet) kommer att flytta över tre cellplatser till en fjärde inom nästa tcn minutcs. Om denna uscr är på väg mot en konfcrence center utrustad med en lokal mobiltelefon jammer, är det osannolikt att erbjuda den vanliga lasten till thc nätverket aktercr taxituren. Sådana utbyten skulle kunna minska osäkerheten om den last som erbjuds till ett bygg- och anläggningsarbete, vilket skulle kunna öka effektiviteten i användningen av radioresurser. Programradior som för närvarande är tänkta kan inte ha en sådan intelligent konversation med ett nätverk eftersom de inte har någon modellbaserad resonemangs- eller planeringsförmåga och inget språk att uttrycka dessa saker på. För provplc kan en mjukvaruradio från USA ha tillgång till RF, minne och bearbetningsresurser för drift i Sverige. Om det saknar kompatibilitet med release lcvcl G av värdtjänstleverantören, kommer det inte att fungera. En programvara radio kan inte "diskussar" sin interna struktur med nätverket att discovcr att det kan han konfigureras att acceptera en nedladdning av den nödvändiga programvara personlighet. Kognitiv radio använder dock en rik uppsättning interna modeller som är användbara för ett brett spektrum av sådana dialoger. Dessutom, rymd-timc modeller av användare, nätverk, radio resurser och tjänster personalizc och förbättra konsumentens upplevelse. Analysen av sådana usc fall gav en stor uppsättning modeller, konceptuella primitiver, och resonemang schema nödvändigt för kognitiv radio. Vilka datorspråk bör användas för att uttrycka saker och ting? Förutom naturligt språk är flera datorbaserade språk relevanta för att uttrycka radiokunskaper (tabell 1). T h c International Telecommunication Union (ITU), till exempel, antog thc Spccification and Description Language (SDL) i sina 2.100 rekommendationer. SDL uttrycker lätt radiostatsmaskiner, meddelande sequencc diagram och relaterade data ordböcker. Europeiska institutet för telekommunikationsstandarder (ETSI) antog nyligen SDL som ett normativt uttryck för radioprotokoll, så att SDL-modellering av radio fortsätter att expandera. SDL saknar emellertid primitiver för allmän ontologisk kunskap som exempelvis behövs för att resonera om en resplan. Den Unified Modcling Languagc (UML) var ett resultat av enandet av olika objektorienterade analyser, modcling, design och dclivcry metoder. Detta språk uttrycker enkelt programvaruobjekt, inklusive bifogade förfaranden (metoder), användningsfall och paketering av programvara för leverans. I princip, det kan han använda för att modellera sunt förnuft kunskap, inklusive 14 Auktoriserad licensierad användning begränsad till: KONGQING UNIVERSITET. Laddade ner den 8 april 2009 kl. 21:50 från IEEE Xplore. Begränsningar gäller. T h e ontologi pcrformative skulle kunna åberopa en befintlig ontologi eller uttrycka det lokala sammanhanget, som i detta fall. Det skulle normalt bc fmfaulted unlcss det ändrades. De andra förklaringarna är självklara, vilket är en av KQML:s starka sidor. Liksom IDL är dock KQML ett gränssnittsspråk. Även om, för cxample, man kan cxpress regler från en knowledac bas usine KOML. Man måste jag - tianslat dessa regler i en konvencent inre form (c.g., LISP eller PROLOG) i ordei till usc thcm. Dessutom thc uttryck av gencral ypatial knowlcdge, såsom den tredimensionella strukturen av adjaccnt stad kvarter, IS bettcr uttryckt i strukturerade matriser än i KQML. KQML kan användas för att skicka ändringar planer, utrymme, tid, relationer, människor - nästan vad som helst. I praktiken har det en stark prcsknce i programvarudesign och utveckling, men är svag i thc modcling av hardwarc enheter. Dessutom, även om U M L kan providc ii design ram för radioutbredning modellering, mål languagcs är sannolikt att vara C eller FORTRAN för beräkningseffektivitet för att spåra tiotusentals strålar av radiovågor. De där. Common Object Requcst Broker Architecturc (CORBA) definierar en Intcrfacc Definition Languagc (IDL) som en implementation-oberoende syntax för att beskriva objektinkapslingar. Utöver de 700 företag som ingår i Object Management Group (OMG) används IDL av Forum Software-Definited Radio (SDR) [I21 för att representera gränssnitt mellan SDR:s interna komponcnt. Eftersom detta språk är speciellt fmsignerad till dcclare incapsulations, det saknar beräkningskraft gencral språk som C eller Java. IDL utmärker sig på arkitekturc integration (t.ex. gränssnittet till en cqualizer ASIC), men inte på att uttrycka funktioner och bidrag av en komponent (t.ex. cnhancement av bit felfrekvens, BER, vid låg SNR). De hardwarc beskrivningsspråk (HDLs), främst Verilog HDL och VHDL, rcadily uttrycka den inre strukturc ASICs och personligheter FPGAs. Howcver, kognitiv radio inte nccd Lelevcl av detaljer prcsknt i de flesta HD L datamängder. Dessutom behöver det veta funktioner och coiitributions r--till sådana matriser, dock. Thc kunskapsutbyte format (KIF) ger en axiomatic ram för allmän knowlcdgc inklusive uppsättningar, rclations, time-depcndent storheter, enheter, simplc geometri, och andra domän-indcpendent conccpts. Dess huvudsakliga bidrag är stark axiomatisering. Den har en LISP-liknande struktur och, som IDL och KQML, är inte specifikt fmsignerad för internt bruk, som C eller Java. Slutligen, de flesta radiokunskaper är reprcscnted i naturligt språk. Den saknar precision, men på något sätt har ultimatc uttryckskraft, särskilt om man inkluderar grafik och multimedia i naturligt språk. Naturligt språk lider av tvetydigheter och komplexitet som för närvarande begränsar dess användning som ett formellt språk. RKRL v. 0.1 skapades för att fylla tomrum i thc uttryckskraft dator languagcs medan genomdriva en modicum av struktur på usc naturliga languagc. Chess Game RCRL ska representera domänen för informationsskruvor som använder programvaruradior för mobil anslutning. Eftersom en programvaruradio har ett val av RF-band, luftgränssnitt, dataprotokoll, och priser som ska betalas, i konkurrens med andra uscrs, så att den kan göra kompromisser, skapa planer, och omprogrammera sig själv. Även om det dokumentationspaket som är förknippat med H D L kan ge en del av denna insikt, är informationen inte i en beräkningsbart tillgänglig form. T h e Knowlcdgc Query and Manipulation Languagc (KQML), å andra sidan, var uttryckligen utformad för att underlätta utbyte av sådan knowlcdge. Baserat på performativa som tell och be, KQML uttrycker snabbt dialogrutan om equalizer kranar och multipath genom att införa en fcw nya taggar. KQML planerar att ta en taxi från informationskiosken till Grcv Turgatan 16 använder tell performativet för att berätta för thc nätverket om planen, som visas i Bild. 3............................................................... I detta exempel varnar radion också nätverket för att dess användare skriver en del e-post och därför kommer att behöva antingen en Digital European Cordless Fig. 4........................................... T h e mcso-world o f RKKL 0,1 coiisister av de 41 mikrovärldarna sunitnarizcd i bild. 5................................................................ F a c h är strukturerad enligt t o formella modeller, och beskrivs i ii kiiowlcdgc hask. Coinpctcnce kommer från thc mönster matchning och plan generation kapahilities 0 1 en kognitionscykel, mcdiatccl av rclatctl infcrcncc cngincs. RKRL inkluderar syntax och ontologiskt resonemang enligt följande. RKRI, är ett paralIcl fromc språk. hkh RKHL statcmcnt är en framsida: Iratnc cxprcsscs ii rclationship bctwccn handlc aiid kropp, i en given contcxt. Delen <modul> definierar det exakta rclationship arvegodset cxpresscd. Mandlcs bör han tänka på som iianics för saker. Om en sak innehåller andra saker, kan jag)c betraktas som ett objekt. I1 inte, det är en terminal konstant. I'ranics arch iiiterprctcd i n p;irillcl, l i k e c clls in a sprcadshcct. För cxarnplc, följande RCRL uttalande säger att Sydamerika är en del av den globala planc i den fysiska världen inodcl av thc iiiivcrsc av RCRL 0,1. Ytterligare fiamcs hävdar Europa en n d resten in i den globala planc. Siicc den globala planc är en del av univcrsc, den kan bc tanke av 21s en <l>ody>, <context> I. attribut universum, med ett värde som är en uppsättning regioner av worltl. Ilowcver, det kan också bc tänka på en s bara en lista över iianics av coontrics. "Dessa semantik (ohjcct, lista, etc.) ............................................................................................................................... Instcad, thc s e m a n t i c s är explicit tlectlarcd och codctl i RKKL med hjälp av formella beräkningsmodcls (l'able 2). För cxaniplc, ordet contirins är en vcrh från naturliga Ianguagc, uscd på ett uppenbart sätt. Men innehåller också en Cormal modell dcl'ined i thc modellens mikro-värld med hjälp av statcmcnts i tabell 3. Kont;iins, modclen, definieras i termer av en <domän> (mikrovärlden av uppsättningar), en <range>, en <test> för mcmbcrship och en <process> för att hitta inenibcrs i ett lokalt sammanhang. Den l i n t framc säger att Innehåller har en < process> callcd SctAccumulatc. Den fjärde raden säger att Innehåller är klcfincd över uppsättningar (som är en komplett micro-värld). l h c poster i <brackets> båge definieras i n thc mct;i mikro-värld. Den <test> process består av : I bit av Excel Visual Basic för tillämpningar (VBA) makrospråk som kommer att tcst ii framc med en standardbindning (modulVar är bunden till modelldelen av thc framc). Thcsc sträng modeller berättar RKRI, tolk (cmhryonic vid prcsknt) tiow att använda bitar av torsk för att konstruera program som crc;itc och nianipiilatc ot?jccls, utföra inodcl-IJWXI resonemang, och othcrwisc kontrollera tlic programvara radioplattform. Att bifoga en befintlig VUA makro till m enhet, en - information. Att tolka en KKRI, statciiiit inklutlcs intcrpreting att statcmcnt i tcrins av RKRI, radio o n t o logy aiid kunskapsbas. Således, ord, inklusive KQMI, taggar, har en mcaniig som fixeras i ett givet sammanhang (även om ett enda ord kan liavc diffcrnt betydelser i olika contcxts). RKRL omfattar således de formella modcls, knowledge hask, inlercncc ciiginc, multiple syntaxes och en radio ontology. Cxprcssion av syntax i RKRI, tillåter en att embccid knowlcdgc från externa rcprcsentatioos (espccially SDL och UML). RKKL kan nu hc fcscrihcd syntaktiskt. Instcad av attcmptiig till replac SDL, UML, IDI, o r KQML, l1KRL integiatcs dem genom modellbaserad rece | Integreringen av trådlösa transceivrar är ett stort forskningsområde på grund av lanseringen av programvarudefinierad radio (SDR) och kognitiv radio (CR) REF-lösningar. | 28,753,059 | Cognitive radio: making software radios more personal | {'venue': 'IEEE Personal Commun.', 'journal': 'IEEE Personal Commun.', 'mag_field_of_study': ['Computer Science']} | 81,638 |
Under de senaste åren, djupa neurala nätverk metoder har allmänt antagits för maskininlärning uppgifter, inklusive klassificering. De visade sig dock vara sårbara för motsträviga störningar: noggrant utformade små störningar kan orsaka felaktig klassificering av legitima bilder. Vi föreslår Defense-Gan, ett nytt ramverk som utnyttjar den uttrycksfulla förmågan hos generativa modeller för att försvara djupa neurala nätverk mot sådana attacker. Defense-Gan är utbildad för att modellera distributionen av ogenomträngliga bilder. Vid inferencetid finner den en nära utgång till en given bild som inte innehåller de kontradiktoriska förändringarna. Denna utmatning matas sedan till klassificeringsmaskinen. Vår föreslagna metod kan användas med vilken klassificeringsmodell som helst och ändrar inte klassificeringsstrukturen eller utbildningsförfarandet. Det kan också användas som ett försvar mot varje attack eftersom det inte tar kunskap om processen för att generera de kontradiktoriska exemplen. Vi visar empiriskt att Defense-Gan är konsekvent effektiv mot olika angreppsmetoder och förbättrar befintliga försvarsstrategier. Vår kod har offentliggjorts på https://github.com/kabkabm/defensegan. | Samma generator inversion teknik används i REF som ett försvar mot kontradiktoriska exempel. | 3,458,858 | Defense-GAN: Protecting Classifiers Against Adversarial Attacks Using Generative Models | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 81,639 |
Undersystemet för minne står för en betydande del av den sammanlagda energibudgeten för moderna inbyggda system. Dessutom finns det en stor potential för att optimera energiförbrukningen i minnesdelsystemet. Följaktligen utformas såväl nya minnen som nya algoritmer för deras effektiva användning. Skrappads är kända för att prestera bättre än cache när det gäller kraft, prestanda, område och förutsägbarhet. Till skillnad från caches de är beroende av programvara allokering tekniker för deras utnyttjande. I det här dokumentet presenterar vi en allokeringsteknik som analyserar applikationen och infogar instruktioner för att dynamiskt kopiera både kodsegment och variabler på repasatsen vid körning. Vi visar att problemet med dynamiskt overlaying scrappad är en förlängning av problemet Global Register Allocation. Problemet med överlägg löses optimalt med hjälp av ILP-formuleringstekniker. Vår strategi förbättrar den enda tidigare kända allokeringstekniken för att statiskt fördela både variabler och kodsegment på repet. Experimenten visar en genomsnittlig minskning med 34 % respektive 18 % av energiförbrukningen respektive drifttiden för tillämpningarna. En minimal ökning av kodstorleken rapporteras också. Flera forskare [10, 14] har identifierat minnesdelsystemet som energiflaskan i hela systemet. Minneshierarkier byggs för att minska minnesundersystemets energiavledning. Caches och scrappad minnen representerar två kontrasterande minnesarkitekturer. Caches förbättrar prestandan genom att utnyttja den tidsmässiga och rumsliga lokalitet som finns i programmet. Men för inbyggda system, overheads i samband med caches ofta förneka sina fördelar. Dessutom är kackerlackor ökända för sitt oförutsägbara beteende [9]. Å andra sidan består ett scratchpad-minne (SPM) av bara ett minnessystem och en adressavkodningskrets. På grund av frånvaron av taggminnet och jämförelsen, crappad minnen kräver mycket mindre energi per tillgång än en cache. Dessutom kräver de mindre onchip område och tillåter strängare gränser på WCET förutsägelse av systemet. De kräver dock komplexa programanalyser och explicit stöd från kompilatorn. Tidigare arbete med SPM-användning har främst fokuserat på statisk fördelning av SPM. Till skillnad från en cache som anpassar sitt innehåll efter programmets beteende ändrar inte en statiskt tilldelad SPM sitt innehåll under programmets gångtid. Den statiska tilldelningstekniken kan leda till underutnyttjande av SPM. Följaktligen presenterar vi ett profilbaserat tillvägagångssätt som på grundval av live-intervall för både variabler och kodsegment fyller på SPM:s innehåll. Tekniken identifierar punkterna i programmet för att infoga instruktioner för att kopiera innehållet på och utanför SPM. Poängen väljs optimalt för att orsaka de minsta overhead. Tekniken beräknar också adresser inom SPM-adressområdet där variabler och kodsegment ska kopieras. Dessa adresser är beräknade så att ett stort antal variabler och kodsegment delar samma SPM-utrymme. Resten av pappret är uppbyggt på följande sätt: Efter presentationen av relaterat arbete beskrivs algoritmen för att lösa problemet med scrappad overlay i avsnitt 3. Detta följs av en presentation av det experimentella arbetsflödet. En diskussion om de experimentella resultaten presenteras i avsnitt 5. Dokumentet avslutas med en avslutning och ett framtida arbete. | Verma m.fl. REF presenterar en tilldelningsteknik för att infoga instruktioner som dynamiskt kopierar kodsegment och variabler på SPM. | 158,335 | Dynamic overlay of scratchpad memory for energy minimization | {'venue': "CODES+ISSS '04", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,640 |
Vi introducerar en ny språklig representationsmodell kallad BERT, som står för dubbelriktade Encoder Representationer från Transformers. Till skillnad från senaste språk representation modeller (Peters et al., 2018; Radford et al., 2018), BERT är utformad för att pre-training djupa dubbelriktade representationer genom att gemensamt konditionering på både vänster och höger sammanhang i alla lager. Som ett resultat, kan de förtränade BERT representationer finjusteras med bara ett ytterligare utdatalager för att skapa state-of-theart modeller för ett brett spektrum av uppgifter, såsom frågesvar och språk inference, utan betydande uppgiftsspecifika arkitekturändringar. BERT är konceptuellt enkelt och empiriskt kraftfullt. Det får nya state-of-the-art resultat på elva naturliga språk bearbetningsuppgifter, inklusive att driva GLUE-riktmärket till 80,4 % (7,6 % absolut förbättring), MultiNLI noggrannhet till 86,7 % (5,6 % absolut förbättring) och SQuAD v1.1 frågesvar Test F1 till 93,2 (1,5 absolut förbättring), presterande mänskliga prestanda med 2,0. | Speciellt, BERT föreslås av Devlin et al. visar en betydande inverkan REF, som lär sig de djupa dubbelriktade representationerna genom att gemensamt konditionering på både vänster och höger bakgrund i utbildningsförfarandet. | 52,967,399 | BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 81,641 |
Att fånga de osäkra aspekterna inom cybersäkerhet är viktigt för säkerhetsanalyser i företagsnätverk. Det har dock inte gjorts tillräckliga ansträngningar för att studera vilka modelleringsmetoder som på ett korrekt sätt fångar upp sådan osäkerhet och hur man konstruerar modellerna för att göra dem användbara i praktiken. I detta dokument presenterar vi vårt arbete med att motivera osäkerhetsmodellering för it-säkerhet, och en första rapport visar att det är ett användbart tillvägagångssätt. Vårt arbete är centrerat runt nära realtid säkerhetsanalys såsom intrång svar. Vi måste få veta vad som verkligen händer, omfattningen och svårighetsgraden, möjliga konsekvenser och eventuella motåtgärder. Vi rapporterar våra nuvarande insatser för att identifiera de viktiga typerna av osäkerhet och för att använda Bayesian nätverk för att fånga dem för förbättrad säkerhetsanalys. Vi bygger ett exempel Bayesian nätverk baserat på en aktuell säkerhetsgraf modell, motivera vår mod eling strategi genom attack semantik och experimentell studie, och visa att den resulterande Bayesian nätverk är inte känslig för parameter perturbation. | Det är Bayesian Network. Bayesian nätverk har använts i ett antal studier för cybersäkerhet försvar. Ref presenterade en BN-modelleringsmetod som modellerade tre osäkerhetstyper i säkerhetsanalysprocessen. | 16,120,682 | Using Bayesian networks for cyber security analysis | {'venue': '2010 IEEE/IFIP International Conference on Dependable Systems & Networks (DSN)', 'journal': '2010 IEEE/IFIP International Conference on Dependable Systems & Networks (DSN)', 'mag_field_of_study': ['Computer Science']} | 81,642 |
Detta dokument handlar om randomiserade ledarval i synkrona distribuerade nätverk. En distribuerad ledare valalgoritm presenteras för kompletta n-node nätverk som körs i O(1) rundor och (med hög sannolikhet) använder endast O( ε n log 3/2 n) meddelanden för att välja en unik ledare (med hög sannolikhet). När vi överväger "explicit" varianten av ledarval där så småningom varje nod känner till ledarens identitet, ger vår algoritm de asymptotiskt optimala gränserna för O(1) rundor och O(n) meddelanden. Denna algoritm utvidgas sedan till att omfatta ett val av ledare på alla anslutna icke-bipartite n-node graf G i O(τ (G) tid och O(τ (G) ε n log 3/2 n) meddelanden, där τ (G) är blandningstiden för en slumpmässig gång på G. Ovanstående resultat innebär mycket effektiv (sublinjär körtid och meddelanden) ledare valalgoritmer för nätverk med små blandningstider, såsom expanderare och hyperkuber. Däremot hade tidigare ledare valalgoritmer åtminstone linjära budskap komplexitet även i kompletta grafer. Dessutom är superlinjära budskap lägre gränser kända för tidseffektiva deterministiska ledare valalgoritmer. Slutligen presenterar vi en nästan matchande lägre gräns för det randomiserade valet av ledare, vilket visar att det behövs meddelanden för alla ledare valalgoritmer som med sannolikhet lyckas minst 1/e + ε, för alla små konstant ε > 0. Vi ser våra resultat som ett steg mot att förstå den randomiserade komplexiteten i ledarval i distribuerade nätverk. | I REF, Pandurangan et al. presenterade slumpmässig ledare valalgoritm i synkrona distribuerade nätverk. | 14,276,132 | Sublinear Bounds for Randomized Leader Election | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 81,643 |
I detta dokument presenteras uppgiftsdefinitionen, resurser, deltagande system och jämförande resultat för den gemensamma uppgiften om ordanpassning, som organiserades som en del av ACL 2005 Workshop on Building and Using Parallel Texts. Den gemensamma uppgiften omfattade Engelska-Inuktitut, Rumänska-Engelska, och Engelsk-Hindi sub-tasks, och drog deltagande av tio lag från hela världen med totalt 50 system. Uppgiften med ordanpassning består i att hitta korrespondenser mellan ord och fraser i parallella texter. Om man antar att en mening ligger i linje med en tvåspråkig corpus på språken L1 och L2, är uppgiften för ett orduppställningssystem att ange vilket ord i språk L1 som motsvarar vilket ord i språk L2 som används. Årets gemensamma uppgift följer på framgången med det tidigare ordet anpassning utvärdering som organiserades under HLT/NAACL 2003 workshop om "Bygga och använda parallella texter: Data Driven Machine Translation and Beyond" (Mihalcea och Pedersen, 2003). Den nuvarande utgåvan är dock tydlig eftersom den har fokus på språk med knappa resurser. De deltagande grupperna fick tränings- och testdata för tre språkpar, som svarade för olika nivåer av databrist: (1) Engelsk-Inuktitut (2 miljoner ord utbildningsdata), (2) Rumänsk-Engelsk (1 miljon ord) och (3) Engelsk-Hindi (60.000 ord). I likhet med den tidigare utvärderingen av ordanpassning och med de utvärderingar av maskinöversättningar som NIST anordnade definierades två olika deluppgifter: (1) Begränsade resurser, där systemen endast tilläts använda de resurser som tillhandahölls. (2) Obegränsade resurser, där systemen tilläts använda alla resurser utöver de som tillhandahölls. Sådana resurser måste uttryckligen nämnas i beskrivningen av systemet. Testdata släpptes en vecka före tidsfristen för inlämning av resultat. De deltagande lagen ombads att producera ordanpassningar, efter ett gemensamt format som anges nedan, och lämna in sin utdata inom en viss tidsfrist. Resultaten returnerades till varje lag inom tre dagar efter inlämnandet. | En delad uppgift om ordanpassning organiserades som en del av ACL 2005 Workshop on Building and Using Parallel Texts REF. | 15,166,874 | Word Alignment For Languages With Scarce Resources | {'venue': 'Workshop On Building And Using Parallel Texts', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,644 |
Abstrakt. Vi presenterar nya tekniker för att uppnå adaptiv säkerhet i programkrypteringssystem. Tidigare arbete med helt kollusionsresistenta sändningskrypteringssystem med mycket korta chiffertexter begränsades till att endast beakta statisk säkerhet. För det första lägger vi fram en ny definition av säkerhet som vi kallar semistatisk säkerhet och visar en generisk "två-nyckel" omvandling från semistatiskt säkra system till adaptivt säkra system som har jämförbar storlek chiffertexts. Med hjälp av tvåradiga kartor bygger vi sedan utsändningskrypteringssystem som är semistatiskt säkra i standardmodellen och har konstant storlek på chiffertexterna. Våra halvstatiska konstruktioner fungerar när antalet index eller identifierare i systemet är polynom i säkerhetsparametern. För identitetsbaserad sändningskryptering, där antalet potentiella index eller identifierare kan vara exponentiellt, presenterar vi det första adaptivt säkra systemet med sublinjära chiffertexter. Vi bevisar säkerheten i standardmodellen. | Adaptive security föreslogs först av REF där de gav flera system för att uppnå adaptiv CPA-säkerhet, bland annat två program för kryptering av sändningar och två system för identitetsbaserad sändningskryptering (IBBE), varav ett var och en uppnådde konstanta chiffertexter i den slumpmässiga oraklemodellen. | 9,691,984 | Adaptive Security in Broadcast Encryption Systems (with Short Ciphertexts) | {'venue': 'EUROCRYPT', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,645 |
Att utveckla ett system för att underlätta hämtning av radiologiska bilder som innehåller liknande framträdande lesioner och för att utföra en preliminär utvärdering av detta system med en databas över datoriserade tomografiska (CT) bilder av levern och en extern standard för bildlikviditet. Institutionell granskningsnämndens godkännande erhölls för retrospektiv analys av patientbilder. Därefter valdes 30 portal venösa fas CT bilder av levern som uppvisar en av tre typer av leverlesioner (13 cystor, sju hemangiom, 10 metastaser). En radiolog använde en kontrollerad lexikon och ett verktyg utvecklat för fullständig och standardiserad beskrivning av lesioner för att identifiera och kommentera varje lesion med semantiska egenskaper. Dessutom denna programvara automatiskt beräkna bild funktioner på grundval av bildstruktur och gräns skärpa. Semantiska och datorgenererade funktioner viktades och kombinerades till en vektor som representerade varje bild. En oberoende referensstandard skapades för parvis bildlikhet. Detta användes i en leaveone-out korsvalidering för att träna vikter som optimerade rankingen av bilder i databasen i termer av likhet med frågebilder. Prestanda utvärderades med hjälp av precisionsrecall kurvor och normaliserad diskonterad kumulativ vinst (NDCG), en vanlig åtgärd för nyttan av informationshämtning. När de används individuellt, grupper av semantiska, textur och gräns funktioner resulterade i olika nivåer av prestanda i att hämta relevanta lesioner. Att kombinera alla funktioner gav dock de bästa övergripande resultaten. Genomsnittlig precision var större än 90% vid alla värden för återkallande, och genomsnittlig, bäst, och värsta fall hämtning noggrannhet var större än 95%, 100%, respektive större än 78%, med NDCG. Preliminär bedömning av detta tillvägagångssätt visar utmärkta hämtningsresultat för tre typer av leverlesioner synliga på portal venösa CT-bilder, vilket motiverar fortsatt utveckling och validering i en större och mer omfattande databas. q RSNA, 2010 | På samma sätt, CBIR för CT-bilder av tre typer av leverlesioner undersöktes genom att införliva semantiska funktioner som observerats av radiolog samt funktioner som beräknas extraheras från bilderna REF. | 44,667,721 | Automated retrieval of CT images of liver lesions on the basis of image similarity: method and preliminary results. | {'venue': 'Radiology', 'journal': 'Radiology', 'mag_field_of_study': ['Medicine']} | 81,646 |
Abstract-Även om multi-Label lärande kan hantera många problem med märkning tvetydighet, det passar inte vissa verkliga tillämpningar väl där den övergripande fördelningen av betydelsen av etiketterna frågor. I detta dokument föreslås ett nytt inlärningsparadigm med namnet "Label Distribution learning" (LDL) för sådana tillämpningar. Etikettdistributionen omfattar ett visst antal etiketter, som representerar i vilken utsträckning varje etikett beskriver fallet. LDL är en mer allmän inlärningsram som omfattar både en- och flermärkt inlärning som specialfall. I detta dokument föreslås sex fungerande LDL-algoritmer på tre sätt: problemtransformering, algoritmanpassning och specialiserad algoritmdesign. För att jämföra LDL-algoritmernas prestanda väljs sex representativa och olika utvärderingsåtgärder ut genom en klusteranalys, och den första uppsättningen märkningsdata samlas in och görs allmänt tillgängliga. Experimentella resultat på en konstgjord och 15 verkliga datauppsättningar visar tydliga fördelar med de specialiserade algoritmerna, vilket indikerar vikten av särskild design för egenskaperna hos LDL-problemet. | LDL REF ) är ett nytt inlärningsparadigm, som märker en instans med en etikett distribution och lär sig en kartläggning från instans till etikett distribution rakt. | 1,442,493 | Label Distribution Learning | {'venue': 'IEEE Transactions on Knowledge and Data Engineering', 'journal': 'IEEE Transactions on Knowledge and Data Engineering', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 81,647 |
Förhållandet mellan arbetsprodukterna i en säkerhetsteknikprocess kan vara svårt att förstå, även för personer med stark teknisk bakgrund men lite kunskap om säkerhetsteknik. Marknadskrafter driver mjukvaruutövare som inte är säkerhetsspecialister att utveckla programvara som kräver säkerhetsfunktioner. När dessa utövare utvecklar mjukvarulösningar utan lämpliga säkerhetsspecifika processer och modeller, misslyckas de ibland med att ta fram effektiva lösningar. Vi har anpassat en beprövad objektorienterad modelleringsteknik, användningsfall, för att fånga och analysera säkerhetskrav på ett enkelt sätt. Vi kallar anpassningen för en missbruksmodell. Förhållandet till andra säkerhetstekniska arbetsprodukter är relativt enkelt ur ett användarperspektiv. | McDermott och Fox anpassar användningsfall REF för att fånga och analysera säkerhetskrav, och de kallar anpassningen en missbruksfallsmodell. | 206,580,824 | Using abuse case models for security requirements analysis | {'venue': "Proceedings 15th Annual Computer Security Applications Conference (ACSAC'99)", 'journal': "Proceedings 15th Annual Computer Security Applications Conference (ACSAC'99)", 'mag_field_of_study': ['Computer Science']} | 81,648 |
Trianglar är de mest grundläggande icke-triviala subgrafer. Triangeln räknar används i ett antal olika applikationer, inklusive sociala nätverk gruvdrift, it-säkerhet, och spam upptäckt. I allmänhet är triangelräkningsalgoritmer lätt att parallellisera, men när de genomförs i distribuerat, delat minne, deras prestanda är dålig på grund av hög kommunikation, obalans i arbetet, och svårigheten att utnyttja lokalitet som finns i delat minne. I den här artikeln diskuterar vi fyra olika (men relaterade) triangelräkningsalgoritmer och hur deras prestanda kan förbättras i distribuerad, delad minne genom att minska in-node belastning obalans, förbättra cacheutnyttjande, minimera nätverket overhead, och minimera algoritmiskt arbete. Vi generaliserar de fyra olika triangelräkningsalgoritmer i ett gemensamt ramverk och visar att för alla fyra algoritmer in-node belastning obalans kan minimeras samtidigt som caches genom att partitionera arbete i block av hörn, kan nätverket overhead minimeras genom aggregering av block av arbete, och algoritm arbete kan minskas genom partitionering vertex grannar efter grad. Vi utvärderar experimentellt de svaga och den starka skalprestandan hos de föreslagna algoritmerna med två typer av syntetiska grafingångar och tre verkliga grafingångar. Vi jämför också prestandan av våra implementationer med de distribuerade, delade triangelräkningsalgoritmer som finns i PowerGraph-GraphLab och visar att våra föreslagna algoritmer överträffar dessa algoritmer, både när det gäller rum och tid. | Kanewala m.fl. REF beskriver en distribuerad algoritm med delat minne till triangelräkning. | 49,293,300 | Distributed, Shared-Memory Parallel Triangle Counting | {'venue': "PASC '18", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,649 |
Bloggning blir ett populärt sätt för en webbanvändare att publicera information på webben. Bloggare skriver blogginlägg, delar med sig av vad de tycker och ogillar, uttrycker sina åsikter, ger förslag, rapporterar nyheter och bildar grupper i Blogosphere. Bloggare bildar sina virtuella samhällen av liknande intressen. Aktiviteterna i Blogosfären påverkar den yttre världen. Ett sätt att förstå utvecklingen på Blogosphere är att hitta inflytelserika bloggsidor. Det finns många icke-influentiella bloggsajter som utgör "den långa svansen". Oavsett om en bloggsajt är inflytelserik eller inte, finns det inflytelserika bloggare. Inspirerad av de stora effekterna av de inflytelserika i ett fysiskt samhälle studerar vi ett nytt problem med att identifiera inflytelserika bloggare på en bloggsajt. Aktiva bloggare är inte nödvändigtvis inflytelserika. Inflytande bloggare kan påverka andra bloggare på olika sätt. I den här artikeln diskuterar vi utmaningarna med att identifiera inflytelserika bloggare, undersöka vad som utgör inflytelserika bloggare, presentera en preliminär modell som försöker kvantifiera en inflytelserik bloggare och bana väg för att bygga en robust modell som gör det möjligt att hitta olika typer av inflytelserika. För att illustrera dessa frågor genomför vi experiment med data från en riktig bloggsajt, utvärderar flera aspekter av problemet med att identifiera inflytelserika bloggare och diskuterar unika utmaningar. Vi avslutar med intressanta resultat och framtida arbete. | Agarwal m.fl. REF har undersökt problemet med att identifiera inflytelserika bloggare på bloggosfären. | 8,180,987 | Identifying the influential bloggers in a community | {'venue': "WSDM '08", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,650 |
Abstrakt. Nyligen började vi uppleva en övergång från fysiska samhällen till virtuella samhällen, vilket leder till missade sociala möjligheter i vår dagliga rutin. Vi känner till exempel inte till grannar med gemensamma intressen eller händelser i närheten. Mobila tillämpningar för social databehandling lovar att förbättra den sociala konnektiviteten i fysiska samhällen genom att utnyttja information om människor, sociala relationer och platser. Denna artikel presenterar MobiSoC, ett mellanprogram som möjliggör MSCA-utveckling och ger en gemensam plattform för att fånga, hantera och dela det sociala tillståndet i fysiska samhällen. Dessutom innehåller det algoritmer som upptäcker tidigare okända framväxande geo-sociala mönster för att förstärka detta tillstånd. För att visa MobiSoC:s genomförbarhet implementerade och testade vi på smarta telefoner två MSCA för platsbaserad mobil social matchning och platsbaserat ad hoc-socialt samarbete. Experimentella resultat visade att MobiSoC kan ge bra svarstid för 1000 användare. Vi visade också att ett adaptivt lokaliseringssystem och noggrant valda kryptografiska metoder avsevärt kan minska resursförbrukningen i samband med lokaliseringsmotorn och säkerheten på smarta telefoner. En användarstudie av den mobila sociala matchningsapplikationen visade att geosociala mönster kan fördubbla kvaliteten på sociala matchningar och att människor är villiga att dela sin plats med MobiSoC för att dra nytta av MSCA. | Mobisoc REF är en annan middleware plattform som syftar till att övervaka, hantera och dela den sociala organisationen av fysiska mobila samhällen. | 16,040,325 | MobiSoC: A Middleware for Mobile Social Computing Applications | {'venue': None, 'journal': 'Mobile Networks and Applications', 'mag_field_of_study': ['Computer Science']} | 81,651 |
Inspirerad av online annons allokering, studerar vi online stokastiska förpackning linjära program från teoretiska och praktiska ståndpunkter. Vi presenterar först en nästan optimal online-algoritm för en allmän klass av förpackning linjära program som modellerar olika online resursfördelningsproblem inklusive online-varianter av routing, annonstilldelningar, generaliserade uppdrag, och kombinatoriska auktioner. Som vårt huvudsakliga teoretiska resultat, bevisar vi att en enkel primal-dual träningsbaserad algoritm uppnår en (1 − o(1))-approximation garanti i slumpmässig ordning stokastisk modell. Detta är en signifikant förbättring jämfört med logaritmiska eller konstanta approximationer för de kontradiktoriska varianterna av samma problem (t.ex. faktor 1 – 1 e för annonstilldelning online, och log(m) för online routing). Vi fokuserar sedan på online-display ad allocation problem och studera effektiviteten och rättvisan i olika utbildningsbaserade och online tilldelningsalgoritmer på datamängder som samlats in från verkliga display ad allocation system. Vår experimentella utvärdering bekräftar effektiviteten hos utbildningsbaserade primal-dual algoritmer på verkliga datauppsättningar, och indikerar också en inneboende kompromiss mellan rättvisa och effektivitet. | REF presenterar teoretiska studier för att utforma annonsalgoritmer online för att uppnå både effektivitet och rättvisa. | 11,077,893 | Online Stochastic Packing Applied to Display Ad Allocation | {'venue': 'ESA', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 81,652 |
Abstract-Motivated by the power-grid-side utmaningar i integrationen av elfordon, föreslår vi ett decentraliserat protokoll för förhandlingar dag-för-laddning scheman för elfordon. Det övergripande målet är att flytta lasten på grund av elfordon för att fylla den dagliga elefterfrågan dalen. I varje iteration av det föreslagna protokollet, elfordon välja sina egna laddningsprofiler för nästa dag enligt prisprofil som sänds av verktyget, och nyttouppdateringar prisprofilen för att vägleda deras beteende. Detta protokoll är garanterat konvergerande, oberoende av specifikationerna (t.ex. maximal laddningsgrad och tidsfrist) för elfordon. Vid konvergens minimeras den aggregerade efterfrågans l2-norm, och den aggregerade efterfrågeprofilen är så "platt" som möjligt. Det föreslagna protokollet behöver ingen samordning mellan elfordonen, vilket kräver låg kommunikations- och beräkningskapacitet. Simuleringsresultat visar på konvergens till optimal insamling av laddningsprofiler inom några få iterationer. | Författarna till REF föreslår ett decentraliserat protokoll för att förhandla fram priser och tidtabeller för laddning av elfordon för hushållsbruk mellan elfordonsägarna och elfordonsföretaget, för att flytta laddningslasten för att fylla efterfrågedalen över natten. | 6,508,846 | Optimal decentralized protocol for electric vehicle charging | {'venue': 'IEEE Conference on Decision and Control and European Control Conference', 'journal': 'IEEE Conference on Decision and Control and European Control Conference', 'mag_field_of_study': ['Computer Science']} | 81,653 |
Likvärdighetssökning är en viktig funktion i många tillämpningar, som oftast fokuserar på att mäta likheten mellan objekt med samma typ. I många scenarier måste vi dock mäta relationen mellan objekt med olika typer. Med den kraftiga ökningen av studier på heterogena nätverk blir relevansmåttet på objekt med olika typer allt viktigare. I detta dokument studerar vi problem med relevanssökning i heterogena nätverk, där uppgiften är att mäta relationen mellan heterogena objekt (inklusive objekt med samma typ eller olika typer). En ny åtgärd HeteSim föreslås, som har följande attribut: (1) en enhetlig åtgärd: den kan mäta objekts överensstämmelse med samma eller olika typer i en enhetlig ram; (2) en väg-konstruerad åtgärd: relationen mellan objektpar definieras baserat på sökvägen som förbinder två objekt genom att följa en sekvens av nodtyper; (3) en semi-metrisk åtgärd: HeteSim har några goda egenskaper (t.ex. självmaximal och symmetrisk), som är avgörande för många data mining uppgifter. Dessutom analyserar vi beräkningsegenskaperna hos HeteSim och föreslår motsvarande snabba beräkningsstrategier. Empiriska studier visar att HeteSim effektivt och effektivt kan utvärdera relationen mellan heterogena objekt. | Shi och Al. I REF utvidgades likhetsåtgärden för HIN-koder till att omfatta den relevanta åtgärd som kan användas för att utvärdera relevansen hos två objekt med olika typsnitt. | 3,488,610 | HeteSim: A General Framework for Relevance Measure in Heterogeneous Networks | {'venue': 'IEEE Transactions on Knowledge and Data Engineering', 'journal': 'IEEE Transactions on Knowledge and Data Engineering', 'mag_field_of_study': ['Computer Science']} | 81,654 |
Flermärkt bildklassificering är en grundläggande men utmanande uppgift i datorseendet. Stora framsteg har gjorts genom att utnyttja semantiska förbindelser mellan etiketter under de senaste åren. De konventionella metoderna kan dock inte modellera de underliggande rumsliga sambanden mellan etiketter i flermärkta bilder, eftersom det i allmänhet inte finns några rumsliga kommentarer på etiketterna. I detta dokument föreslår vi ett enhetligt djupt neuralt nätverk som utnyttjar både semantiska och rumsliga relationer mellan etiketter med endast övervakning på bildnivå. Med tanke på en multi-etikett bild, vårt föreslagna rumsliga Regularization Network (SRN) genererar uppmärksamhet kartor för alla etiketter och fångar de underliggande förbindelserna mellan dem via lärbara konvolutioner. Genom att aggregera de regulariserade klassificeringsresultaten med originalresultat från ett ResNet-101-nätverk kan klassificeringsprestandan konsekvent förbättras. Hela det djupa neurala nätverket tränas end-to-end med endast bild-nivå annoteringar, vilket kräver inga ytterligare insatser på bild annoteringar. Omfattande utvärderingar av 3 offentliga datauppsättningar med olika typer av etiketter visar att vårt tillvägagångssätt avsevärt överträffar state-of-the-arts och har stark generaliseringsförmåga. Analys av den lärda SRN-modellen visar att den effektivt kan fånga både semantiska och rumsliga relationer mellan etiketter för att förbättra klassificeringsprestandan. | Zhu m.fl. REF föreslår vidare ett rumsligt legaliseringsnät för att fånga upp både rumsliga och semantiska relationer. | 15,015,158 | Learning Spatial Regularization with Image-Level Supervisions for Multi-label Image Classification | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 81,655 |
Visuella signaler i en video kan delas in i innehåll och rörelse. Medan innehållet anger vilka objekt som finns i videon, beskriver rörelse deras dynamik. Baserat på detta tidigare föreslår vi ramverket Motion and Content decomposed Generative Adversarial Network (MoCoGAN) för videogenerering. Det föreslagna ramverket genererar en video genom att kartlägga en sekvens av slumpmässiga vektorer till en sekvens av videoramar. Varje slumpmässig vektor består av en innehållsdel och en rörelsedel. Medan innehållet är fast, den rörelse delen realiseras som en stokastisk process. För att lära sig rörelse och innehållsnedbrytning på ett oövervakat sätt introducerar vi ett nytt kontradiktoriskt inlärningsprogram som utnyttjar både bild- och videodiskriminatorer. Omfattande experimentella resultat på flera utmanande datauppsättningar med kvalitativ och kvantitativ jämförelse med de senaste metoderna, verifiera effektiviteten i det föreslagna ramverket. Dessutom visar vi att MoCoGAN tillåter en att generera videor med samma innehåll men olika rörelse samt videor med olika innehåll och samma rörelse. Vår kod finns på https://github.com/sergeytulyakov/mocogan. | I REF, Sergery et al. föreslog Mocogan-ramverket för videogenerering. | 4,475,365 | MoCoGAN: Decomposing Motion and Content for Video Generation | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 81,656 |
En modulär-specialiserad etikettutbredningsalgoritm (LPAm) för att upptäcka nätverksgemenskaper föreslogs nyligen. Denna lovande algoritm erbjuder några önskvärda egenskaper. Men LPAm föredrar gemenskap uppdelningar där alla samhällen är lika i total grad och därmed är det benägna att fastna i fattiga lokala maxima i modularitetsutrymmet. För att fly lokala maxima, använder vi en multisteg girig agglomerativ algoritm (MSG) som kan slå samman flera par av samhällen åt gången. Genom att kombinera LPAm och MSG föreslår vi en avancerad modulär-specialiserad etikettutbredningsalgoritm (LPAm+). Experiment visar att LPAm+ framgångsrikt upptäcker samhällen med högre modularitetsvärden än vad som någonsin rapporterats i två vanliga realtidsnätverk. Dessutom erbjuder LPAm+ en rättvis kompromiss mellan noggrannhet och hastighet. | Därefter föreslås en avancerad modulär-specialiserad etikettutbredning (LPAm+) REF. | 118,522,282 | Advanced modularity-specialized label propagation algorithm for detecting communities in networks | {'venue': 'Physica A: Statistical Mechanics and its Applications, Volume 389, Issue 7, 1 April 2010, Pages 1493-150', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Physics']} | 81,657 |
Abstract-Topology kontroll i ett sensornätverk balanserar belastningen på sensornoder och ökar nätverkets skalbarhet och livslängd. Klustersensorn noder är en effektiv topologi kontroll metod. I detta dokument föreslår vi en ny distribuerad klusterstrategi för långlivade ad hoc-sensornätverk. Vårt föreslagna tillvägagångssätt gör inga antaganden om förekomsten av infrastruktur eller om nodkapacitet, förutom tillgängligheten av flera effektnivåer i sensornoder. Vi presenterar ett protokoll, HEED (Hybrid Energy-Efficient Distribuated clustering), som periodiskt väljer klusterhuvuden enligt en hybrid av noden restenergi och en sekundär parameter, såsom nod närhet till sina grannar eller nod grad. HEED avslutas i Oð1 ska iterationer, ådrar sig låga budskap overhead, och uppnår ganska enhetlig kluster huvud distribution över nätverket. Vi bevisar att, med lämpliga gränser på nodtäthet och intrakluster och intercluster överföringsintervall, kan HEED asymptotiskt säkert garantera anslutning av klustererade nätverk. Simuleringsresultat visar att vårt föreslagna tillvägagångssätt är effektivt för att förlänga nätverkets livslängd och stödja skalbar dataaggregation. | År 2004, Ossama m.fl. REF föreslog ett HEED-protokoll, som valde klusterhuvuden med jämna mellanrum enligt nodrestenergin. | 2,012,679 | HEED: a hybrid, energy-efficient, distributed clustering approach for ad hoc sensor networks | {'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']} | 81,658 |
Säker och tillförlitlig gruppkommunikation är ett aktivt forskningsområde. Dess popularitet drivs av den växande betydelsen av grupporienterade och samverkande applikationer. Den centrala forskningsutmaningen är en säker och effektiv gruppnyckelhantering. Även om centraliserade metoder ofta är lämpliga för nyckeldistribution i stora multicast-liknande grupper, kräver många samarbetsgruppers inställningar distribuerade nyckelavtalstekniker. Detta arbete undersöker en ny grupp nyckelöverenskommelse metod som blandar viktiga träd med Diffie-Hellman nyckelutbyte. Det ger en säker protokollsvit som kallas Tree-baserad grupp Diffie-Hellman (TGDH) som är både enkel och feltolerant. Dessutom överträffar TGDH:s effektivitet avsevärt tidigare konst. | I en annan studie REF presenterade författarna en grupp nyckelavtal protokoll suite baserat på att blanda binära nyckelträd med Diffie-Hellman nyckelutbyte. | 13,187,206 | Tree-based group key agreement | {'venue': 'TSEC', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 81,659 |
ABSTRACT För problem med att schemalägga uppgifter i molndata föreslås här en multiobjektiv optimeringsmetod. För det första föreslår vi i syfte att uppnå biologisk mångfald i resurser och uppgifter inom datormolnet en resurskostnadsmodell som definierar behovet av uppgifter på resurser med mer detaljer. Denna modell återspeglar sambandet mellan användarens resurskostnader och budgetkostnaderna. En multi-objektiv optimering schemaläggningsmetod har föreslagits baserat på denna resurskostnadsmodell. Denna metod tar hänsyn till makespan och användarens budgetkostnader som begränsningar i optimeringsproblemet, för att uppnå multiobjektiv optimering av både prestanda och kostnad. En förbättrad myrkolonialgoritm har föreslagits för att lösa detta problem. Två begränsningsfunktioner användes för att utvärdera och ge återkoppling om prestanda och budgetkostnad. Dessa två begränsningsfunktioner gjorde att algoritmen justerade lösningens kvalitet i rätt tid baserat på feedback för att uppnå den optimala lösningen. Vissa simuleringsförsök utformades för att utvärdera denna metods prestanda med hjälp av fyra mätvärden: 1) makespan; 2) kostnad; 3) deadline krångelsfrekvens; och 4) resursutnyttjande. Experimentella resultat visar att baserat på dessa fyra mätvärden är en multiobjektiv optimeringsmetod bättre än andra liknande metoder, särskilt som den ökade med 56,6% i bästa fall. | Zuo m.fl. REF lade fram metoden Multi-objektive Optimization Scheduling baserat på resurskostnadsmodell och Ant kolonialgoritm för att minimera makespan, kostnad, deadline krångel hastighet och resursutnyttjande. | 3,632,816 | A Multi-Objective Optimization Scheduling Method Based on the Ant Colony Algorithm in Cloud Computing | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 81,660 |
Abstrakt. Den närmaste framtiden föreställer sig en genomgripande heterogen datorinfrastruktur som gör det möjligt för mobila användare att köra programvarutjänster på en mängd olika enheter, från nätverk av enheter till fristående trådlösa resursanpassade. För att säkerställa att användarna uppfyller sina icke-funktionella krav genom att uppleva den bästa servicekvaliteten i enlighet med sina behov och specifika användningssammanhang måste tjänsterna vara kontextmedvetna och anpassningsbara. Utvecklingen och genomförandet av sådana tjänster är en stor utmaning och det är långt kvar att lösa. I detta dokument presenterar vi vår erfarenhet i denna riktning genom att beskriva vår inställning till kontextmedvetna adaptiva tjänster inom IST PLASTIC-projektet. Tillvägagångssättet använder sig av Chameleon, ett formellt ramverk för adaptiva Java-tillämpningar. | Relaterat till kontextmedveten anpassning, Autili et al. REF presenterar en strategi för kontextmedvetna adaptiva tjänster. | 44,502,522 | Context-Aware Adaptive Services: The PLASTIC Approach | {'venue': 'FASE', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,661 |
Vi studerar frågan om rättvis klusterbildning under den olikartade effektdoktrinen, där varje skyddad klass måste ha ungefär lika representation i varje kluster. Vi formulerar det rättvisa kluster problemet under både k-center och k-median mål, och visar att även med två skyddade klasser problemet är utmanande, eftersom den optimala lösningen kan bryta mot gemensamma konventioner-till exempel en punkt får inte längre tilldelas sin närmaste kluster center! På vägen introducerar vi begreppet fairlets, som är minimala uppsättningar som tillfredsställer rättvis representation samtidigt som man ungefär bevarar klustermålet. Vi visar att alla rättvisa klusterproblem kan brytas ner till att först hitta bra fairlets, och sedan använda befintliga maskiner för traditionella kluster algoritmer. Samtidigt hitta bra fairlets kan vara NP-hård, vi fortsätter att få effektiva approximationsalgoritmer baserade på minsta kostnadsflöde. Vi kvantifierar empiriskt värdet av fair clustring på verkliga datauppsättningar med känsliga attribut. | Chierichetti m.fl. REF införde problemet med rättvis klusterbildning för en binär typ och erhållna approximationsalgoritmer för rättvis k-median/center. | 3,375,389 | Fair Clustering Through Fairlets | {'venue': 'NIPS 2017: 5036-5044', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 81,662 |
Trådlösa sensornätverk (WSN) kännetecknas av tät utbyggnad av sensornoder som kontinuerligt observerar fysiska fenomen. På grund av den höga densiteten i nätverkets topologi är sensorobservationer mycket korrelerade i rymddomänen. Dessutom utgör det fysiska fenomenets natur den tidsmässiga korrelationen mellan varje på varandra följande observation av en sensornod. Dessa rumsliga och tidsmässiga korrelationer tillsammans med WSN:s samverkanskaraktär medför betydande potentiella fördelar för utvecklingen av effektiva kommunikationsprotokoll som är väl lämpade för WSN-paradigmet. I detta dokument undersöks flera nyckelelement för att fånga upp och utnyttja korrelationen i WSN för att förverkliga avancerade effektiva kommunikationsprotokoll. En teoretisk ram utvecklas för att modellera de rumsliga och tidsmässiga korrelationerna i WSN. Syftet med denna ram är att möjliggöra utveckling av effektiva kommunikationsprotokoll som utnyttjar dessa fördelaktiga inneboende egenskaper i WSN-paradigmet. På grundval av denna ram diskuteras möjliga tillvägagångssätt för att utnyttja rumsliga och tidsmässiga korrelationer för effektiv medeltillgång respektive tillförlitlig händelsetransport i WSN. | Vuran m.fl. REF studerade de rumsliga och tidsmässiga korrelationerna tillsammans med det trådlösa sensornätverkets samarbetskaraktär, vilket kan ge betydande fördelar för utvecklingskommunikationsprotokollen. | 1,513,960 | Spatio-temporal correlation: theory and applications for wireless sensor networks | {'venue': 'Computer Networks Journal (Elsevier', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,663 |
Förmågan att exakt modellera textens innehållsstruktur är viktig för många tillämpningar för behandling av naturligt språk. Detta dokument beskriver experiment med generativa modeller för att analysera diskursstrukturen i medicinska abstracts, som i allmänhet följer mönstret av "introduktion", "metoder", "resultat" och "slutsatser". Vi visar att Hidden Markov Modeller är kapabla att exakt fånga strukturen av sådana texter, och kan uppnå klassificering noggrannhet jämförbar med den av diskriminativa tekniker. Dessutom ger generativa metoder fördelar som kan göra dem att föredra framför diskriminerande tekniker som Support Vector Machines under vissa förhållanden. Vårt arbete ger två bidrag: på applikationsnivå rapporterar vi goda resultat på en intressant uppgift inom ett viktigt område; mer allmänt bidrar våra resultat till en pågående diskussion om kompromisser mellan generativa och diskriminativa tekniker. | Lin m.fl. REF beskriver experiment med generativa modeller för att analysera diskursstrukturen i medicinska abstracts, som i allmänhet följer mönstret av "introduktion", "metoder", "resultat" och "slutsatser". | 65,485 | Generative Content Models For Structural Analysis Of Medical Abstracts | {'venue': 'BioNLP Workshop On Linking Natural Language And Biology', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,664 |
Molnets elasticitet ger ett mjukvarusystem möjlighet att upprätthålla optimal användarupplevelse genom att automatiskt förvärva och frigöra resurser, samtidigt som det endast betalar för det som förbrukats. Mekanismen för att automatiskt lägga till eller ta bort resurser i farten kallas automatisk skalning. Den nuvarande praxisen när det gäller automatisk skalning innebär att man fastställer tröskelbaserade regler för att genomföra elasticitetspolicyer för molnbaserade tillämpningar. Det finns dock flera brister när det gäller detta tillvägagångssätt. För det första måste reglerna om elasticitet preciseras exakt genom kvantitativa värden, som kräver djup kunskap och sakkunskap. Dessutom behandlar befintliga strategier inte uttryckligen osäkerhet i molnbaserad programvara, där buller och oväntade händelser är vanliga. Detta papper utnyttjar suddig logik för att möjliggöra kvalitativ specifikation av elasticitetsregler för molnbaserad programvara. Dessutom diskuterar detta dokument en kontroll teoretisk metod med användning av typ 2-fuzzy logik system för att resonera om elasticitet under osäkerheter. Vi utför flera experiment för att visa att molnbaserad programvara förstärkt med sådan elasticitet controller robust kan hantera oväntade spikar i arbetsbelastningen och ge acceptabel användarupplevelse. Detta översätts till ökad vinst för molnapplikationsägaren. | Liksom i RELAX använder författarna i REF även fuzzy logik för att resonera om NFRs under osäkerhet. | 10,558,364 | Autonomic resource provisioning for cloud-based software | {'venue': 'SEAMS 2014', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,665 |
Vi studerar problemet med att söka på data som krypteras med hjälp av ett offentligt nyckelsystem. Överväg användare Bob som skickar e-post till användaren Alice krypterad under Alice offentliga nyckel. En e-postgateway vill testa om e-postmeddelandet innehåller nyckelordet "brådskande" så att det kan dirigera e-postmeddelandet i enlighet med detta. Alice, å andra sidan vill inte ge porten förmågan att dekryptera alla hennes meddelanden. Vi definierar och konstruerar en mekanism som gör det möjligt för Alice att ge en nyckel till porten som gör det möjligt för porten att testa om ordet "brådskande" är ett nyckelord i e-postmeddelandet utan att lära sig något annat om e-postmeddelandet. Vi hänvisar till denna mekanism som Public Key Kryptering med nyckelord Sök. Som ett annat exempel, överväga en e-postserver som lagrar olika meddelanden offentligt krypterade för Alice av andra. Med hjälp av vår mekanism Alice kan skicka e-postservern en nyckel som gör det möjligt för servern att identifiera alla meddelanden som innehåller några specifika sökord, men lära sig inget annat. Vi definierar begreppet allmän nyckelkryptering med sökordssökning och ger flera konstruktioner. | Boneh et al REF introducerar en öppen nyckelkryptering med sökordssökning (PEKS), som stöder sökordssökning på krypterad data. | 929,338 | Public Key Encryption with Keyword Search | {'venue': 'EUROCRYPT', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,666 |
Abstract-I detta dokument, studerar vi problemet med gemensam routing, länk schemaläggning och kraftkontroll för att stödja höga datahastigheter för bredband trådlösa multi-hop nätverk. Vi tar först itu med problemet med att hitta en optimal länk schemaläggning och maktstyrning politik som minimerar den totala genomsnittliga överföringseffekt i det trådlösa multi-hop-nätverket, med förbehåll för givna begränsningar när det gäller den minsta genomsnittliga datahastigheten per länk, samt maximal överföringseffekt begränsningar per nod. Multi-access signalinterferens är explicit modellerad. Vi använder en duality-strategi där vi, som en biprodukt av att hitta den optimala politiken, finner känsligheten hos den minsta totala genomsnittskraften i förhållande till den genomsnittliga datahastigheten för varje länk. Eftersom den minsta totala genomsnittliga effekten är en konvex funktion av de nödvändiga minsta genomsnittliga datahastigheter, kortaste sökväg algoritmer med de länkvikter som ställs in på länken sensibiliteter kan användas för att vägleda sökandet efter en globalt optimal routing. Vi presenterar några enkla exempel som visar vår algoritm kan hitta policyer som stöder datahastigheter som inte är möjliga med konventionella metoder. Dessutom anser vi att optimala tilldelningar inte nödvändigtvis leder trafiken över minimienergivägar. | Liknande arbete av REF presenterar en integrerad planerings-, länkplanerings- och maktfördelningspolicy med SINR-modellen för interferens. | 5,923,953 | Optimal routing, link scheduling and power control in multihop wireless networks | {'venue': 'IEEE INFOCOM 2003. Twenty-second Annual Joint Conference of the IEEE Computer and Communications Societies (IEEE Cat. No.03CH37428)', 'journal': 'IEEE INFOCOM 2003. Twenty-second Annual Joint Conference of the IEEE Computer and Communications Societies (IEEE Cat. No.03CH37428)', 'mag_field_of_study': ['Computer Science']} | 81,667 |
Vi presenterar en datadriven metod för att generera svar på Twitter status inlägg, baserat på frasbaserad statistisk maskin översättning. Vi finner att kartläggning av konversationsstimulans på svar är svårare än att översätta mellan språk, på grund av det bredare spektrumet av möjliga svar, den större delen av ojämlika ord/fraser, och närvaron av stora fraspar vars inriktning inte kan brytas ned ytterligare. Efter att ha tagit itu med dessa utmaningar jämför vi metoder baserade på SMT och Information Retrieval i en mänsklig utvärdering. Vi visar att SMT överträffar IR på denna uppgift, och dess resultat föredras framför faktiska mänskliga svar i 15% av fallen. Så vitt vi vet är detta det första arbetet med att undersöka användningen av frasbaserad SMT för att direkt översätta en språklig stimulans till ett lämpligt svar. | Det finns en statistisk maskinöversättning modellering för att generera chatt svar på användarens uttalanden REF. | 780,171 | Data-Driven Response Generation in Social Media | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,668 |
Många kommersiellt tillgängliga inbäddade processorer kan utöka sin bas instruktionsuppsättning för en specifik domän av applikationer. Även om stadiga framsteg har gjorts i verktyg och metoder för automatisk instruktion set förlängning för konfigurerbara processorer, nyligen studie har visat att den begränsade data bandbredd som finns i kärnprocessorn (t.ex. antalet samtidiga åtkomster till registret filen) blir en allvarlig prestanda flaskhals. I detta dokument föreslår vi en ny lågkostnad arkitektur förlängning och tillhörande kompilering tekniker för att ta itu med problemet data bandbredd. Specifikt bäddade vi in en enda kontrollbit i instruktionen op-koder för att selektivt kopiera utförandet resultat till en uppsättning hash-mappade skuggregister i write-back skedet. Detta kan effektivt minska kommunikationen overhead på grund av dataöverföringar mellan kärnprocessorn och den anpassade logiken. Vi presenterar också en ny samtidig global skuggregisterbindning med en hashfunktionalgoritm för att dra full nytta av utbyggnaden. Tillämpningen av vårt tillvägagångssätt leder till en nästan optimal hastighetsökning (inom 2 % av den idealiska hastighetsökningen). | En ny parallell global registerbindning presenteras också i REF med hjälp av hashfunktionsalgoritm. | 1,150,679 | Architecture and compilation for data bandwidth improvement in configurable embedded processors | {'venue': 'ICCAD-2005. IEEE/ACM International Conference on Computer-Aided Design, 2005.', 'journal': 'ICCAD-2005. IEEE/ACM International Conference on Computer-Aided Design, 2005.', 'mag_field_of_study': ['Computer Science']} | 81,669 |
Vi föreslår en bild super-upplösningsmetod (SR) med hjälp av ett djupt rekursivt konvolutionsnätverk (DRCN). Vårt nätverk har ett mycket djupt rekursivt lager (upp till 16 rekursioner). Ökande rekursionsdjup kan förbättra prestandan utan att införa nya parametrar för ytterligare konvolutioner. Även om fördelarna med att lära sig ett Demokratiska republiken Kongo är mycket svåra med en standard gradient nedstigningsmetod på grund av exploderande/vanskande gradienter. För att underlätta svårigheten med utbildning föreslår vi två förlängningar: rekursiv-supervision och hoppa-anslutning. Vår metod överträffar tidigare metoder med stor marginal. | I REF, Kim et al. införa ett djupt rekursivt konvolutionsnätverk (DRCN) med rekursiv övervakning och hoppa över anslutningar. | 206,593,506 | Deeply-Recursive Convolutional Network for Image Super-Resolution | {'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 81,670 |
Distant-övervakad relation utvinning oundvikligen lider av fel märkning problem eftersom det heuritiskt märker relationsfakta med kunskapsbaser. Previous mening nivå denoise modeller inte uppnå tillfredsställande prestanda eftersom de använder hårda etiketter som bestäms av avlägsen övervakning och oföränderlig under utbildningen. I detta syfte introducerar vi en enhet-parnivå denoise metod som utnyttjar semantisk information från korrekt märkta enhet par för att korrigera fel etiketter dynamiskt under utbildningen. Vi föreslår en gemensam poängfunktion som kombinerar relationspoängen baserat på enhetsparets representation och den hårda etikettens förtroende för att få en ny etikett, nämligen en mjuk etikett, för vissa enhetspar. Under utbildningen fungerar mjuka etiketter istället för hårda etiketter som guldetiketter. Experiment på referensdatasetet visar att vår metod dramatiskt minskar bullriga fall och överträffar de toppmoderna systemen. | Liu m.fl. REF införde en metod som utnyttjar semantisk information från korrekt märkta enhet par för att korrigera fel etiketter dynamiskt under utbildningen, och P@avg värdet uppgick till 82,8%. | 6,183,556 | A Soft-label Method for Noise-tolerant Distantly Supervised Relation Extraction | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,671 |
Storskalig distribuerad utbildning kräver betydande kommunikationsbandbredd för gradientutbyte som begränsar skalbarheten av multi-node utbildning, och kräver dyra högbandsbredd nätverk infrastruktur. Situationen blir ännu värre med distribuerad utbildning på mobila enheter (federerad inlärning), som lider av högre latens, lägre genomströmning och intermittenta dåliga anslutningar. I detta dokument finner vi 99,9% av gradientutbytet i distribuerad SGD är överflödiga, och föreslår Deep Gradient Compression (DGC) för att kraftigt minska kommunikationsbandbredden. För att bevara noggrannheten under denna kompression använder DGC fyra metoder: momentumkorrigering, lokal gradientklippning, momentumfaktormaskering och uppvärmningsträning. Vi har tillämpat Deep Gradient Compression på bildklassificering, taligenkänning och språkmodellering med flera datauppsättningar inklusive Cifar10, ImageNet, Penn Treebank och Librispeech Corpus. På dessa scenarier, Deep Gradient Compression uppnår en lutning kompressionsförhållande från 270× till 600× utan att förlora noggrannhet, skära lutningen storlek ResNet-50 från 97MB till 0,35MB, och för DeepSpeech från 488MB till 0.74MB. Djup gradientkompression möjliggör storskalig distribuerad utbildning på billig råvara 1Gbps Ethernet och underlättar distribuerad utbildning på mobil. | Lin m.fl. föreslå djup gradient kompression algoritm, utnyttja momentum korrigering, gradient klippning, momentum faktor maskering, och uppvärmning utbildning för att uppnå högre sparhet utan att förlora noggrannhet REF. | 38,796,293 | Deep Gradient Compression: Reducing the Communication Bandwidth for Distributed Training | {'venue': 'ICLR 2018', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 81,672 |
Vi presenterar grafen uppmärksamhet nätverk (GAT), nya neurala nätverk arkitekturer som fungerar på graf-strukturerade data, utnyttja maskerade självuppmärksamhet lager för att ta itu med bristerna i tidigare metoder baserade på graf konvolutioner eller deras approximationer. Genom att stapla lager i vilka noder kan delta över sina stadsdelars funktioner, möjliggör vi (implicit) ange olika vikter till olika noder i ett område, utan att kräva någon form av dyr matris operation (såsom inversion) eller beroende på att veta grafstrukturen i förskott. På så sätt tar vi itu med flera viktiga utmaningar för spektral-baserade graf neurala nätverk samtidigt, och gör vår modell lätt tillämplig på såväl induktiva som transduktiva problem. Våra GAT modeller har uppnått eller matchat state-of-t heart resultat över fyra etablerade transduktiva och induktiva graf riktmärken: Cora, Citeseer och Pubmed citeringsnätverk dataset, samt en proteinprotein interaktion dataset (där test grafer förblir osedda under träning). | I nodklassificering, GAT REF stackar maskerade självuppmärksamhet lager för att klassificera en nod genom att delta över sina grannar i olika vikter. | 3,292,002 | Graph Attention Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 81,673 |
I mikrobloggningstjänster som twitter kan användarna bli överväldigade av rådata. En lösning på detta problem är klassificeringen av korta textmeddelanden. Eftersom korta texter inte ger tillräckligt med ordförekomster har traditionella klassificeringsmetoder som "Bag-Of-Words" begränsningar. För att ta itu med detta problem, föreslår vi att använda en liten uppsättning av domänspecifika funktioner som extraheras från författarens profil och text. Det föreslagna tillvägagångssättet klassificerar texten effektivt till en fördefinierad uppsättning generiska klasser som nyheter, evenemang, åsikter, erbjudanden och privata meddelanden. | REF föreslog att man skulle använda en liten uppsättning domänspecifika funktioner som hämtats från författarens profil och text för att representera korta meddelanden. | 4,370,312 | Short text classification in twitter to improve information filtering | {'venue': "SIGIR '10", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,674 |
Abstract-En smart kontrakt är svårt att lappa för buggar när den är utplacerad, oavsett de pengar som den innehar. Ett fel orsakade förluster till ett värde av omkring 50 miljoner cryptocurrency. Vi presenterar ZEUS-ett ramverk för att verifiera att smarta kontrakt är korrekta och validerar att de är rättvisa. Vi anser att korrekthet är att följa säkra programmeringsmetoder, medan rättvisa är att följa överenskomna affärslogik på högre nivå. ZEUS utnyttjar både abstrakt tolkning och symbolisk modellkontroll, tillsammans med befogenheten att begränsa hornklausuler för att snabbt kontrollera kontrakt för säkerhet. Vi har byggt en prototyp av ZEUS för Ethereum och Fabric blockchain plattformar, och utvärderat den med över 22.4K smarta kontrakt. Vår utvärdering visar att omkring 94,6 % av kontrakten (som innehåller kryptovaluta värd mer än 0,5 miljarder dollar) är sårbara. ZEUS är ljud med noll falska negativa och har en låg falsk positiv frekvens, med en storleksordning förbättring i analystid jämfört med tidigare konst. | Prototypen för ZEUS REF hävdade att det var en ljudanalysator med noll falska negativa genom att översätta kontrakt till LLVM-ramverk. | 3,481,056 | ZEUS: Analyzing Safety of Smart Contracts | {'venue': 'NDSS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,675 |
Abstrakt. Vi använder stora mängder omärkt video för att lära oss modeller för visuell spårning utan manuell mänsklig övervakning. Vi utnyttjar den naturliga temporal samstämmighet av färg för att skapa en modell som lär sig att färga gråskala videor genom att kopiera färger från en referensram. Kvantitativa och kvalitativa experiment tyder på att denna uppgift gör att modellen automatiskt lär sig att spåra visuella regioner. Även om modellen är tränad utan mark-sanning etiketter, vår metod lär sig att spåra tillräckligt bra för att överträffa de senaste metoderna baserade på optiskt flöde. Dessutom, våra resultat tyder på att misslyckanden att spåra korreleras med misslyckanden att färga, vilket tyder på att avancera video colorization kan ytterligare förbättra självövervakad visuell spårning. | Nyligen REF, utnyttjade den naturliga temporal samstämmigheten i färg i videor, att träna ett nätverk för spårning och korrespondens relaterade uppgifter. | 49,405,781 | Tracking Emerges by Colorizing Videos | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 81,676 |
Förmågan att förutsäga och därför förutse framtiden är ett viktigt attribut för intelligens. Det är också av yttersta vikt i realtidssystem, t.ex. inom robotteknik eller autonom körning, som är beroende av visuell scenförståelse för beslutsfattande. Medan förutsägelse av råa RGB pixelvärden i framtida videoramar har studerats i tidigare arbete, här introducerar vi den nya uppgiften att förutsäga semantiska segmenteringar av framtida ramar. Med tanke på en sekvens av videoramar är vårt mål att förutsäga segmenteringskartor över ännu inte observerade videoramar som ligger upp till en sekund eller längre i framtiden. Vi utvecklar ett autoregressivt konvolutionellt neuralt nätverk som lär sig att iterativt generera flera ramar. Våra resultat på Cityscapes dataset visar att det är betydligt bättre att direkt förutsäga framtida segmenteringar än att förutsäga och sedan segmentera framtida RGB-ramar. Förutsägelseresultat upp till en halv sekund i framtiden är visuellt övertygande och mycket mer exakta än de vid en baslinje baserad på varpande semantiska segmenteringar med hjälp av optiskt flöde. | Luc och Al. REF utvecklar ett autoregressivt konvolutionellt neuralt nätverk som lär sig att generera flera framtida ramar iterativt. | 3,073,351 | Predicting Deeper into the Future of Semantic Segmentation | {'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 81,677 |
Mobiltelefon textmeddelanden användare uttrycker sig kortfattat och colloquially med hjälp av en mängd olika kreativa former. Vi analyserar ett urval av kreativa, icke-standard text meddelande ordformer för att bestämma frekventa ordbildningsprocesser i textspråk. Utifrån dessa observationer konstruerar vi en oövervakad bullriga kanalmodell för normalisering av textmeddelanden. På en testuppsättning på 303 textmeddelandeformulär som skiljer sig från deras standardformulär uppnår vår modell 59 % noggrannhet, vilket är på samma nivå som de bästa övervakade resultaten som rapporterats om denna datauppsättning. | REF ) introducerade en oövervakad bullrig kanalmodell som övervägde flera ordbildningsprocesser i en generativ modell. | 8,177,318 | An Unsupervised Model for Text Message Normalization | {'venue': 'Proceedings of the Workshop on Computational Approaches to Linguistic Creativity', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,678 |
Ett stort antal akademiska uppsatser kommer ut från många konferenser och tidskrifter nu för tiden. Under dessa omständigheter förlitar sig de flesta forskare på nyckelbaserad sökning eller genom att bläddra i toppkonferenser och tidskrifter för att hitta sitt relaterade arbete. För att underlätta denna svårighet föreslår vi ett personaliserat akademiskt forskningsdokument Recommendation System, som rekommenderar relaterade artiklar, för varje forskare, som kan vara intressant för henne/hon själv. I den här artikeln introducerar vi först vår webbklättrare för att hämta forskningsrapporter från webben. Sedan definierar vi likheter mellan två forskningsdokument baserade på textens likhet mellan dem. Slutligen föreslår vi vårt rekommenderade system utvecklat med hjälp av samarbetsfiltreringsmetoder. Våra utvärderingsresultat visar att vårt system rekommenderar forskningsrapporter av god kvalitet. | I REF presenteras ett personligt rekommendationssystem för akademiska forskningsdokument. | 9,800,060 | Personalized Academic Research Paper Recommendation System | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 81,679 |
Vi introducerar författaren-topic modellen, en generativ modell för dokument som utökar Latent Dirichlet Allocation (LDA; Blei, Ng, & Jordan, 2003) för att inkludera författarinformation. Varje författare är associerad med en multinomial distribution över ämnen och varje ämne är associerad med en multinomial distribution över ord. Ett dokument med flera författare är modellerat som en distribution över ämnen som är en blandning av de distributioner som är associerade med författarna. Vi tillämpar modellen på en samling av 1.700 NIPS konferenspapper och 160.000 CiteSeer abstracts. Exakt slutsats är intractable för dessa dataset och vi använder Gibbs provtagning för att uppskatta ämne och författare distributioner. Vi jämför prestanda med två andra generativa modeller för dokument, som är speciella fall av författaren-topic modellen: LDA (en ämnesmodell) och en enkel författare modell där varje författare är associerad med en distribution över ord snarare än en distribution över ämnen. Vi visar ämnen som återvinns av författarentopic modellen, och visar applikationer till dator likhet mellan författare och entropi av författarens utdata. | I REF infördes en förlaga för dokument som handlade om upphovsmän. | 1,997,763 | The Author-Topic Model for Authors and Documents | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 81,680 |
Abstrakt. Ett av löftena i den tjänsteorienterade arkitekturen (SOA) är att komplexa tjänster enkelt kan komponeras med hjälp av enskilda tjänster från olika tjänsteleverantörer. Enskilda tjänster kan väljas och integreras antingen statiskt eller dynamiskt baserat på tjänsternas funktioner och prestandabegränsningar. För många distribuerade applikationer, körtidens prestanda (t.ex. End-to-end-försening, totalkostnad, tjänstetillförlitlighet och tillgänglighet) av komplexa tjänster är mycket viktiga. I vårt tidigare arbete har vi studerat problemet med serviceval för komplexa tjänster med endast en QoS-begränsning. Detta dokument utvidgar problemet med tjänsteval till flera QoS-begränsningar. Problemet kan modelleras på två sätt: den kombinatoriska modellen och grafmodellen. Den kombinatoriska modellen definierar problemet som multi-dimension multi-choice 0-1 knapsack problem (MMKP). Grafmodellen definierar problemet som multi-constraint optimal väg (MCOP) problem. Vi föreslår algoritmer för båda modellerna och studerar deras prestationer efter testfall. Vi jämför också för- och nackdelarna mellan de två modellerna. | En multi-Constraint Optimal Path (MCOP) algoritm med heuristik presenteras i REF. | 1,794,794 | Service Selection Algorithms for Composing Complex Services with Multiple QoS Constraints | {'venue': 'ICSOC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,681 |
Nuvarande state-of-the-art djupinlärningssystem för visuell objektigenkänning och detektion använder rent övervakad utbildning med legalisering såsom avhopp för att undvika överutrustning. Prestandan beror kritiskt på mängden märkta exempel, och i nuvarande praxis antas etiketterna vara entydiga och korrekta. Detta antagande håller dock ofta inte, t.ex. Vid upptäckt kan objekt i bilden inte lokaliseras, och i allmänhet kan märkningen vara subjektiv. I detta arbete föreslår vi ett generiskt sätt att hantera bullriga och ofullständiga märkningar genom att öka prognosmålet med ett begrepp om konsekvens. Vi anser att en förutsägelse är konsekvent om samma förutsägelse görs ges liknande begrepp, där begreppet likhet är mellan djupa nätverksfunktioner som beräknas från indata. I experiment visar vi att vårt tillvägagångssätt ger betydande robusthet för att märka buller på flera datauppsättningar. På MNIST handskrivna siffror visar vi att vår modell är robust för att märka korruption. På Toronto Face Database, visar vi att vår modell hanterar väl fallet med subjektiva etiketter i känsloigenkänning, uppnå state-of-t heart resultat, och kan också dra nytta av omärkta ansiktsbilder utan någon ändring av vår metod. På ILSVRC2014 detekteringsutmaningsdata visar vi att vår strategi sträcker sig till mycket djupa nätverk, högupplösta bilder och strukturerade utgångar, och resulterar i förbättrad skalbar detektering. | För att övervinna den negativa effekten av bullriga etiketter föreslog REF en teknik för bootstrap för att ändra etiketterna i farten genom att öka prognosmålet med ett begrepp om konsekvens. | 2,181,703 | Training Deep Neural Networks on Noisy Labels with Bootstrapping | {'venue': 'ICLR 2015', 'journal': 'arXiv: Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 81,682 |
ABSTRACT Content caching vid basstationer är en lovande lösning för att möta de stora kraven på mobila datatjänster via cellulära nät. Innehåll caching är ett utmanande problem eftersom det kräver att förutsäga den framtida populariteten av innehållet och de operativa egenskaperna hos de cellulära nätverken. I den här artikeln fokuserar vi på att bygga en algoritm som förbättrar användarnas upplevelsekvalitet (QoE) och minskar nätverkstrafiken. Algoritmen står för användares beteende och egenskaper hos det cellulära nätverket (t.ex. cachestorlek, bandbredd och belastning). Det konstruerade innehållet och nätverket medvetna adaptiv caching system använder en extrem-lärande maskin neurala nätverk för att uppskatta populariteten av innehåll, och blandade-integer linjär programmering för att beräkna var att placera innehållet och välja fysiska cache storlekar i nätverket. Det föreslagna cachesystemet utför samtidigt effektiv cachedistribution och innehållscachelagring. Dessutom är en samtidig perturbation stokastisk approximeringsmetod utvecklad för att minska antalet neuroner i den extrema lärande maskin metoden samtidigt som en tillräcklig prediktiv prestanda upprätthålls. Med hjälp av verkliga data från YouTube och en NS-3 simulator, visar vi hur cachesystemet förbättrar QoE för användare och nätverksprestanda jämfört med branschstandard cachesystem. | I litteraturen REF föreslås en adaptiv caching mekanism baserad på extrema lärande maskin neurala nätverk. | 38,803,303 | Adaptive Scheme for Caching YouTube Content in a Cellular Network: Machine Learning Approach | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 81,683 |
Med parallella uppmärksamhetsnätverk är neuraltransformer mycket snabb att träna. På grund av den autoregressiva arkitekturen och självuppmärksamheten i dekodern blir avkodningsförfarandet dock långsamt. För att lindra denna fråga, föreslår vi ett genomsnittligt uppmärksamhetsnätverk som ett alternativ till självuppmärksamhetsnätverket i avkodaren av den neurala Transformer. Det genomsnittliga uppmärksamhetsnätet består av två lager, med ett genomsnittsskikt som modellerar beroenden på tidigare positioner och ett gatingskikt som staplas över det genomsnittliga lagret för att öka expressiviteten i det föreslagna uppmärksamhetsnätet. Vi använder detta nätverk på dekoderdelen av neuraltransformer att ersätta den ursprungliga målsidan själv-attention modell. Med maskeringstrick och dynamisk programmering gör vår modell det möjligt för neuraltransformer att avkoda meningar över fyra gånger snabbare än sin ursprungliga version med nästan ingen förlust i träningstid och översättningsprestanda. Vi utför en rad experiment på WMT17 översättningsuppgifter, där på 6 olika språk par, vi får robusta och konsekventa speed-ups i avkodning. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. | I REF föreslogs det genomsnittliga uppmärksamhetsnätet för att påskynda avkodningen, vilket leder till en betydande hastighetsökning över den obrända Transformern. | 25,113,027 | Accelerating Neural Transformer via an Average Attention Network | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 81,684 |
Abstrakt. Att se till att patientjournalerna är säkra blir ett allt viktigare problem eftersom modern teknik integreras i befintliga medicinska tjänster. Till följd av införandet av elektroniska patientjournaler inom hälso- och sjukvården blir det allt vanligare att en hälso- och sjukvårdspersonal redigerar och ser en patients journal med hjälp av en surfplatta. För att skydda patientens integritet, vilket krävs enligt statliga bestämmelser i USA, måste ett säkert autentiseringssystem användas för att få tillgång till patientjournaler. Biometriskt baserat tillträde kan ge den nödvändiga säkerheten. On-line signatur och röstsätt verkar vara det mest bekväma för användarna i sådana autentiseringssystem eftersom en tablet PC är utrustad med tillhörande sensorer/hårdvara. Detta papper analyserar prestandan av att kombinera användningen av online-signaturer och röstbiometri för att utföra robust användarautentisering. Signaturer verifieras med hjälp av den dynamiska programmeringstekniken för strängmatchning. Röst verifieras med hjälp av en kommersiell, utanför hyllan, programvara utveckling kit. För att förbättra autentiseringsprestandan kombinerar vi information från både online-signaturer och röstbiometri. Efter lämplig normalisering av poäng utförs fusion på motsvarande poängnivå. Ett prototypsystem för dubbelmodal autentisering för tillgång till medicinska journaler har utformats och utvärderats i en liten verkligt multimodal databas med 50 användare, vilket resulterar i en genomsnittlig lika hög felfrekvens (EER) på 0,86 %. | I REF föreslås ett tablet PC-system baserat på online-signaturer och röstlägen för att garantera säkerheten för elektroniska patientjournaler. | 11,150,391 | Securing electronic medical records using biometric authentication | {'venue': 'AVBPA 2005, LNCS 3546', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,685 |
Abstract Video bakgrund modellering är en viktig förbehandling steg i många videoanalyssystem. Huvudkomponentjakt (PCP), som för närvarande anses vara den senaste metoden för detta problem, har en hög beräkningskostnad, och bearbetar ett stort antal videoramar åt gången, vilket resulterar i hög minnesanvändning och begränsar tillämpligheten av denna metod för att strömma video. I detta dokument föreslår vi en ny helt inkrementell PCP algoritm för video bakgrund modellering. Det behandlar en ram i taget, få liknande resultat som standard batch PCP algoritmer, samtidigt som kunna anpassa sig till förändringar i bakgrunden. Det har en extremt låg minnesavtryck, och en beräknings komplexitet som möjliggör realtidsbearbetning. | Rodríguez REF föreslog en inkrementell PCP-algoritm som kan bearbeta en videoram åt gången, vilket ger liknande resultat som vanliga PCP-algoritmer med lågt minnesavtryck och processhastighet i realtid. | 207,175,766 | Incremental Principal Component Pursuit for Video Background Modeling | {'venue': 'Journal of Mathematical Imaging and Vision', 'journal': 'Journal of Mathematical Imaging and Vision', 'mag_field_of_study': ['Computer Science']} | 81,686 |
Abstract-Markov Random Fields (MRF), alias: Grafiska modeller fungerar som populära modeller för nätverk inom de sociala och biologiska vetenskaperna samt kommunikation och signalbehandling. Ett centralt problem är strukturinlärning eller modellurval: givet prov från MRF, bestämma grafstrukturen i den underliggande fördelningen. När MRF inte är Gaussian (t.ex. Ising modellen) och innehåller cykler, strukturinlärning är känd för att vara NP hårt även med oändliga prover. Befintliga metoder fokuserar vanligtvis antingen på specifika parametriska klasser av modeller, eller på underklassen av grafer med begränsad grad; komplexiteten hos många av dessa metoder växer snabbt i den grad som är bunden. Vi utvecklar en enkel ny "grå" algoritm för att lära sig strukturen av grafiska modeller av diskreta slumpmässiga variabler. Det lär Markov grannskapet av en nod genom att sekventiellt lägga till den nod som producerar den högsta minskningen av villkorlig entropi. Vi ger ett generellt tillräckligt villkor för exakt strukturåterställning (under förhållanden på graden/omkretsen/korrelationen sönderfall), och studera dess urval och beräkning komplexitet. Vi överväger sedan dess konsekvenser för Ising-modellen, för vilken vi fastställer ett självförsörjande villkor för exakt strukturåterhämtning. | REF föreslog en snabbare girig algoritm, baserad på villkorlig entropi, för grafer med stor omkrets och begränsad grad. | 17,165,618 | Greedy learning of Markov network structure | {'venue': '2010 48th Annual Allerton Conference on Communication, Control, and Computing (Allerton)', 'journal': '2010 48th Annual Allerton Conference on Communication, Control, and Computing (Allerton)', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 81,687 |
Mänskliga handlingar kan representeras av skelettledernas banor. Traditionella metoder modellerar i allmänhet den rumsliga strukturen och temporal dynamiken hos det mänskliga skelettet med handgjorda egenskaper och känner igen mänskliga handlingar genom väl utformade klassificeringar. I detta dokument, med tanke på att återkommande neurala nätverk (RNN) kan modellera den långsiktiga kontextuell information av temporal sekvenser väl, föreslår vi en end-to-end hierarkisk RNN för skelettbaserade åtgärder erkännande. Istället för att ta hela skelettet som ingång, delar vi upp det mänskliga skelettet i fem delar enligt människans fysiska struktur, och matar sedan dem separat till fem subnät. Allteftersom antalet lager ökar, är de representationer som extraheras av subnäten hierarkiskt sammansmälta för att vara ingångar av högre skikt. De slutliga representationerna av skelettsekvenserna matas in i ett enda lager perceptron, och den tidsmässigt ackumulerade produktionen av perceptronet är det slutliga beslutet. Vi jämför med fem andra djupa RNN-arkitekturer som härletts från vår modell för att verifiera effektiviteten i det föreslagna nätverket, och även jämföra med flera andra metoder på tre allmänt tillgängliga dataset. Experimentella resultat visar att vår modell uppnår den toppmoderna prestandan med hög beräkningseffektivitet. | Författare i REF använde också neural nätverksteknik för att föreslå en end-to-end hierarkisk återkommande neurala nätverk (RNN) för att representera skelettbaserad konstruktion. | 8,040,013 | Hierarchical recurrent neural network for skeleton based action recognition | {'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 81,688 |
Information om sociala nätverk på nätet lovar att öka rekommendationsnoggrannheten utöver möjligheterna för rent rating-/feedback-drivna rekommendationssystem (RS). När det gäller att bättre betjäna användarnas aktiviteter över olika domäner, stöder många sociala nätverk online nu en ny funktion i "Vänner Cirklar", som förfinar domän-oblivious "Vänner" koncept. RS bör också dra nytta av domänspecifika "Trust Circles". Intuitivt kan en användare lita på olika undergrupper av vänner när det gäller olika domäner. I de flesta befintliga klassificeringsdata för flera kategorier blandas tyvärr en användares sociala förbindelser från alla kategorier. I detta dokument presenteras en insats för att utveckla cirkelbaserad RS. Vi fokuserar på att härleda kategorispecifika sociala förtroendecirklar från tillgängliga ratingdata i kombination med sociala nätverksdata. Vi beskriver flera varianter av viktning vänner inom cirklar baserat på deras inferred expertis nivåer. Genom experiment på allmänt tillgängliga data visar vi att de föreslagna cirkelbaserade rekommendationsmodellerna bättre kan utnyttja användarens sociala förtroendeinformation, vilket resulterar i ökad rekommendationsnoggrannhet. | Yang m.fl. REF utvecklar ett cirkelbaserat recommender-system som innehåller kategorispecifika sociala förtroendecirklar från tillgängliga ratingdata i kombination med sociala nätverksdata, och det har också föreslagit flera varianter för att vikta vänner baserat på deras inferred expertisnivåer. | 207,196,352 | Circle-based recommendation in online social networks | {'venue': 'KDD', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,689 |
Sammanfattning av denna webbsida: Trådlös lokalanpassning inomhus med Bluetooth Low Energy (BLE) har fått stor uppmärksamhet efter lanseringen av BLE-protokollet. I detta dokument föreslår vi en algoritm som använder kombinationen av kanalseparat polynom regressionsmodell (PRM), kanalseparat fingeravtryck (FP), avvikande detektion och utökad Kalmanfiltrering (EKF) för smartphone-baserad inomhuslokalisering med BLE-fyrar. Den föreslagna algoritmen använder FP och PRM för att uppskatta målets läge och avstånden mellan mål- respektive BLE-fyrarna. Vi jämför prestandan för distansuppskattning som använder separat PRM för tre annonskanaler (dvs. den separata strategin) med som använder en aggregerad PRM som genereras genom kombinationen av information från alla kanaler (dvs. den aggregerade strategin). Resultaten av FP-baserade skattningar av lokaliseringar för den separata strategin och den aggregerade strategin jämförs också. Det konstaterades att den separata strategin kan ge högre noggrannhet; därför är det att föredra att anta PRM och FP för varje BLE reklamkanal separat. För att förbättra algoritmens robusthet är dessutom en mekanism för att upptäcka avvikelser på två nivåer utformad. Uppskattningar av avstånd och belägenhet som erhållits från PRM och FP skickas till den första avvikelsedetekteringen för att generera förbättrade avståndsuppskattningar för EKF. Efter EKF-processen utförs den andra detekteringsalgoritmen utifrån statistisk testning för att avlägsna avvikelserna. Den föreslagna algoritmen utvärderades genom olika fältexperiment. Resultaten visar att den föreslagna algoritmen uppnådde noggrannheten av <2.56 m vid 90% av tiden med tät utbyggnad av BLE-fyrar (1 beacon per 9 m), som utför 35.82% bättre än <3.99 m från förökningsmodellen (PM) + EKF algoritm och 15.77% mer exakt än <3.04 m från FP + EKF algoritm. Med sparsam utplacering (1 beacon per 18 m), uppnår den föreslagna algoritmen noggrannheten på <3.88 m vid 90% av tiden, som utför 49.58% mer exakt än <8.00 m från PM + EKF algoritm och 21.41% bättre än <4.94 m från FP + EKF algoritm. Därför är den föreslagna algoritmen särskilt användbar för att förbättra lokaliseringsnoggrannheten i miljöer med gles beacon distribution. | Zhuang REF kombinerade kanal-separat polynom regressionsmodell, kanal-separat fingeravtryck, avvikande detektion och det utvidgade Kalman-filtret. | 13,930,928 | Smartphone-Based Indoor Localization with Bluetooth Low Energy Beacons | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Computer Science', 'Engineering', 'Medicine']} | 81,690 |
Nätverksinbäddning är att lära sig lågdimensionella vektor representationer för noder i ett nätverk. Det har visat sig vara effektivt i en mängd olika uppgifter som nodklassificering och länkförutsägelse. Medan inbäddning algoritmer på rena nätverk har studerats intensivt, i många verkliga tillämpningar, noder ofta åtföljs av en rik uppsättning attribut eller funktioner, alias tilldelade nätverk. Det har observerats att nätverkstopologisk struktur och nodattribut ofta är starkt korrelerade med varandra. Att modellera och införliva nodattributet närhet till nätverket inbäddning kan vara potentiellt användbart, även om icke-trivial, för att lära sig bättre vektor representationer. Samtidigt innehåller verkliga nätverk ofta ett stort antal noder och funktioner, som ställer krav på skalbarheten av inbäddade algoritmer. För att överbrygga klyftan, i detta dokument, föreslår vi en accelererad tilldelad nätverk inbäddning algoritm AANE, som gör det möjligt att göra den gemensamma inlärningsprocessen på ett distribuerat sätt genom att sönderdela den komplexa modellering och optimering i många sub-problem. Experimentella resultat på flera verkliga datauppsättningar visar hur effektiv och ändamålsenlig den föreslagna algoritmen är. | AANE REF modellerad och införlivad nod attribut närhet till nätverket inbäddning på ett distribuerat sätt. | 19,908,368 | Accelerated Attributed Network Embedding. | {'venue': 'SDM', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,691 |
Generaliserad signcryption (GSC) kan tillämpas som ett krypteringsschema, ett signaturschema eller ett signcryptionsschema med endast en algoritm och ett nyckelpar. En nyckelisolerad mekanism kan lösa problemet med privat viktig exponering. För att säkerställa säkerheten i molnlagringen introducerar vi den nyckelisolerade mekanismen i GSC och föreslår ett konkret system utan dubbellinjära parningar i den certifikatlösa kryptosysteminställningen. Vi tillhandahåller en formell definition och en säkerhetsmodell av certifikatlös nyckelisolerad GSC. Sedan bevisar vi att vårt system är konfidentiellt under den beräkningsmässiga Diffie-Hellman (CDH) antagande och oförfalskad under den elliptiska kurvan diskret logaritm (EC-DL) antagande. Vårt system stöder också både slumpmässig-access nyckeluppdatering och säker nyckel uppdatering. Slutligen utvärderar vi effektiviteten i vårt system och visar att det är mycket effektivt. Därför är vårt system mer lämpligt för användare som kommunicerar med molnet med hjälp av mobila enheter. | Zhou m.fl. REF föreslog ett certifikatlöst nyckelisolerat generaliserat signcryptionssystem utan dubbellinjära par för att lösa problemen med privat nyckelexponering. | 46,807,576 | Certificateless Key-Insulated Generalized Signcryption Scheme without Bilinear Pairings | {'venue': 'Security and Communication Networks', 'journal': 'Security and Communication Networks', 'mag_field_of_study': ['Computer Science']} | 81,692 |
Abstract-De flesta undersökningar i ad hoc-nätverk fokuserar på routing och inte mycket arbete har gjorts på dataåtkomst. En vanlig teknik som används för att förbättra dataåtkomsten är caching. Kooperativ caching, som gör det möjligt att dela och samordna cachad data mellan flera noder, kan ytterligare utforska potentialen i caching tekniker. På grund av ad hoc-nätens rörlighet och resursbegränsningar kan samarbetscacheteknik avsedd för trådbundna nät inte vara tillämplig på ad hoc-nät. I detta dokument utformar och utvärderar vi samarbetsmetoder för cachelagring för att effektivt stödja dataåtkomst i ad hoc-nätverk. Vi föreslår först två system: CacheData, som cache data, och CachePath, som cache data vägen. Efter att ha analyserat resultatet av dessa två system, föreslår vi en hybrid strategi (HybridCache), som kan ytterligare förbättra prestanda genom att dra nytta av CacheData och CachePath samtidigt undvika sina svagheter. Cache ersättningspolicy studeras också för att ytterligare förbättra prestandan. Simuleringsresultat visar att de föreslagna systemen avsevärt kan minska frågefördröjningen och meddelandets komplexitet jämfört med andra cachesystem. | Två samarbetsprogram för cachelagring, CacheData och CachePath, utformade för ad hoc-nätverk, föreslogs i REF. | 2,807,480 | Supporting cooperative caching in ad hoc networks | {'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']} | 81,693 |
Avkodning av maxlikelihood är ett av de centrala problemen i kodningsteorin. Det har varit känt i över 25 år att maximal liknande avkodning av allmänna linjära koder är NP-hård. Ändå var det hittills okänt om maximal-likelihood avkodning förblir svårt för någon specifik familj av koder med icke-trivial algebraisk struktur. I den här tidningen bevisar vi att maximal liknande avkodning är NP-hård för familjen av Reed-Solomon-koder. Vi visar dessutom att maximal liknande avkodning av ReedSolomon koder fortfarande är svårt även med obegränsad förbehandling, vilket stärker ett resultat av Bruck och Naor. | Guruswami och Vardy REF visade att den maximala sannolikheten avkodning av generaliserade Reed-Solomon koder är NP-hård. | 1,839,997 | Maximum-likelihood decoding of Reed-Solomon codes is NP-hard | {'venue': "SODA '05", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 81,694 |
Vi föreslår tvåradiga modeller, en igenkänningsarkitektur som består av två funktionsextraktorer vars utgångar multipliceras med hjälp av yttre produkt på varje plats av bilden och poolas för att få en bilddeskriptor. Denna arkitektur kan modellera lokala parvisa funktionsinteraktioner på ett översättningsmässigt invariantt sätt som är särskilt användbart för finkornig kategorisering. Den generaliserar också olika ordningslösa texturdeskriptorer såsom Fisher vektorn, VLAD och O2P. Vi presenterar experiment med tvåradiga modeller där funktionsextraktorer är baserade på konvolutionella neurala nätverk. Den bilinjära formen förenklar lutningsberäkningen och möjliggör end-to-end utbildning av båda nätverken med enbart bildetiketter. Med hjälp av nätverk som initieras från ImageNet dataset följt av domänspecifik finjustering får vi 84,1% noggrannhet av CUB-200-2011 dataset som kräver endast kategorietiketter vid utbildningstid. Vi presenterar experiment och visualiseringar som analyserar finjusteringens effekter och valet av två nätverk på modellernas hastighet och noggrannhet. Resultaten visar att arkitekturen på ett gynnsamt sätt jämför med den befintliga tekniken på ett antal finkorniga dataset samtidigt som den är betydligt enklare och lättare att träna. Dessutom är vår mest exakta modell ganska effektiv körs på 8 ramar / sek på en NVIDIA Tesla K40 GPU. Källkoden för hela systemet kommer att göras tillgänglig på | Till exempel Lin et al. REF föreslog dubbellinjär poolning för att aggregera de pairwise funktionen interaktioner. | 1,331,231 | Bilinear CNN Models for Fine-Grained Visual Recognition | {'venue': '2015 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2015 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 81,695 |
Frågan om hur den mänskliga hjärnan representerar begreppsmässig kunskap har diskuterats inom många vetenskapliga områden. Hjärnavbildningsstudier har visat att olika rumsliga mönster av neural aktivering är förknippade med tänkande på olika semantiska kategorier av bilder och ord (till exempel verktyg, byggnader och djur). Vi presenterar en beräkningsmodell som förutsäger den funktionella magnetiska resonanstomografin (fMRI) neural aktivering i samband med ord för vilka fMRI-data ännu inte är tillgängliga. Denna modell är tränad med en kombination av data från en biljon-ord text corpus och observerade fMRI data i samband med visning flera dussin konkreta substantiv. När modellen väl har tränats förutsäger den fMRI-aktivering för tusentals andra konkreta substantiv i textkorpus, med mycket betydande noggrannheter över de 60 substantiv för vilka vi för närvarande har fMRI-data. Han ifrågasätter hur den mänskliga hjärnan representerar och organiserar begreppskunskap har studerats av många vetenskapliga samfund. Neuroforskare med hjälp av studier av hjärntomografi (1-9) har visat att distinkta rumsliga mönster av fMRI-aktivitet är förknippade med visning av bilder av vissa semantiska kategorier, inklusive verktyg, byggnader och djur. Lingvister har karakteriserat olika semantiska roller förknippade med individuella verb, liksom de typer av substantiv som kan fylla dessa semantiska roller [t.ex. VerbNet (10) och WordNet (11, 12)]. Beräkningslingvister har analyserat statistiken över mycket stora textkorporer och har visat att ett ords betydelse till viss del fångas av fördelningen av ord och fraser med vilka det vanligen förekommer (13-17). Psykologer har studerat ordbetydelse genom studier av egenskaper (18) där deltagarna uppmanas att lista de egenskaper som de förknippar med olika ord, avslöja en konsekvent uppsättning av kärnegenskaper mellan individer och föreslå en möjlig gruppering av egenskaper genom sensoriska-motoriska metoder. Forskare som studerar semantiska effekter av hjärnskador har funnit brister som är specifika för givna semantiska kategorier (t.ex. djur) (19) (20) (21). Denna variation av experimentella resultat har lett till konkurrerande teorier om hur hjärnan kodar betydelser av ord och kunskap om objekt, inklusive teorier om att betydelser är kodade i sensoriska motoriska kortikala områden (22, 23) och teorier att de istället organiseras av semantiska kategorier såsom levande och icke-levande objekt (18, 24). Även om dessa konkurrerande teorier ibland leder till olika förutsägelser (t.ex., av vilka namngivande funktionsnedsättningar kommer co-occur hos hjärnskadade patienter), de är främst beskrivande teorier som inte gör något försök att förutsäga den specifika hjärnaktivering som kommer att produceras när ett mänskligt ämne läser ett visst ord eller ser en ritning av ett visst objekt. Vi presenterar en beräkningsmodell som gör direkt testerbara förutsägelser om fMRI-aktiviteten i samband med att tänka på godtyckliga konkreta substantiv, inklusive många substantiv för vilka inga fMRI-data för närvarande finns tillgängliga. Teorin bakom denna beräkningsmodell är att den neurala basen av den semantiska representationen av konkreta substantiv är relaterad till de fördelningsmässiga egenskaperna hos dessa ord i en brett baserad corpus av språket. Vi beskriver experiment utbildning konkurrerande beräkningsmodeller baserade på olika antaganden om de underliggande egenskaper som används i hjärnan för kodning av betydelsen av konkreta objekt. Vi presenterar experimentella bevis som visar att det bästa av dessa modeller förutspår fMRI neural aktivitet tillräckligt väl att det framgångsrikt kan matcha ord det ännu inte har stött på sina tidigare osynliga fMRI-bilder, med noggrannheter långt över de förväntade av en slump. Dessa resultat etablerar en direkt, prediktiv relation mellan statistiken över ordet co-occurrence i text och neural aktivering i samband med tänkande om ordbetydelser. Närma er. Vi använder en tränad beräkningsmodell som förutsäger den neurala aktiveringen för varje given stimulansord w med hjälp av en tvåstegsprocess, illustrerad i bild. 1................................................................ Med tanke på en godtycklig stimulans ord w, det första steget kodar betydelsen av w som en vektor för mellanliggande semantiska funktioner som beräknas från förekomsten av stimulans ord w i en mycket stor text corpus (25) som fångar den typiska användningen av ord i engelsk text. Till exempel, en mellanliggande semantisk funktion kan vara den frekvens med vilken w co-occurs med verbet "hör". Det andra steget förutsäger den neurala fMRI aktiveringen på varje voxel plats i hjärnan, som en viktad summa av neurala aktiveringar bidrog med var och en av de mellanliggande semantiska funktioner. Mer exakt, den förutsagda aktiveringen y v vid voxel v i hjärnan för word w ges av var f i (w) är värdet av den ith mellanliggande semantiska funktionen för word w, n är antalet semantiska funktioner i modellen, och c vi är en lärd skalar parameter som anger i vilken grad den ith mellanliggande semantiska funktionen aktiverar voxel v. Denna ekvation kan tolkas som att förutsäga den fullständiga fMRI-avbildningen över alla voxlar för stimulans ord w som en viktad summa av bilder, en per semantisk funktion f i. Dessa semantiska funktionsbilder, som definieras av de inlärda c vi, utgör en grunduppsättning av komponentbilder som modellerar hjärnaktiveringen i samband med olika semantiska komponenter i indatastimulansorden. | REF använder fördelningsrepresentationer av ordbetydelse för att modellera den neurala aktivering som observerats i hjärnan när en testperson läser ett konkret substantiv. | 6,105,164 | Predicting human brain activity associated with the meanings of nouns | {'venue': 'Science', 'journal': None, 'mag_field_of_study': ['Medicine', 'Computer Science']} | 81,696 |
I detta dokument studerar vi komplexiteten i beräkning av kapaciated parti storlek problem med en viss kostnadsstruktur som sannolikt kommer att användas i praktiska miljöer. För det enda objektet nya egenskaper införs, klasser av problem som kan lösas av polynom tid algoritmer i.dentifieras, och effektiva lösningsförfaranden ges. Vi visar att specialklasser är N-hårda, och att problemet med två objekt och oberoende konfigurationer är NP-hårda under förhållanden som liknar dem där det enda objekt problemet är lätt. Ämnen för ytterligare forskning diskuteras i det sista avsnittet, På permission från INPE, Brasilien. Forskning som delvis stöds av Conselho National de Pesquisas, Brasilien. | Den computational komplexiteten av kapaciated parti dimensionering problem studeras i REF. | 16,641,390 | Computational Complexity of the Capacitated Lot Size Problem | {'venue': None, 'journal': 'Management Science', 'mag_field_of_study': ['Mathematics']} | 81,697 |
Vi beskriver den gemensamma uppgiften SemEval-2010 om "Länkevenemang och deras deltagare i Discourse". Denna uppgift är en förlängning till den klassiska semantiska rollbeteckningsuppgiften. Medan semantisk rollmärkning traditionellt ses som en meningsuppgift, interagerar lokala semantiska argumentstrukturer tydligt med varandra i ett större sammanhang, t.ex. genom att dela referenser till specifika diskursenheter eller evenemang. I den gemensamma uppgiften tittade vi på en särskild aspekt av sambanden mellan argumentstrukturer, nämligen att koppla lokalt oinstanterade roller till deras medreferenter i det bredare diskurssammanhanget (om sådana medreferenter finns). Denna uppgift är potentiellt fördelaktig för ett antal NLP-program, såsom informationsutdrag, frågesvar eller textsammanfattning. | Den SemEval-2010 Uppgift 10: Länka händelser och deras deltagare i Discourse Ref ) riktade kors-sentence saknas numrerade argument i PropBank och FrameNet. | 12,623,074 | SemEval-2010 Task 10: Linking Events and Their Participants in Discourse | {'venue': 'Workshop on Semantic Evaluations (SemEval)', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,698 |
Abstract-Software-definierade nätverk (SDNs) tillåter större kontroll över nätverksenheter genom att centralisera kontrollplanet, men lägger stor börda på administratören för att manuellt säkerställa säkerhet och korrekt funktion av hela nätverket. Vi listar flera attacker på SDN-styrenheter som bryter mot nätverk topologi och dataplan speeding, och kan monteras av komprometterade nätverk enheter, såsom slutvärdar och mjuka switchar. Vi visar vidare deras genomförbarhet på fyra populära SDN-styrenheter. Vi föreslår att SPHINX upptäcker både kända och potentiellt okända attacker på nätverk topologi och dataplan vidarebefordrar med ursprung i ett SDN. SPHINX utnyttjar den nya abstraktionen av flödesdiagram, som nära motsvarar den faktiska nätverksamheten, för att möjliggöra stegvis validering av alla nätuppdateringar och begränsningar. SPHINX lär sig dynamiskt nya nätverksbeteenden och höjer varningar när det upptäcker misstänkta ändringar av befintliga nätverkskontrollplans beteende. Vår utvärdering visar att SPHINX är kapabel att upptäcka attacker i SDNs i realtid med låga prestanda overheads, och kräver inga ändringar av styrenheter för distribution. | SPHINX REF använder flödesdiagram för att upptäcka säkerhetshot på nätet topologi och vidarebefordra beteende. | 11,303,308 | SPHINX: Detecting Security Attacks in Software-Defined Networks. | {'venue': 'NDSS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,699 |
Abstrakt. Vi anser att n mobila sensorer ligger på en linje som innehåller en barriär som representeras av en ändlig linjesegment. Sensorerna bildar ett trådlöst sensornätverk och kan röra sig inom linjen. En inkräktare som passerar barriären kan upptäckas endast när den är inom avkänningsintervallet för minst en sensor. Sensornätverket etablerar barriärtäckning av segmentet om ingen inkräktare kan tränga igenom barriären från någon riktning i planet utan att upptäckas. Med utgångspunkt från godtyckliga inledande positioner av sensorer på linjen är vi intresserade av att hitta slutliga positioner av sensorer som etablerar barriärtäckning och minimerar det maximala avstånd som passeras av någon sensor. Vi skiljer flera varianter av problemet, baserat på (a) om sensorerna har identiska intervall, (b) om fullständig täckning är möjlig eller inte och (c) när fullständig täckning är omöjlig, oavsett om maximal täckning krävs för att vara sammanhängande eller inte. För n-sensorer med samma räckvidd, när fullständig täckning är omöjlig, ger vi linjär tid optimala algoritmer som uppnår maximal täckning, både för sammanhängande och icke sammanhängande fall. När fullständig täckning är möjlig, ger vi en O(n 2 ) algoritm för en optimal lösning, ett linjär tid approximationsschema med approximation faktor 2, och en (1 + ) PTAS. När sensorerna har ojämlika intervall visar vi att en variation av problemet är NP-komplett och identifierar några fall som kan lösas med våra algoritmer för sensorer med ojämlika intervall. | När sensorerna är på linjen av barriären, visas 1D-LBC-problemet optimalt lösbar i O(n 2 ) tid för enhetliga radier i papper REF. | 16,784,289 | On minimizing the maximum sensor movement for barrier coverage of a line segment | {'venue': 'In proceedings of 8th International Conference on Ad Hoc Networks and Wireless', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,700 |
I detta arbete introducerar vi en fullständig end-to-end strategi för att upptäcka åtgärder i videor som lär sig att direkt förutsäga de timliga gränserna för åtgärder. Vår intuition är att processen att upptäcka handlingar är naturligt en process av observation och förfining: observera ögonblick i video, och förfina hypoteser om när en handling sker. Baserat på denna insikt formulerar vi vår modell som ett återkommande neuralt nätverksbaserat medel som interagerar med en video över tid. Agenten observerar videoramar och bestämmer både var du ska titta härnäst och när du ska avge en förutsägelse. Eftersom backpropagation inte är tillräckligt i denna icke-differentierbara miljö, använder vi REINFORCE för att lära sig agentens beslutspolicy. Vår modell uppnår toppmoderna resultat på THUMOS'14 och ActivityNet dataset samtidigt som endast en bråkdel (2% eller mindre) av videoramarna observeras. | Yeung m.fl. REF presenterar en end-to-end inlärningsmetod för att direkt förutsäga tidsgränserna från råa videor. | 4,019,281 | End-to-End Learning of Action Detection from Frame Glimpses in Videos | {'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 81,701 |
Internet-skala distribuerade system såsom innehåll leverans nätverk (CDNs) driver hundratusentals servrar utplacerade på tusentals datacenter platser runt om i världen. Eftersom energikostnaderna för att driva en så stor IT-infrastruktur är en betydande del av de totala driftskostnaderna, argumenterar vi för att omdesigna CDNs för att införliva energioptimeringar som en första ordning princip. Vi föreslår tekniker för att stänga av CDN-servrar under perioder av låg belastning samtidigt försöker balansera tre viktiga designmål: maximera energiminskning, minimera inverkan på klient-upplevd service tillgänglighet (SLA), och begränsa frekvensen av on-off server övergångar för att minska slitage-och-tår och dess inverkan på hårdvara tillförlitlighet. Vi föreslår en optimal offlinealgoritm och en onlinealgoritm för att extrahera energibesparingar både på nivån lokal belastningsbalansering inom ett datacenter och global belastningsbalansering över datacenter. Vi utvärderar våra algoritmer med hjälp av verkliga produktionsbelastningar spår från en stor kommersiell CDN. Våra resultat visar att det är möjligt att minska energiförbrukningen för en CDN med 51% samtidigt som man säkerställer en hög tillgänglighetsnivå som uppfyller kundernas SLA-krav och medför i genomsnitt en on-off-övergång per server och dag. Vidare visar vi att hålla även 10% av servrarna som varma reservdelar hjälper till att absorbera belastningstoppar på grund av globala flash-publiker och minimera eventuella effekter på tillgänglighet SLA. Slutligen visar vi att omfördelning av belastning över mycket proximala datacenter kan förbättra tillgängligheten av tjänster avsevärt, men har bara en blygsam inverkan på energibesparingar. | Referensreferensreferensen föreslår online- och offlinealgoritmer för att minska den totala energiförbrukningen i ett innehållsleveransnätverk genom att driva på och stänga av datacenter genom lokal och global belastningsbalansering. | 8,025,546 | Energy-aware load balancing in content delivery networks | {'venue': '2012 Proceedings IEEE INFOCOM', 'journal': '2012 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Computer Science']} | 81,702 |
Abstract-Vi presenterar en ny distribuerad metod som etablerar rykte-baserat förtroende bland sensorn noder för att identifiera fel och skadliga sensor noder och minimera deras inverkan på applikationer. Vår metod anpassar sig väl till de speciella egenskaperna hos trådlösa sensornätverk, det viktigaste är deras resursbegränsningar. Vår metodik beräknar statistiskt förtroende och ett konfidensintervall kring förtroendet baserat på direkta och indirekta erfarenheter av sensornodbeteende. Genom att ta hänsyn till förtroendeintervallet kan vi studera avvägningen mellan tätheten i förtroendeintervallet och de resurser som används för att samla erfarenheter. Dessutom möjliggör vår strategi dynamisk skalning av redundansnivåer baserat på förtroendeförhållandet mellan noderna i ett trådlöst sensornätverk. Med hjälp av omfattande simuleringar visar vi fördelarna med vår strategi över en strategi som använder statiska redundansnivåer i form av minskad energiförbrukning och längre livslängd i nätverket. Vi finner också att högt förtroende förtroende kan beräknas på varje nod med ett relativt litet minne overhead och används för att bestämma nivån av redundans operationer bland noder i systemet. | Probst Ref presenterar en distribuerad metod som etablerar ryktesbaserade förtroende bland sensornoder för att identifiera fel och skadliga sensornoder och minimera deras inverkan på program. | 1,840,301 | Statistical trust establishment in wireless sensor networks | {'venue': '2007 International Conference on Parallel and Distributed Systems', 'journal': '2007 International Conference on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']} | 81,703 |
Genom det nya godkännandet av dataskyddsförordningen (GDPR) införs nya krav på dataskydd för registeransvariga och registerförare när det gäller behandling av uppgifter om personer med hemvist i Europeiska unionen (EU). Dessa krav består av en enda uppsättning regler som har bindande rättslig status och bör tillämpas i alla EU:s medlemsstater. Mot bakgrund av dessa krav föreslår vi i detta dokument att man använder ett blockkedjebaserat tillvägagångssätt för att stödja dataansvar och spårning av härkomst. Vår strategi bygger på användningen av offentligt auditable kontrakt utplacerade i en blockchain som ökar öppenheten när det gäller tillgång och användning av data. Vi identifierar och diskuterar tre modeller för vår strategi med olika granularitets- och skalbarhetskrav där avtal kan användas för att koda dataanvändningspolicyer och härkomstspårningsinformation på ett integritetsvänligt sätt. Utifrån dessa tre modeller har vi designat, implementerat och utvärderat en modell där avtal används av registrerade för varje personuppgiftsansvarig, och en modell där försökspersoner ansluter sig till avtal som används av personuppgiftsansvariga om de accepterar villkoren för datahantering. Våra genomföranden visar i praktiken på genomförbarheten och begränsningarna av kontrakt för de ändamål som anges i detta dokument. • Säkerhet och integritet → Informationsansvar och användningskontroll; KEYWORDS dataansvarsskyldighet, blockchain, smarta kontrakt ARES '17, Reggio Calabria, Italien | I REF förlitar sig upphovsmännen på användningen av offentligt revisionsföretag. | 1,270,866 | A Blockchain-based Approach for Data Accountability and Provenance Tracking | {'venue': "ARES '17", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,704 |
Medan parafrasering är avgörande både för tolkning och generering av naturligt språk, använder nuvarande system manuella eller halvautomatiska metoder för att samla parafraser. Vi presenterar en oövervakad inlärningsalgoritm för identifiering av parafraser från en corpus av flera engelska översättningar av samma källtext. Vårt tillvägagångssätt ger fraser och enstaka ord lexiska parafraser samt syntaktiska parafraser. | REF använde flera engelska översättningar av samma källtext för parafrasextrahering. | 9,842,595 | Extracting Paraphrases From A Parallel Corpus | {'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,705 |
Djupa neurala nätverk är kraftfulla svarta box prediktorer som nyligen har uppnått imponerande prestanda på ett brett spektrum av uppgifter. Kvantifiera prediktiv osäkerhet i neurala nätverk är ett utmanande och ändå olöst problem. Bayesian neurala nätverk, som lär sig en fördelning över vikter, är för närvarande den state-of-the-art för att uppskatta prediktiv osäkerhet; dock dessa kräver betydande ändringar i utbildningsförfarandet och är beräknings dyrt jämfört med standard (icke-bayesian) neurala nätverk. Vi föreslår ett alternativ till Bayesian neurala nätverk, som är enkel att genomföra, lätt parallelliserbar och ger hög kvalitet prediktiva osäkerhet uppskattningar. Genom en rad experiment på klassificerings- och regressionsriktmärken visar vi att vår metod producerar väl kalibrerade osäkerhetsberäkningar som är lika bra eller bättre än ungefärliga Bayesiska neurala nätverk. För att bedöma robustheten till datasetförskjutning, utvärderar vi den prediktiva osäkerheten på testexempel från kända och okända distributioner, och visar att vår metod kan uttrycka högre osäkerhet på osedda data. Vi visar skalbarheten av vår metod genom att utvärdera prediktiva osäkerhetsberäkningar på ImageNet. | Ett alternativt tillvägagångssätt liknar där variansen av förutsägelser av flera nätverk används för att kvantifiera den prediktiva osäkerhet REF. | 6,294,674 | Simple and Scalable Predictive Uncertainty Estimation using Deep Ensembles | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 81,706 |
Abstract-Många organisationer vill förutsäga antalet defekter (fel) i mjukvarusystem, innan de är utplacerade, för att mäta den sannolikt levererade kvalitet och underhåll arbete. För att hjälpa till med detta har ett stort antal programvarumått och statistiska modeller tagits fram, med en motsvarande stor litteratur. Vi ger en kritisk granskning av denna litteratur och den senaste tekniken. De flesta av de många modellerna använder storleks- och komplexitetsmått för att förutsäga fel. Andra bygger på testdata, utvecklingsprocessens "kvalitet" eller en multivariat strategi. Författarna till modellerna har ofta gjort heroiska bidrag till ett ämne som annars berövats empiriska studier. Det finns dock ett antal allvarliga teoretiska och praktiska problem i många studier. Modellerna är svaga på grund av sin oförmåga att hantera det hittills okända sambandet mellan defekter och misslyckanden. Det finns grundläggande statistik- och datakvalitetsproblem som undergräver modellens giltighet. Mer påtagligt många förutsägelser modeller tenderar att modellera endast en del av det underliggande problemet och allvarligt missuppfatta det. För att illustrera dessa punkter "Goldilocks hypotes", att det finns en optimal modulstorlek, används för att visa de betydande problem som ingår i nuvarande fel förutsägelse metoder. Noggrann och genomtänkt analys av tidigare och nya resultat visar att hypotesen saknar stöd och att vissa modeller är vilseledande. Vi rekommenderar holistiska modeller för förutsägelse av programvarudefekter, med hjälp av Bayesian Belief Networks, som alternativa metoder till de single-issue-modeller som används för närvarande. Vi argumenterar också för forskning om en teori om "programvara nedbrytning" för att testa hypoteser om fel introduktion och bidra till att bygga en bättre vetenskap om programvaruteknik. | REF presenterade att storleks- och komplexitetsmått är bland de tidigare metoderna för att förutsäga fel. | 1,084,381 | A Critique of Software Defect Prediction Models | {'venue': 'IEEE Transactions on Software Engineering', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,707 |
Upptäckten i realtid av lokala händelser (t.ex. protester, brott, katastrofer) är av stor betydelse för olika tillämpningar, såsom brottsövervakning, katastrofvariabel och aktivitetsrekommendation. Även om denna uppgift var nästan omöjlig för flera år sedan på grund av bristen på aktuella och tillförlitliga datakällor, den senaste tidens explosiva tillväxt i geo-taggade tweet data ger nya möjligheter till det. Med detta sagt, hur man extrahera kvalitet lokala händelser från geo-taggade tweet strömmar i realtid förblir till stor del olösta hittills. Vi föreslår GEOBURST, en metod som möjliggör effektiv och realtid lokal händelse upptäckt från geo-taggade tweet strömmar. Med en ny myndighetsåtgärd som fångar geotopiska korrelationer mellan tweets identifierar GEOBURST först flera pivot i frågefönstret. Sådana pivot fungerar som representativa tweets för potentiella lokala evenemang och naturligtvis locka liknande tweets för att bilda kandidatevenemang. För att välja verkligt intressanta lokala händelser från kandidatlistan sammanfattar GEOBURST ytterligare kontinuerliga tweetströmmar och jämför kandidaterna med historiska aktiviteter för att få spatiotemporalt spruckna. Slutligen, GEOBURST har också en uppdatering modul som hittar nya pivot med lite tid kostnad när frågefönstret skiftar. Som sådan kan GEOBURST övervaka kontinuerliga strömmar i realtid. Vi använde crowdsourcing för att utvärdera GEOBURST på två verkliga datamängder som innehåller miljontals geo-taggade tweets. Resultaten visar att GEOBURST betydligt överträffar toppmoderna metoder i precision, och är storleksordningar snabbare. | En annan toppmodern metod är GeoBurst Ref. | 15,098,872 | GeoBurst: Real-Time Local Event Detection in Geo-Tagged Tweet Streams | {'venue': "SIGIR '16", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,708 |
De flesta befintliga maskininlärningsklasser är mycket sårbara för kontradiktoriska exempel. Ett kontradiktoriskt exempel är ett urval av indata som har modifierats mycket lite på ett sätt som är avsett att få en maskin som lär sig klassificering att felklassificera den. I många fall kan dessa modifieringar vara så subtila att en mänsklig iakttagare inte ens lägger märke till ändringen alls, men klassifieraren gör ändå ett misstag. Motståndskraftiga exempel utgör säkerhetsproblem eftersom de kan användas för att utföra en attack på maskininlärningssystem, även om motståndaren inte har någon tillgång till den underliggande modellen. Hittills har allt tidigare arbete antagit en hotmodell där motståndaren kan mata in data direkt i maskininlärningsklassen. Detta är inte alltid fallet för system som fungerar i den fysiska världen, till exempel de som använder signaler från kameror och andra sensorer som en ingång. Detta dokument visar att även i sådana fysiska världsscenarier är maskininlärningssystem sårbara för kontradiktoriska exempel. Vi demonstrerar detta genom att mata in kontradiktoriska bilder från mobilkamera till en ImageNet Inception-klassificering och mäta systemets klassificeringsnoggrannhet. Vi finner att en stor del av kontradiktoriska exempel klassificeras felaktigt även när de uppfattas via kameran. | Kurakin m.fl. REF visade att de kontradiktoriska bilder som erhållits från en mobilkamera fortfarande kan lura en ImageNet-klassificerare. | 1,257,772 | Adversarial examples in the physical world | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 81,709 |
Spectral inbäddning ger en ram för att lösa perceptuella organisationsproblem, inklusive bildsegmentering och figur / mark organisation. Från en affinitetsmatris som beskriver parvisa relationer mellan bildpunkter samlar den bildpunkter i regioner och, med hjälp av en komplext värderad förlängning, beställer bildpunkter enligt lager. Vi tränar ett konvolutionellt neuralt nätverk (CNN) för att direkt förutsäga de parvisa relationer som definierar denna affinitetsmatris. Spektral inbäddning löser sedan dessa förutsägelser in i en globalt konsekvent segmentering och figur / mark organisation av scenen. Experiment visar på betydande fördelar för denna direktkoppling jämfört med tidigare arbeten som använder explicita mellanliggande stadier, t.ex. kantdetektering, på vägen från bild till affinitet. Våra resultat föreslår spektral inbäddning som ett kraftfullt alternativ till det villkorliga slumpmässiga fältet (CRF)-baserade globaliseringssystem vanligtvis kopplade till djupa neurala nätverk. | Maire m.fl. REF utbildade en djup CNN för att direkt förutsäga enheterna i en affinitetsmatris, som visade god prestanda på bildsegmentering. | 248,170 | Affinity CNN: Learning Pixel-Centric Pairwise Relations for Figure/Ground Embedding | {'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 81,710 |
Abstract-De snabbt utveckla cloud computing och virtualisering tekniker ger mobila enheter med batteri energisparande möjligheter genom att låta dem avlasta beräkning och köra program på distans. En mobil enhet bör på ett klokt sätt avgöra om man ska avlasta beräkningen och vilken del av applikationen som ska avlastas till molnet. I detta dokument anser vi att det finns ett interaktivt system för mobila molntjänster (MCC) bestående av flera mobila enheter och molntjänster. Vi tillhandahåller en inbäddad tvåstegs spelformulering för MCC interaktionssystem. I det första steget bestämmer varje mobil enhet den del av sin serviceförfrågningar om fjärrbehandling i molnet. I det andra steget fördelar molntjänsterna en del av sina totala resurser för behandling av serviceförfrågningar beroende på ankomsthastigheten för begäran från alla mobila enheter. Målet för varje mobil enhet är att minimera dess strömförbrukning samt serviceförfrågans svarstid. Målet med cloud computing controller är att maximera sin egen vinst. Baserat på principen bakåt induktion, härleder vi den optimala eller nästan optimala strategin för alla mobila enheter samt molnet dator controller i boet två steg spel med konvex optimering teknik. Experimentella resultat visar hur effektivt det föreslagna tvåstegsspelbaserade ramverket för optimering av MCC:s interaktionssystem är. De mobila enheterna kan samtidigt minska den genomsnittliga strömförbrukningen och den genomsnittliga svarstiden för serviceförfrågan med 21,8 % respektive 31,9 % jämfört med referensmetoderna. | Ref överväga ett interaktionssystem för mobila molntjänster (MCC) bestående av flera mobila enheter och molntjänster. | 9,604,146 | A Nested Two Stage Game-Based Optimization Framework in Mobile Cloud Computing System | {'venue': '2013 IEEE Seventh International Symposium on Service-Oriented System Engineering', 'journal': '2013 IEEE Seventh International Symposium on Service-Oriented System Engineering', 'mag_field_of_study': ['Computer Science']} | 81,711 |
Abstract-Topology kontroll i ett sensornätverk balanserar belastningen på sensornoder och ökar nätverkets skalbarhet och livslängd. Klustersensorn noder är en effektiv topologi kontroll metod. I detta dokument föreslår vi en ny distribuerad klusterstrategi för långlivade ad hoc-sensornätverk. Vårt föreslagna tillvägagångssätt gör inga antaganden om förekomsten av infrastruktur eller om nodkapacitet, förutom tillgängligheten av flera effektnivåer i sensornoder. Vi presenterar ett protokoll, HEED (Hybrid Energy-Efficient Distribuated clustering), som periodiskt väljer klusterhuvuden enligt en hybrid av noden restenergi och en sekundär parameter, såsom nod närhet till sina grannar eller nod grad. HEED avslutas i Oð1 ska iterationer, ådrar sig låga budskap overhead, och uppnår ganska enhetlig kluster huvud distribution över nätverket. Vi bevisar att, med lämpliga gränser på nodtäthet och intrakluster och intercluster överföringsintervall, kan HEED asymptotiskt säkert garantera anslutning av klustererade nätverk. Simuleringsresultat visar att vårt föreslagna tillvägagångssätt är effektivt för att förlänga nätverkets livslängd och stödja skalbar dataaggregation. | Hybridenergieffektiv distribuerad klusterbildning (HEED) REF har högre omkostnader för CH-val. | 2,012,679 | HEED: a hybrid, energy-efficient, distributed clustering approach for ad hoc sensor networks | {'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']} | 81,712 |
Säker och skalbar datadelning är avgörande för samverkande kliniska beslut. Konventionella kliniska datainsatser är dock ofta slutna, vilket skapar hinder för ett effektivt informationsutbyte och hindrar ett effektivt beslut om behandling som fattas för patienterna. Detta dokument ger fyra bidrag till studien av tillämpningen av blockkedjeteknik på klinisk datadelning inom ramen för de tekniska krav som fastställs i den gemensamma nationella färdplanen för interoperabilitet från kontoret för den nationella samordnaren för hälsoinformationsteknik (ONC). Först analyserar vi ONC-kraven och deras konsekvenser för blockkedjebaserade system. För det andra presenterar vi FHIRChain, som är en blockchain-baserad arkitektur utformad för att uppfylla ONC krav genom att inkapsla HL7 Fast Healthcare Interoperability Resources (FHIR) standard för delade kliniska data. För det tredje visar vi en FHIRChain-baserad decentraliserad app med hjälp av digitala hälsoidentiteter för att autentisera deltagare i en fallstudie av samverkande beslutsfattande för fjärrcancervård. För det fjärde lyfter vi fram de viktigaste lärdomarna från vår fallstudie. | För att uppfylla kraven för utbyte av hälsojournaler från Byrån för den nationella samordnaren för hälsoinformationsteknik (ONC) presenterade REF FHIRchain, en modell baserad på Blockchain som använder standarden HL7 Fast Healthcare Interoperability Resources (FHIR) för utbyte av hälsojournaler. | 6,131,403 | FHIRChain: Applying Blockchain to Securely and Scalably Share Clinical Data | {'venue': 'Computational and structural biotechnology journal', 'journal': 'Computational and structural biotechnology journal', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 81,713 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.