src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
I detta dokument föreslår vi en ny metod som kombinerar PubMed kunskap och Electronic Health Records för att utveckla en viktad Bayesian Network Inference (BNI) modell för bukspottkörtelcancer förutsägelse. Vi valde ut 20 gemensamma riskfaktorer i samband med pankreascancer och använde PubMed kunskap för att väga riskfaktorerna. En nyckelordsbaserad algoritm utvecklades för att extrahera och klassificera PubMed abstracts i tre kategorier som representerade positiva, negativa eller neutrala associationer mellan varje riskfaktor och pankreascancer. Sedan konstruerade vi en viktad BNI-modell genom att lägga till normaliserade vikter i en konventionell BNI-modell. Vi använde denna modell för att extrahera EHR-värdena för patienter med eller utan pankreascancer, vilket gjorde det möjligt för oss att beräkna de tidigare sannolikheterna för de 20 riskfaktorerna i BNI. Programvaran iDiagnosis var utformad för att använda denna viktade BNI modell för att förutsäga pankreascancer. I en utvärdering med hjälp av en uppsättning fallkontrolldata överträffade den viktade BNI-modellen betydligt den konventionella BNI-modellen och två andra klassiatorer (k-Nearest Neighbor and Support Vector Machine). Vi drar slutsatsen att den viktade BNI med hjälp av PubMed kunskap och EHR data visar anmärkningsvärd noggrannhet förbättring jämfört med befintliga representativa metoder för bukspottkörtelcancer förutsägelse. | Ett försök att kombinera PubMed-kunskap och EHR-data, för att utveckla en cancerriskkalkylator, beskrivs i REF. | 21,583,151 | Combining PubMed knowledge and EHR data to develop a weighted bayesian network for pancreatic cancer prediction | {'venue': 'Journal of biomedical informatics', 'journal': 'Journal of biomedical informatics', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 2,959 |
Abstract-I detta papper beskriver vi en metod för att upptäcka frekvent beteendemönster i händelseloggar. Vi uttrycker dessa mönster som lokala processmodeller. Lokal processmodell gruvdrift kan placeras i-mellan process upptäckt och episod / sekventiella mönster gruvdrift. Den teknik som presenteras i detta papper kan lära beteendemönster som involverar sekventiell sammansättning, samstämmighet, val och loop, som i processbrytning. Men vi tittar inte på start-till-slut modeller, som skiljer vår strategi från process upptäckt och skapar en länk till episod / sekventiella mönster gruvdrift. Vi föreslår ett stegvist förfarande för att bygga lokala processmodeller som fångar upp frekventa mönster baserade på så kallade processträd. Vi föreslår fem kvalitetsmått och motsvarande mått för lokala processmodeller, med tanke på en händelselogg. Vi visar monotonitet egenskaper för vissa kvalitetsdimensioner, vilket möjliggör en upptrappning av lokala processmodell upptäckt genom beskärning. Vi visar genom en verklig fallstudie att gruvdrift lokala mönster gör att vi kan få insikter i processer där regelbundna start-to-end process upptäckt tekniker bara kan lära sig ostrukturerade, blomliknande, modeller. | Ett annat tillvägagångssätt, som kallas lokal processbrytning, presenteras i REF. | 10,872,379 | Mining Local Process Models | {'venue': 'Journal of Innovation in Digital Ecosystems volume 3 issue 2 (2016), pages 183-196', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 2,960 |
Abstract-Social media utgör en central domän för produktion och spridning av realtidsinformation. Även om sådana informationsflöden traditionellt sett har betraktats som spridningsprocesser över sociala nätverk, är de underliggande fenomenen resultatet av ett komplext nät av interaktioner mellan många deltagare. Här utvecklar vi en Linear Influence Model där vi istället för att kräva kunskap om det sociala nätverket och sedan modellera diffusionen genom att förutsäga vilken nod som kommer att påverka vilka andra noder i nätverket, fokuserar på att modellera den globala påverkan av en nod på spridningshastigheten genom (implicit) nätverket. Vi modellerar antalet nyinfekterade noder som en funktion av vilka andra noder blev infekterade i det förflutna. För varje nod uppskattar vi en påverkansfunktion som kvantifierar hur många efterföljande infektioner som kan tillskrivas påverkan av den noden över tid. En icke-parametrisk formulering av modellen leder till en enkel minsta kvadrat problem som kan lösas på stora datauppsättningar. Vi validerar vår modell på en uppsättning av 500 miljoner tweets och en uppsättning av 170 miljoner nyheter och blogginlägg. Vi visar att Linear Influence Model exakt modellerar influenser av noder och på ett tillförlitligt sätt förutspår tidsdynamiken av informationsspridning. Vi finner att de enskilda deltagarnas påverkansmönster skiljer sig avsevärt åt beroende på typen av nod och ämnet för informationen. | För modellering av den globala påverkan av noder, Yang et al. REF föreslog Linear Influence Model som tar nyinfekterade noder som en funktion av de tider då andra noder blev infekterade i det förflutna. | 14,557,557 | Modeling Information Diffusion in Implicit Networks | {'venue': '2010 IEEE International Conference on Data Mining', 'journal': '2010 IEEE International Conference on Data Mining', 'mag_field_of_study': ['Computer Science']} | 2,961 |
Abstract-This paper introducerar SLAW, en skalbar Localityaware Adaptive Work-stealing schemaläggare. SLAW schemaläggaren är utformad för att ta itu med två vanliga begränsningar i nuvarande worksealing schemaläggare: användning av en fast uppgift schemaläggning politik och lokalitet-obliviousness på grund av slumpmässig stöld. Tidigare arbete har visat på fördelarna och nackdelarna med att använda fasta schemaläggningspolicyer, såsom arbets-först och hjälp-först, i olika fall utan en tydlig vinst för den ena politiken över den andra. SLAW schemaläggaren tar itu med denna begränsning genom att stödja både arbete-först och hjälp-första politik samtidigt. Det gör det genom att använda ett adaptivt tillvägagångssätt som väljer en schemaläggningspolicy per uppgift vid körning. SLAW schemaläggaren sätter också gränser på stacken och hög utrymme som behövs för att lagra uppgifter. De experimentella resultaten för de riktmärken som studeras i detta papper visar att SLAW adaptiva schemaläggaren uppnår 0,98× till 9,2× speedup över help-första schemaläggaren och 0,97× till 4,5× speedup över arbets-första schemaläggaren för 64-tråd utföranden, vilket skapar robustheten av att använda en adaptiv strategi i stället för en fast politik. I kontrast, den hjälp-första politiken är 9,2× långsammare än arbete-först i värsta fallet för en fast hjälp-första politik, och den arbets-första politiken är 3.7× långsammare än hjälp-först i värsta fallet för en fast arbete-första politik. Dessutom, för stora oregelbundna rekursiva parallella beräkningar, adaptiv schemaläggaren körs med begränsad stack användning och uppnår prestanda (och stöder datastorlekar) som inte kan levereras genom användning av någon enskild fast politik. Det är också känt att arbets-stjäl schemaläggare kan vara cachunvänlig för vissa applikationer på grund av slumpmässig stöld. SLAW schemaläggaren är utformad för programmeringsmodeller där lokalitet tips ges till körtiden av programmeraren eller kompilatorn, och uppnår lokal medvetenhet genom att gruppera arbetare till platser. Lokal medvetenhet kan leda till bättre prestanda genom att öka återanvändningen av tidsdata inom en arbetstagare och bland arbetstagare på samma plats. Våra experimentella resultat visar att lokal-medveten schemaläggning kan uppnå upp till 2,6× speedup över locality-oblivious schemaläggning, för de riktmärken som studeras i detta dokument. | I SLAW REF är arbetstagarna grupperade i platser och en arbetstagare får bara stjäla uppgifter från andra arbetstagare på samma plats. | 259,092 | SLAW: A scalable locality-aware adaptive work-stealing scheduler | {'venue': 'IPDPS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 2,962 |
Abstrakt. För olika tillämpningar finns det ett behov av att jämföra likheten mellan två processmodeller. Till exempel, med tanke på as-is och att bli modeller för en viss affärsprocess, skulle vi vilja veta hur mycket de skiljer sig från varandra och hur vi effektivt kan omvandla as-is till att-vara-modellen; eller med tanke på en löpande process instans och dess ursprungliga process schema, kan vi vara intresserade av avvikelserna mellan dem (t.ex. på grund av ad hoc-förändringar på instansnivå). Respektiva överväganden kan till exempel vara användbara för att minimera ansträngningarna för att sprida schemat förändringar även i andra processfall. Alla dessa scenarier kräver en metod för att mäta likheten eller avståndet mellan två processmodeller baserat på ansträngningarna för omvandling. I detta dokument ger vi en strategi med hjälp av digital logik för att utvärdera avståndet och likheten mellan två processmodeller baserade på hög nivå förändring (t.ex. för att lägga till, ta bort eller flytta aktiviteter). På så sätt kan vi inte bara garantera att omvandlingen resulterar i en sund processmodell, utan också se till att insatserna minimeras. | Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. I Ref föreslås ett strukturellt tillvägagångssätt för att fastställa likheten mellan affärsmodeller. | 3,957,822 | On measuring process model similarity based on high-level change operations | {'venue': 'In ER ’08', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']} | 2,963 |
Abstract-Motivated av den pågående diskussionen om samordnade multipoint i trådlösa cellulära standard organ, i detta dokument behandlar problemet med basstation samarbete i nedlänken av heterogena cellulära nätverk. Fokus för detta dokument är det gemensamma överföringsscenariot, där ett idealiskt backhaul-nätverk tillåter en uppsättning slumpmässigt placerade basstationer, eventuellt tillhörande olika nätverksnivåer, att gemensamt överföra data, att minska intercellinterferens och därmed förbättra täckning och spektral effektivitet. Med hjälp av verktyg från stokastisk geometri, ett integral uttryck för nättäckning sannolikhet härleds i scenariot där den typiska användaren ligger på en godtycklig plats, dvs. den allmänna användaren, tar emot data från en pool av basstationer som väljs baserat på deras genomsnittliga mottagna effektnivåer. Ett uttryck för täckningsannolikheten härleds också för den typiska användaren som befinner sig på samma punkt från tre basstationer, som vi kallar den sämsta användaren. I det särskilda fallet där samarbetet är begränsat till två basstationer visar numeriska utvärderingar att sannolikheten för täckning ökar med upp till 17 % för den allmänna användaren och 24 % för den sämsta användaren jämfört med det icke samarbetsvilliga fallet. Det visas också att ingen mångfaldsvinst uppnås med hjälp av icke-sammanhängande gemensam överföring, medan full mångfaldsvinst kan uppnås hos mottagaren om de sändande basstationerna har kanalstatsinformation. | En annan stokastisk geometribaserad ram som studerar problemet med BS-samarbete i nedlänken för heterogena nätverk finns i REF. | 2,856,585 | Coordinated Multipoint Joint Transmission in Heterogeneous Networks | {'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Computer Science']} | 2,964 |
Det är svårt att tillämpa maskininlärning på nya domäner eftersom vi ofta saknar märkta problemfall. I detta dokument tillhandahåller vi en lösning på detta problem som utnyttjar domänkunskap i form av affinitet mellan indatafunktioner och klasser. Till exempel, i en baseball vs. hockey text klassificering problem, även utan någon märkt data, vi vet att närvaron av ordet puck är en stark indikator på hockey. Vi hänvisar till denna typ av domänkunskap som en märkt funktion. I detta dokument föreslår vi en metod för utbildning av diskriminativa probabilistiska modeller med märkta funktioner och omärkta fall. Till skillnad från tidigare metoder som använder märkta funktioner för att skapa märkta pseudo-instances, använder vi märkta funktioner direkt för att begränsa modellens förutsägelser på omärkta instanser. Vi uttrycker dessa mjuka begränsningar med hjälp av generaliserade förväntningar (GE) kriteriertermer i en parameter uppskattning objektiv funktion som uttrycker preferenser på värden av en modell förväntan. I detta papper tränar vi multinomiska logistiska regressionsmodeller med GE-kriterier, men den metod vi utvecklar är tillämplig på andra diskriminativa probabilistiska modeller. Den fullständiga objektiva funktionen inkluderar också en Gaussian tidigare på parametrar, som uppmuntrar generalisering genom att sprida parametervikt till omärkta funktioner. Experimentella resultat på textklassificeringsdata visar att denna metod överträffar heuristiska metoder för utbildningsklassificeringar med märkta funktioner. Experiment med mänskliga annoterare visar att det är mer fördelaktigt att lägga begränsad tid på att märka funktioner i stället för att märka fall. Till exempel, efter bara en minut av märkning funktioner, kan vi uppnå 80% noggrannhet på ibm vs. mac text klassificering problem med GE-FL, medan tio minuter märkning dokument resulterar i en noggrannhet på endast 77% | I motsats till detta, Druck et al. REF begränsar resultaten av en multinomiell logistisk regressionsmodell för att matcha vissa referensfördelningar som är förknippade med märkta funktioner. | 14,201,460 | Learning from labeled features using generalized expectation criteria | {'venue': "SIGIR '08", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 2,965 |
Framsteg inom halvledarteknik har placerat MPSoCs centrumstadium som en standardarkitektur för inbyggda applikationer med ständigt ökande komplexitet. På grund av begränsningar i realtid, program är vanligtvis statiskt parallelliserade och schemalagda på målet MPSoC för att få förutsägbara värsta-fall prestanda. Både teknikskalningstrender och resurskonkurrens mellan tillämpningar har dock lett till variationer i tillgången på resurser under genomförandet, vilket ifrågasätter den dynamiska livskraften hos de initiala statiska schemana. För att eliminera detta problem föreslår vi i detta dokument att statiskt generera ett kompakt schema med förutsägbara svar på olika resurstillgänglighet begränsningar. Sådana scheman genereras genom att man håller fast vid en ny bandstruktur, som dynamiskt kan ge upphov till en regelbunden omfördelning vid resursvariationer. Genom att införliva flera mjuka begränsningar i den ursprungliga schemaläggning heuristiska, den föreslagna tekniken kan dessutom utnyttja den inneboende timing slack mellan beroende uppgifter och därmed behålla den rumsliga och timliga lokaliteten i det ursprungliga schemat. Effektiviteten av den föreslagna tekniken bekräftas genom att den införlivas i en allmänt antagen lista schemaläggning heuristisk, och experimentellt kontrollera den i samband med en enda processor deallocations. | Yang m.fl. I REF föreslås ett tillvägagångssätt för att generera scheman med förutsägbar respons på fel. | 6,109,791 | Predictable execution adaptivity through embedding dynamic reconfigurability into static MPSoC schedules | {'venue': "CODES+ISSS '07", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 2,966 |
Sammanfattning av denna webbsida: Aktiva termografimetoder möjliggör strukturella undersökningar av förstärkta betongelement med hänsyn till många olika testproblem. Syftet med denna översyn är att ge en översikt över den senaste tekniken när det gäller användningen av aktiv infraröd termografi (IRT) för detektion och karakterisering av defekter i armerad betong. Papperet kommer att ge den fysiska bakgrunden, utrustning som används, samt efterbehandlingsmetoder som används för att analysera sekvenser av termogram. I detta arbete presenteras också IRT:s tillämpbarhetsområden med fokus på aspekter som rör förstärkta konkreta strukturer samt fördelar, begränsningar och potentiella källor till fel i IRT:s sysselsättning. Dessutom presenteras tidigare icke-förstörande test (NDT) studier som använde termografi tekniker med naturlig excitation kortfattat. En genomgång av de framtida trenderna för termisk avbildning ingår också i detta arbete. Man kan dra slutsatsen att även om IRT är ett användbart verktyg för karakterisering av defekter inom byggsektorn finns det stora utsikter till utveckling av mer avancerade, effektiva och korrekta metoder som kommer att använda en kombination av termografimetoder. | Milovanovi, etc. REF presenterar en översyn av aktiv infraröd termografi (IR) för upptäckt av defekter. | 15,697,276 | Review of Active IR Thermography for Detection and Characterization of Defects in Reinforced Concrete | {'venue': 'J. Imaging', 'journal': 'J. Imaging', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 2,967 |
Vektor-rymd ord representationer har varit mycket framgångsrik under de senaste åren på att förbättra prestanda för en mängd olika NLP uppgifter. Men, gemensamt för de flesta befintliga verk, ord betraktas som oberoende enheter utan något uttryckligt samband mellan morfologiskt relaterade ord som modelleras. Som ett resultat är sällsynta och komplexa ord ofta dåligt uppskattade, och alla okända ord representeras på ett ganska grovt sätt med bara en eller några vektorer. Detta dokument tar upp denna brist genom att föreslå en ny modell som kan skapa representationer för morfologiskt komplexa ord från deras morfem. Vi kombinerar rekursiva neurala nätverk (RNNs), där varje morpheme är en grundläggande enhet, med neurala språkmodeller (NLMs) att överväga kontextuell information i lärande morfologiskt medvetna ord representationer. Våra lärda modeller överträffar befintliga ordrepresentationer med god marginal på ordliknande uppgifter i många datauppsättningar, bland annat en ny datauppsättning som vi introducerar med fokus på sällsynta ord för att komplettera befintliga ord på ett intressant sätt. | I NLP och text mining domän, REF föreslog en morfologisk Recursive Neural Network (morphoRNN) som kombinerar rekursiva neurala nätverk och neurala språkmodeller för att lära sig bättre ord representationer, där de betraktade varje morpheme som en grundläggande enhet och utnyttjade neurala språk modeller för att överväga kontextuell information i lärande morfologiskt medvetna ord representationer. | 14,276,764 | Better Word Representations with Recursive Neural Networks for Morphology | {'venue': 'CoNLL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 2,968 |
på Abstract-Crowdsourcing är en process för förvärv, integration och analys av stora och heterogena data som genereras av en mångfald av källor i städer, såsom sensorer, enheter, fordon, byggnader och människor. Särskilt nu för tiden finns det inga länder, inga samhällen och ingen person är immun mot nödsituationer i städerna. Detektion om nödsituationer i städerna, t.ex. bränder, stormar, trafikstockningar är av stor betydelse för att skydda människors säkerhet. På senare tid har sociala medier snabbt vuxit fram som en ny plattform för att tillhandahålla och sprida information som ofta är geografisk. Innehållet från sociala medier innehåller vanligtvis hänvisningar till nödsituationer i städer som inträffar på eller påverkar specifika platser. I detta dokument föreslås 5W (Vad, Var, När, Vem och varför) modellen för att upptäcka och beskriva den urbana nödsituationen i realtid. För det första sätts användare av sociala medier som mål för crowd sourcing. För det andra utvinns den rumsliga och tidsmässiga informationen från sociala medier för att upptäcka realtidshändelsen. För det tredje visas en GIS-baserad notering av den upptäckta nödsituationen i städerna. Den föreslagna metoden utvärderas med omfattande fallstudier baserade på verkliga nödsituationer i städerna. Resultaten visar den föreslagna metodens noggrannhet och effektivitet. | En 5W (Vad, Var, När, Vem och varför) modell baserad på sociala medier big data har föreslagits i REF för hantering av urbana nödsituationer. | 27,122,022 | Crowdsourcing based Description of Urban Emergency Events using Social Media Big Data | {'venue': None, 'journal': 'IEEE Transactions on Cloud Computing', 'mag_field_of_study': ['Computer Science']} | 2,969 |
Klassiskt, tränings relationsextraktorer bygger på hög kvalitet, manuellt kommenterade träningsdata, som kan vara dyrt att få. För att minska denna kostnad har NLU-forskare övervägt två nya källor till billigare (men potentiellt lägre kvalitet) märkta data från fjärrövervakning och crowd sourcing. Det finns dock ingen studie som jämför dessa två källors relativa inverkan på precisionen och återkallandet av svar efter lärandet. För att fylla denna lucka studerar vi empiriskt hur de senaste teknikerna påverkas av att skala upp dessa två källor. Vi använder corpus storlekar på upp till 100 miljoner dokument och tiotusentals crowd-source märkta exempel. Våra experiment visar att en ökning av corpusstorleken för fjärrövervakning har en statistiskt signifikant, positiv inverkan på kvaliteten (F1-poäng). Däremot har feedback från människor en positiv och statistiskt signifikant, men lägre, inverkan på precision och återkallande. | REF undersökte hur storleken på crowdsourcing träning corpus och avlägsna övervakning corpus påverkar prestandan hos relationsextraktorn. | 6,576,325 | Big Data versus the Crowd: Looking for Relationships in All the Right Places | {'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 2,970 |
Vi introducerar en teknik för att bedöma och förbättra test orakel genom att minska förekomsten av både falska positiva och falska negativa. Vi bevisar att vår strategi alltid kan resultera i en ökning av den ömsesidiga informationen mellan de faktiska och perfekta orakel. Vår teknik kombinerar test fallgenerering för att avslöja falska positiva och mutationstester för att avslöja falska negativa. Vi tillämpade beslutsstödverktyget som implementerar vår orakle förbättringsteknik till fem verkliga ämnen. De experimentella resultaten visar att feldetektionsfrekvensen hos oraklen efter förbättring i genomsnitt ökar med 48,6% (86% över det implicita oraklet). Tre faktiska, exponerade fel i de studerade systemen bekräftades senare och rättades av utvecklarna. | Jahangirova m.fl. I REF föreslås en teknik för bedömning och förbättring av testorakler. | 15,307,962 | Test oracle assessment and improvement | {'venue': 'ISSTA 2016', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 2,971 |
Abstract-Recent tillvägagångssätt inom robotik följer insikten att perception underlättas av interaktion med miljön. Dessa metoder subsumeras under termen Interactive Perception (IP). Det ger följande fördelar: i) interaktion med miljön skapar en rik sensorisk signal som annars inte skulle vara närvarande och ii) kunskap om regelbundenheten i det kombinerade utrymmet av sensoriska data och handlingsparametrar underlättar förutsägelse och tolkning av signalen. I denna undersökning postulerar vi detta som en princip och samlar bevis till stöd genom att analysera och kategorisera befintligt arbete inom detta område. Vi ger också en översikt över de viktigaste tillämpningarna av Interactive Perception. Vi avslutar denna undersökning genom att diskutera återstående öppna frågor. Därmed hoppas vi kunna definiera ett fält och inspirera till framtida arbete. | Dessa metoder har samlats in under termen Interactive Perception Ref. | 6,144,047 | Interactive Perception: Leveraging Action in Perception and Perception in Action | {'venue': 'IEEE Transactions on Robotics 33 (2017) 1273-1291', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 2,972 |
Abstrakt. Synkrona Kleene algebra (SKA) är en decidable ram som kombinerar Kleene algebra (KA) med en synkrony modell av konvergens. Element av SKA kan ses som processer som äger rum inom en bestämd diskret tidsram och som vid varje tidpunkt steg, kan utföra en eller flera grundläggande åtgärder eller sedan komma till ett stopp. Den synkrona Kleene algebran med test (SKAT) kombinerar SKA med en boolesk algebra. Båda algebras introducerades av Prisacariu, som bevisade ekvationsteorins decidability, genom ett Kleene-teorem baserat på den klassiska Thompson ε-NFA-konstruktionen. Med hjälp av begreppet partiella derivat lägger vi fram ett nytt beslutsförfarande för likvärdighet mellan SKA-termer. Resultaten utökas för SKAT med tanke på automata med övergångar märkta av Booleska uttryck istället för atomer. Detta arbete fortsätter tidigare forskning som gjorts för KA och KAT, där derivatbaserade metoder användes i genomförbara algoritmer för att testa termer ekvivalens. | Ett beslutsförfarande för likvärdighet mellan SKA-termer ges av Broda m.fl. Hoppa över det. | 21,185,916 | Deciding Synchronous Kleene Algebra with Derivatives | {'venue': 'CIAA', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 2,973 |
Målet med flermärkningsklassificeringen är att märka en datapunkt med undergruppen relevanta etiketter från en förspecificerad uppsättning. Med tanke på en uppsättning L-etiketter kan en datapunkt märkas med någon av de möjliga 2 L-undergrupperna. Den största utmaningen ligger därför i att optimera detta exponentiellt stora märkesutrymme som är föremål för märkningssamband. Vårt mål, i detta dokument, är att utforma effektiva algoritmer för multi-märkning klassificering när etiketterna är tätt korrelerade. Framför allt är vi intresserade av det noll-sprängda inlärningsscenariot där märkningens korrelationer på träningssetet kan skilja sig avsevärt från dem på testsetet. Vi föreslår en max-marginal formulering där vi modellerar tidigare etikett korrelationer men inte införlivar pairwise etikett interaktionstermer i förutsägelsefunktionen. Vi visar att problemets komplexitet kan minskas från exponentiellt till linjärt samtidigt som man modellerar täta parvisa tidigare etikettkorrelationer. Genom att inkludera relevanta korrelationsprenumerationer kan vi hantera missmatchningar mellan utbildnings- och teststatistik. Vår föreslagna formulering generaliserar den effektiva 1-vs-All-metoden och vi ger en principiell tolkning av 1-vs-All-tekniken. Vi utvecklar effektiva optimeringsalgoritmer för vår föreslagna formulering. Vi anpassar Sekventiell Minimal Optimisation (SMO) algoritm till multi-etikett klassificering och visar att, med vissa bokföring, kan vi minska träningstiden från att vara super-kvadratisk till nästan linjär i antalet etiketter. Dessutom, genom att effektivt återanvända kärnan cache och gemensamt optimera över alla variabler, kan vi vara storleksordningar snabbare än Editors: Grigorios Tsoumakas, Min-Ling Zhang, och Zhi-Hua Zhou. Lär dig (2012) 88:127-155 de konkurrerande toppmoderna algoritmerna. Vi designar också en specialalgoritm för linjära kärnor baserade på dubbelkoordinerad uppstigning med krympning som gör att vi enkelt kan träna på en miljon punkter med hundra etiketter. | Hariharan m.fl. REF undersökte märkningen korrelationer av hjälpdata via en multi-märkning max-marginal formulering och bet-ter inkorporerade sådana etikett korrelationer som tidigare för multi-klass noll-shot inlärningsproblem. | 765,752 | Efficient max-margin multi-label classification with applications to zero-shot learning | {'venue': 'Machine Learning', 'journal': 'Machine Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 2,974 |
Att tolka en webbsidas semantiska struktur är en viktig del av uthämtningen av webbinformation. Framgångsrika extraktionsalgoritmer kräver vanligtvis storskaliga utbildnings- och utvärderingsdatauppsättningar, som är svåra att förvärva. Nyligen har crowdsourcing visat sig vara en effektiv metod för att samla in storskaliga utbildningsdata inom områden som inte kräver mycket domänkunskap. För mer komplexa områden har forskare föreslagit sofistikerade kvalitetskontrollmekanismer för att replikera uppgifter på parallella eller sekventiella sätt och sedan aggregera svar från flera arbetstagare. Konventionella metoder för integration av noteringar sätter ofta större tillit till de arbetstagare som har höga historiska prestationer, vilket innebär att de kallas prestandabaserade metoder. Nyligen har Rzeszotarski och Kittur visat att beteendemässiga funktioner också är starkt korrelerade med annotering kvalitet i flera crowdsourcing applikationer. I den här artikeln presenterar vi ett nytt crowdsourcing system, som heter Wernicke, för att tillhandahålla anteckningar för webbinformationsutdrag. Wernicke samlar en bred uppsättning beteendemässiga funktioner och, baserat på dessa funktioner, förutsäger kommenterande kvalitet för en utmanande uppgift domän: kommenterande webbsida struktur. Vi utvärderar effektiviteten av kvalitetskontroll med hjälp av beteendefunktioner genom en fallstudie där 32 arbetstagare kommentera 200 Q&A-webbsidor från fem populära webbplatser. När vi gör det, upptäcker vi flera saker: (1) Många beteendemässiga egenskaper är betydande prediktorer för crowdsourcing kvalitet. (2) Den beteende-feature-baserade metoden överträffar prestanda-baserade metoder i återkallande förutsägelse, samtidigt som den utför lika med precision förutsägelse. Dessutom, med hjälp av beteendemässiga funktioner är mindre sårbart för kallstartsproblem, och motsvarande förutsägelse modell är mer generalizable för att förutsäga återkallande än precision för cross-website kvalitetsanalys. | Han och Al. REF presenterade ett nytt crowdsoucing system för att tillhandahålla annoteringar för webbinformation utvinning, som kunde samla en stor uppsättning beteendemässiga funktioner och förutsäga annotation kvalitet för varje arbetare för att kommentera webbsida struktur. | 16,423,128 | Crowdsourcing Human Annotation on Web Page Structure: Infrastructure Design and Behavior-Based Quality Control | {'venue': 'TIST', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 2,975 |
I detta arbete studeras den gemensamma utformningen av förkodning och backhaul-komprimeringsstrategier för nedlänk av molnradionät. I dessa system är en central kodare ansluten till flera multiantenna basstationer (BS) via backhaul-länkar med begränsad kapacitet. Vid den centrala kodaren följs förkodning av komprimering för att producera de hastighetsbegränsade bitströmmar som levereras till varje BS över motsvarande backhaul länk. I nuvarande toppmoderna inflygningar komprimeras de signaler som är avsedda för olika BS oberoende av varandra. Däremot föreslås i detta arbete att man ska utnyttja gemensam kompression, även kallad multivariatkompression, av signaler från olika BS för att bättre kunna kontrollera effekten av additiv kvantiseringsljud vid mobila stationer (MS). Problemet med att maximera den viktade summeringen med avseende på både förkodningsmatrisen och den gemensamma korrelationsmatrisen för kvantiseringsbuller är formulerad under förutsättning att kraft och backhaul kapacitet begränsningar. En iterativ algoritm föreslås som uppnår en stationär punkt av problemet. För att möjliggöra det praktiska genomförandet av multivariatkompression mellan BS föreslås dessutom en ny arkitektur baserad på successiva steg av minsta genomsnittliga feluppskattning (MMSE) och per-BS-komprimering. Robust design med avseende på ofullständig kanalstatsinformation diskuteras också. Från numeriska resultat, det bekräftas att den föreslagna gemensamma förkodning och komprimeringsstrategi överträffar konventionella metoder baserat på separat design av förkodning och komprimering eller oberoende komprimering över BS. | Till skillnad från tidigare studier där kompression utförs oberoende av basstation verksamhet, författarna i REF överväga en gemensam förkodning och backhaul komprimeringsstrategi. | 12,579,970 | Joint Precoding and Multivariate Backhaul Compression for the Downlink of Cloud Radio Access Networks | {'venue': 'IEEE Transactions on Signal Processing', 'journal': 'IEEE Transactions on Signal Processing', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 2,976 |
Denna artikel ger en översikt över byggnadsextraheringsmetoder som tillämpas på Airborne Laser Scanning (ALS) data genom att undersöka element som används i originalpublikationer, såsom datamängdsområde, noggrannhetsmått, referensdata för noggrannhetsbedömning och användning av hjälpdata. Vi analyserade kortfattat den mest citerade publikationen för varje år mellan 1998 och 2014, vilket resulterade i 54 ISI-indexerade artiklar och 14 icke-ISI-indexerade publikationer. Baserat på detta placerar vi några inbyggda funktioner i ALS för att skapa en heltäckande bild av den senaste tekniken och framstegen genom åren. Våra analyser avslöjade trender och återstående utmaningar som påverkar samhället. Resultaten visar på kvarstående brister, såsom inkonsekventa precisionsbedömningsåtgärder, begränsningar av oberoende referensdatakällor för noggrannhetsbedömning, relativt få dokumenterade tillämpningar av metoderna på stora datamängder och avsaknaden av studier och åtgärder för överförbarhet. Slutligen förutspår vi vissa framtida trender och identifierar vissa luckor som de befintliga strategierna kanske inte täcker på ett uttömmande sätt. Trots dessa brister visar denna omfattande litteraturanalys att ALS-data utan tvekan är en värdefull källa till rumslig information för byggnadsextrahering. När man tar hänsyn till den korta civila historien om ALS kan man dra slutsatsen att ALS har blivit väl etablerat i forskarsamhället och verkar vara oumbärligt inom många tillämpningsområden. | En uttömmande översikt över aktuell forskning om byggnadsutvinning från flygburna laserskanningsdata ges också av REF. | 30,338,420 | Building Extraction from Airborne Laser Scanning Data: An Analysis of the State of the Art | {'venue': 'Remote Sensing', 'journal': 'Remote Sensing', 'mag_field_of_study': ['Computer Science', 'Geology']} | 2,977 |
Papperet presenterar ett interaktivt tillvägagångssätt för att vägleda användarens val av färgkartor i visualisering. PRAVDAColor, som implementeras som en modul i IBM Visualisering Data Explorer, ger användaren ett urval av lämpliga färgkartor med tanke på datatyp och rumslig frekvens, användarens uppgift, och egenskaper hos det mänskliga perceptuella systemet. Visualisering är en process för att kartlägga data på visuella dimensioner för att skapa en bildlig representation. En framgångsrik visualisering ger en representation som gör det möjligt för användaren att få insikt i datastrukturen, eller att effektivt kommunicera aspekter av denna struktur [2] [4] [22]. Även med moderna visualiseringssystem, som ger användaren betydande interaktiv kontroll över kartläggningsprocessen, kan det vara svårt att producera en effektiv visualisering. En strategi för att förbättra denna situation är att vägleda användaren i utformningen av en visualisering. I vårt tidigare arbete har vi beskrivit en interaktiv regelbaserad arkitektur för att införliva sådan vägledning, och har beskrivit vissa perceptuella och kognitiva regler som kan vara relevanta [I41 WI 1161. I detta dokument fokuserar vi på att förbättra användarens urval av färgkartor. För att göra det har vi byggt ett bibliotek av färgkartor, och en uppsättning perceptuella regler för att välja lämpliga kartor baserat på strukturen av data och målet med visualisering. Vi har inkapslat denna regelbaserade färgkarta urvalsprocess som ett verktyg, PRAVDAColor, i IBM Visualisering Data Explorer programpaket, och visa hur denna modul kan införlivas i visualiseringsprogram som omfattar kartläggning av färg på två- och tredimensionella ytor. Detta genomförande visar teknikens bärkraft och ger en testbädd för utvärdering av reglerna. I denna arkitektur kan varje visualiseringsoperation associeras med regler som begränsar mängden val som användaren erbjuds. Arkitekturen tillhandahåller också kopplingar mellan regler som styr olika visualiseringsoperationer, med ett val av parametrar för en operation som begränsar val som är tillgängliga för andra. Detta nätverk av länkade, intelligenta operationer hjälper till att vägleda användaren genom den komplexa processen att utforma en visualisering. I vårt tidigare arbete har vi beskrivit de allmänna principerna för att genomföra en sådan assemblage av regelbaserade visualiseringsoperationer. I detta dokument beskriver vi en fullständig,.implementation av en av dessa operationer, färgkarta val. I PRAVDAColor begränsar perceptuella regler mängden färgkartor som erbjuds användaren baserat på systemtillhandahållna metadata (datatyp, dataintervall), metadata som beräknas av algoritm (spatial frekvens) och metadata som tillhandahålls av användaren (visualiseringsuppgiften). Detta står i kontrast till tidigare regelbaserade system för visualisering som inte uttryckligen stöder användaruppgifter, färguppfattning eller interaktivitet i den vägledning de erbjuder (t.ex. [18]). Val - Kanske den vanligaste åtgärden i visualisering är att kartlägga värdena för en variabel på en färgskala. Trots betydelsen av denna operation, är skapandet och urvalet av färgkartor ofta inte tillräckligt stöd i moderna visualiseringssystem, som normalt erbjuder användaren en standard färgkarta och ett verktyg för att skapa anpassade färgkartor. Viktigare är dock att dessa system inte vägleder användaren i valet av | Den rumsliga frekvensen av data anses vara en viktig faktor i färgkarta design REF. | 18,951,032 | A rule-based tool for assisting colormap selection | {'venue': "Proceedings Visualization '95", 'journal': "Proceedings Visualization '95", 'mag_field_of_study': ['Computer Science']} | 2,978 |
Latent semantisk indexering (LSI) är en välkänd oövervakad metod för att minska dimensionelliteten i informationshämtningen. Om den utgående informationen (dvs. Kategorimärkning) finns tillgänglig, det är ofta fördelaktigt att härleda indexeringen inte bara baserat på indata utan också på målvärdena i utbildningsdatauppsättningen. Detta är särskilt viktigt i tillämpningar med flera etiketter, där varje dokument kan tillhöra flera kategorier samtidigt. I detta dokument introducerar vi multi-etikett informerade latent semantisk indexering (MLSI) algoritm som bevarar informationen om ingångar och under tiden fångar sambanden mellan de flera utgångar. De återvunna "latent semantiken" inkorporerar således den människoannoterade kategoriinformationen och kan användas för att avsevärt förbättra förutsägelsens exakthet. Empirisk studie baserad på två datauppsättningar, Reuters-21578 och RCV1, visar mycket uppmuntrande resultat. | Multi-label informerad latent semantisk indexering (MLSI) REF är en DR-metod som syftar till att både bevara informationen om indata och fånga sambanden mellan etiketterna. | 10,350,219 | Multi-label informed latent semantic indexing | {'venue': "SIGIR '05", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 2,979 |
Hur kan idéutvecklingen inom ett vetenskapligt område studeras med tiden? Vi tillämpar oövervakad ämnesmodellering på ACL Anthology för att analysera historiska trender inom området beräkningslingvistik från 1978 till 2006. Vi framkallar ämneskluster med hjälp av Latent Dirichlet Allocation, och undersöka styrkan i varje ämne över tid. Våra metoder finner trender inom området, bland annat ökningen av probabilistiska metoder från och med 1988, en stadig ökning av tillämpningar, och en kraftig nedgång av forskning inom semantik och förståelse mellan 1978 och 2001, möjligen stiger igen efter 2001. Vi introducerar också en modell för mångfalden av idéer, ämnesentropi, med hjälp av den för att visa att COLING är en mer varierad konferens än ACL, men att både konferenser och EMNLP blir bredare med tiden. Slutligen tillämpar vi Jensen-Shannons olika ämnesfördelningar för att visa att alla tre konferenserna konvergerar i de ämnen som de täcker. | I en liknande studie undersökte REF uppkomsten av ämnen i NLP-litteraturen. | 424,534 | Studying the History of Ideas Using Topic Models | {'venue': 'Conference On Empirical Methods In Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 2,980 |
Detta arbete studerar problemet med säker anslutning i samarbete trådlös kommunikation med två relästrategier, avkoda-och-framåt (DF) och randomisera-och-framåt (RF). Det fyrnode scenariot och det cellulära scenariot beaktas. För det typiska scenariot med fyranode (källa, destination, relä och tjuvlyssnare) tar vi fram den optimala krafttilldelningen för DF-strategin och finner att RF-strategin alltid är bättre än DF för att förbättra säker anslutning. I cellulära nätverk, visar vi att utan relä, är det svårt att etablera säkra anslutningar från basstationen till cellkanten användare. Effekten av reläplacering för cellkantens användare visas genom simulering. För båda scenarierna ser vi att fördelen med reläöverföringen ökar när banförlusten blir svårare. Index Terms-Relay placering, fysiska lager säkerhet, säker anslutning, avbrott. | Dessutom, REF undersöker sekretess avbrott sannolikhet i de typiska fyra noder modell, och hitta att RF-protokollet är alltid bättre än DF-protokollet för att förbättra säker anslutning. | 9,728,652 | Relay Placement for Physical Layer Security: A Secure Connection Perspective | {'venue': 'IEEE Communications Letters', 'journal': 'IEEE Communications Letters', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 2,981 |
I detta arbete tar vi upp uppgiften att semantisk bildsegmentering med Deep Learning och gör tre huvudsakliga bidrag som experimentellt visas ha betydande praktiska meriter. För det första lyfter vi fram convolution med uppsamlade filter, eller "atreous convolution", som ett kraftfullt verktyg i täta förutsägelser uppgifter. Atrous convolution tillåter oss att uttryckligen kontrollera den upplösning vid vilken funktionssvar beräknas inom Deep Convolutional Neural Networks. Det gör det också möjligt för oss att effektivt utvidga synfältet för filter för att införliva större sammanhang utan att öka antalet parametrar eller mängden beräkning. För det andra föreslår vi upphetsande rumslig pyramidpooling (ASPP) för att på ett robust sätt segmentera objekt på flera skalor. ASPP sonderar ett inkommande konvolutionellt funktionsskikt med filter med flera provtagningshastigheter och effektiva synfält, vilket fångar föremål såväl som bildkontext i flera skalor. För det tredje förbättrar vi lokaliseringen av objektgränser genom att kombinera metoder från DCNN och probabilistiska grafiska modeller. Den ofta använda kombinationen av max-pooling och downsampling i DCNNs uppnår Invariance men har en vägtull på localization noggrannhet. Vi övervinner detta genom att kombinera svaren på det slutliga DCNN-skiktet med ett helt uppkopplat villkorligt Random Field (CRF), som visas både kvalitativt och kvantitativt för att förbättra lokaliseringsprestandan. Vårt föreslagna "DeepLab" system sätter den nya state-of-art vid PASCAL VOC-2012 semantiska bildsegmentering uppgift, nå 79,7 procent mIOU i testuppsättningen, och avancerar resultaten på tre andra datauppsättningar: PASCAL-Context, PASCAL-Person-Part, och Cityscapes. Alla våra koder görs allmänt tillgängliga på nätet. | Deeplabv2 REF föreslår att rumslig pyramidpooling (ASPP) för att bädda in kontextuell information, som består av parallella dilaterade konvolutioner med olika dilaterade hastigheter. | 3,429,309 | DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 2,982 |
Abstract-Problemet med flera hypotes testning med observationskontroll beaktas i både fast provstorlek och sekventiella inställningar. I den fasta provstorleksinställningen, för binära hypotestester, motsvarar den optimala exponenten för den maximala felsannolikheten den maximala Chernoff-informationen över valet av kontroller, och en ren stationär öppen-loop-kontrollpolicy är asymptotiskt optimal inom den större klassen av alla kausala kontrollstrategier. För multihypotes testning i fast provstorlek inställning, nedre och övre gränser på den optimala fel exponenten härleds. Det visas också genom ett exempel med tre hypoteser att den optimala politiken för orsakskontroll kan vara strikt bättre än den optimala politiken för kontroll av öppna kretslopp. I den sekventiella inställningen, ett test baserat på tidigare arbete av Chernoff för binära hypotes testning, visas vara första ordningen asymptotiskt optimal för multihypotes testning i stark mening, med hjälp av begreppet beslutsfattande risk i stället för den totala sannolikheten för fel. Ett annat test är också utformat för att möta hårda riskbegränsningar samtidigt som asymptotisk optimalitet bibehålls. Den roll som tidigare information och randomisering har när det gäller att utforma en optimal kontrollpolitik diskuteras. Index Terms-Chernoff information, kontrollerad avkänning, utformning av experiment, detektion och uppskattning teori, fel exponent, hypotes testning, Markov beslutsprocess. | I REF studerades M-ars hypotestestning under både fasta provstorlekar och sekventiella inställningar. | 14,601,908 | Controlled Sensing for Multihypothesis Testing | {'venue': 'IEEE Transactions on Automatic Control', 'journal': 'IEEE Transactions on Automatic Control', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 2,983 |
Utvinning av krökningsinformation för ytor är ett grundläggande problem med geometribehandling. Nyligen presenterades en integrerad invariant lösning av detta problem, som bygger på huvudkomponentanalys av lokala stadsdelar som definieras av kärnbollar i olika storlekar. Den är inte bara robust mot buller, utan anpassar sig också till den detaljnivå som krävs. I detta dokument visar vi en asymptotisk analys av de tröghetsmoment och de huvudsakliga riktningar som används i detta tillvägagångssätt. Vi tar också upp frågor om genomförande och, kort sagt, robusthet och tillämpningar. | Curvature kan beräknas genom integral invariants REF som är en lösning baserad på en voxelization algoritm. | 3,728,243 | Principal curvatures from the integral invariant viewpoint | {'venue': 'Comput. Aided Geom. Des.', 'journal': 'Comput. Aided Geom. Des.', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 2,984 |
Ett centralt problem i stereomatchning genom att beräkna korrelation eller summan av kvadratskillnader (SSD) ligger i att välja en lämplig fönsterstorlek. Om fönstret är för litet och inte täcker tillräcklig intensitetsvariation, ger det en dålig skillnad uppskattning, eftersom signalen (intensitetsvariation) till bullerförhållandet är låg. Om, å andra sidan, fönstret är för stor och täcker en region där djupet av scenpunkter varierar, då skillnaden i fönstret är inte konstant. Som ett resultat av detta kan det hända att positionen för maximal korrelation eller minsta SSD inte representerar en korrekt uppskattning av skillnader. Därför måste en lämplig fönsterstorlek väljas lokalt. Det har emellertid gjorts lite forskning riktad mot adaptivt urval av matchande fönster. Den stereoalgoritm vi föreslår i detta papper väljer ett fönster adaptivt genom att utvärdera den lokala variationen av intensiteten och skillnaden. Vi använder en statistisk modell som representerar osäkerhet om skillnader i punkter över fönstret: osäkerheten antas öka med avståndet av punkten från centrumpunkten. Modelleringen gör det möjligt för oss att bedöma hur skillnader inom ett fönster påverkar uppskattningen av skillnader. Som ett resultat kan vi beräkna osäkerheten i den skillnadsberäkning som tar hänsyn till både intensitet och skillnader varianser. Så, algoritmen kan söka efter ett fönster som producerar uppskattningen av skillnader med minst osäkerhet för varje pixel på en bild. Metoden styr inte bara storleken utan också formen (rektangel) av fönstret. Algoritmen har testats på både syntetiska och verkliga bilder, och kvaliteten på de erhållna skillnadskartorna visar algoritmens effektivitet. | Kanade och Okotumi REF modellerar fördelningen av skillnader inom ett fönster. | 22,901,323 | A stereo matching algorithm with an adaptive window: theory and experiment | {'venue': 'IEEE Trans. Pattern Anal. Mach. Intell.', 'journal': 'IEEE Trans. Pattern Anal. Mach. Intell.', 'mag_field_of_study': ['Computer Science']} | 2,985 |
ABSTRACT Nyligen föreslogs ett nytt färgbildkrypteringssystem baserat på hybrid hyper-chaotiskt system och cellulär automata. För att generera olika nyckelströmmar enligt olika enkla texter, används summan av pixelvärden för varje komponent i den ursprungliga färgbilden bortsett från de hemliga tangenterna för att bestämma det ursprungliga värdet av logistisk karta för kryptering. Det hävdades att systemet kan motstå olika typer av attacker. Men detta papper fick reda på tre säkerhets nackdelar med det ursprungliga krypteringssystemet och föreslog en effektiv attack metod med valda-plaintext attack genom kryptoanalys. Den ekvivalenta permutationsnyckelströmmen kan erhållas genom att justera individuella pixelvärden för de valda grundtexterna samtidigt som summan av pixelvärden för varje färgkanal förblir oförändrad, och alla 256 möjligheter till motsvarande diffusionsnyckelströmmar kan erhållas med hjälp av 512 specifika valda slättext. Dessutom är de viktigaste stegen i den föreslagna attackmetoden, inklusive att bryta diffusion och bryta permutation, utbytbara. Effektiviteten i vår metod stöds av både teoretiska analyser och experimentella resultat. INDEX TERMS Chaotisk bildkryptering, kryptoanalys, cellulär automata, vald-plaintext attack. | Referens REF föreslog en kryptoanalys av ett färgbildkrypteringssystem som kombinerar principerna för hybrid hyper-chaotiskt system och cellulär automata. | 54,221,190 | Cryptanalyzing a Color Image Encryption Scheme Based on Hybrid Hyper-Chaotic System and Cellular Automata | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 2,986 |
Många djur, och ett ökande antal konstgjorda medel, visar sofistikerade möjligheter att uppfatta och manipulera objekt. Men människor förblir distinkta i sin förmåga att använda flexibla, kreativa verktyg - använda objekt på nya sätt att agera på världen, uppnå ett mål, eller lösa ett problem. Här introducerar vi "Verktyg" spelet, en enkel men utmanande domän för att studera detta beteende i mänskliga och artificiella agenter. Spelare placerar objekt i en dynamisk scen för att uppnå ett mål som endast kan uppnås om dessa objekt interagerar med andra scenelement på lämpligt sätt: till exempel sjösättning, blockering, stöd eller tippning. Endast ett fåtal försök är tillåtna, vilket kräver att man snabbt lär sig pröva och terror om man inte först hittar en lösning. Vi föreslår ett "Sample, Simulate, Update" (SSUP) ramverk för att modellera hur människor löser dessa utmaningar, baserat på att utnyttja rik världskunskap för att prova åtgärder som skulle leda till framgångsrika resultat, simulera kandidatåtgärder innan du testar dem, och uppdatera uppfattningar om vilka verktyg och åtgärder som är bäst i en snabb inlärningsslinga. SSUP fångar mänskliga prestanda väl över 20 nivåer av Verktyg spelet, och passar betydligt bättre än alternativa konton baserat på djup förstärkning lärande eller lärande simulator parametrar på nätet. Vi diskuterar hur de verktyg utmaning kan styra utvecklingen av bättre fysiska resonemang agenter i AI, samt bättre redogörelser för mänskliga fysiska resonemang och verktyg användning. | Det utvecklades samtidigt med verktygen spelet REF. | 198,179,557 | The Tools Challenge: Rapid Trial-and-Error Learning in Physical Problem Solving | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Psychology']} | 2,987 |
Abstract-Ett nytt differentialspel som medger en "sluten form" lösning analyseras. I detta papper vägledning lagar utvecklas för att optimalt placera ett relä Micro-UAV (MAV) för att ge en operatör vid basen med realtid Intelligence, Surveillance och Reconnaissance (ISR) genom att förmedla kommunikation och videosignaler när rover MAV utför ISR-uppdraget är utanför radio kontaktområde med basen. ISR systemet består av två MAVs, Relay och Rover, och en bas. Relay strävar efter att minimera den radiofrekvens (RF) som krävs för att upprätthålla kommunikationen, medan Rover utför ISR-uppdraget, vilket kan maximera den RF-kraft som krävs. Den optimala kontrollen av Relay MAV innebär lösningen av ett differentialspel. Obemannade luftfarkoster (UAV) är vanliga i pågående militära operationer. UAV varierar i storlek och uppdrag. Medan vissa UAVs är av samma storlek som flygplan, andra är man-portable och kan bäras i en ryggsäck. Dessa man-portable Micro-UAVs (MAVs) som används av små taktiska enheter stöds inte av satellitkommunikation och använder radiofrekvensmodem (RF). Högfrekventa radiokommunikationer är begränsade. De MAV som behandlas i detta dokument används för Intelligence, Surveillance and Reconnaissance (ISR) och kommer därför att kallas ISR MAVs eller Rovers [1]. Basen kan förlora kommunikation (och kontrollmöjlighet) med utplacerade ISR MAVs/Rovers om Rovers, under utförandet av sitt uppdrag, avviker långt bort. I detta papper vägledning lagar utvecklas för att optimalt placera en autonom Relay MAV för att förse operatören vid basen med realtid ISR genom att vidarebefordra kommunikation och sensordata samtidigt som det möjliggör utökad räckvidd Rover verksamhet. Relay-Rover-interaktionen är modellerad som ett differentialspel vars lösning ger den optimala Relay-strategin. Det antas att rElay (E) MAV är medveten om rOver's (O) momentana position och, naturligtvis, egen fartygsposition. När det gäller RF-effektkraven bestäms detta av deras avstånd från basen. | Choi m.fl. REF utvecklade vägledningslagar för att optimera positionen för en Micro-UAV som vidarebefordrade kommunikations- och videosignaler när den andra UAV är utanför radiokontaktområdet med basen. | 6,685,886 | Optimal relay UAV guidance-a new differential game | {'venue': 'IEEE Conference on Decision and Control and European Control Conference', 'journal': 'IEEE Conference on Decision and Control and European Control Conference', 'mag_field_of_study': ['Computer Science']} | 2,989 |
Abstract-Dynamisk textur (DT) är en förlängning av texturen till den tidsmässiga domänen. Beskrivning och erkännande av DT har väckt allt större uppmärksamhet. I detta dokument föreslås ett nytt tillvägagångssätt för erkännande av DT och dess förenklingar och utvidgningar till analys av ansiktsbilder. För det första, texturerna är modellerade med volym lokala binära mönster (VLBP), som är en förlängning av LBP operatör allmänt används i vanlig textur analys, kombinerar rörelse och utseende. För att göra tillvägagångssättet beräknings enkelt och enkelt att förlänga, endast samtidiga förekomster av lokala binära mönster på tre ortogonala plan (LBP-TOP) beaktas sedan. En blockbaserad metod föreslås också för att hantera specifika dynamiska händelser som ansiktsuttryck där lokal information och dess rumsliga platser också bör beaktas. I experiment med två DT-databaser, DynTex och Massachusetts Institute of Technology (MIT), både VLBP och LBP-TOP klart överträffade tidigare metoder. Den föreslagna blockbaserade metoden utvärderades med Cohn-Kanade ansiktsuttryck databas med utmärkta resultat. Fördelarna med vårt tillvägagångssätt är lokal bearbetning, robusthet mot monotona gråskalor och enkel beräkning. | Den variant av den lokala binära mönster (LBP) deskriptor som föreslås i REF, som beräknar LBP på tre ortogonala plan används som ansikte deskriptor längs sekvensen. | 16,451,924 | Dynamic Texture Recognition Using Local Binary Patterns with an Application to Facial Expressions | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 2,990 |
Abstract-Multi-gigabit utomhus mesh nätverk som fungerar i olicensierade 60 GHz "millimeter (mm) våg" band, erbjuder möjlighet till en snabbt utplacerad bredbandsutbyggnad av Internet. Vi anser mesh noder med elektroniskt styrbara antennsystem, med både sändaren och mottagaren syntetisera smala balkar som kompenserar för den högre banan förlust vid mm-våg frekvenser, uppnå intervall i storleksordningen 100 meter med hjälp av de relativt låga sändningskrafter som uppnås med låg kostnad kisel implementationer. Sådana mycket riktade nätverk skiljer sig från WiFi-nätverk vid lägre bärfrekvenser på två sätt som har en avgörande inverkan på protokollutformningen: (1) riktningsförmåga minskar drastiskt rumslig störning, så att pseudotrådade länkuttag utgör en utmärkt grund för protokollutformning; (2) riktningsförmåga framkallar dövhet, vilket gör medium åtkomstkontroll (MAC) baserad på bäraravkänning ogenomförbar. Interferensanalys i vårt tidigare arbete visar att i en sådan miljö blir samordning mellan sändare och mottagare snarare än interferenshantering den viktigaste flaskhalsen för MAC-prestanda. Frågan om huruvida en sådan samordning kan uppnås på ett distribuerat sätt och samtidigt uppnå ett högt medelstort utnyttjande lämnades dock öppen. I detta dokument besvarar vi denna fråga jakande, presenterar ett distribuerat MAC-protokoll som använder minne för att uppnå ungefärliga tidsdelning multiplexed (TDM) scheman utan uttrycklig samordning eller resursfördelning. Effektiviteten av protokollet visas via paketnivå simuleringar, medan en Markov kedja fast punkt analys ger insikt i effekten av parameterval. | Ett distribuerat schemaläggning protokoll föreslås genom att samordna mmWave mesh noder i REF, och kan uppnå hög resursanvändning med tidsdelning multiplexing (TDM). | 6,061,156 | Distributed Coordination with Deaf Neighbors: Efficient Medium Access for 60 GHz Mesh Networks | {'venue': '2010 Proceedings IEEE INFOCOM', 'journal': '2010 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Computer Science']} | 2,991 |
Vi presenterar en enkel distribuerad påslagsalgoritm för maximal vikt oberoende uppsättning (MaxIS) i CONGEST modellen som kompletterar i O(MIS(G) · logW ) rundor, där till är den maximala graden, MIS(G) är det antal rundor som behövs för att beräkna en maximal oberoende uppsättning (MIS) på G, ochW är den maximala vikten av en nod. Plugging i den mest kända algoritmen för MIS ger en randomiserad lösning i O(log n logW ) rundor, där n är antalet noder. Vi presenterar också en deterministisk O( och log * n)-round-algoritm baserad på färgläggning. Vi visar sedan hur du använder våra MaxIS approximationsalgoritmer för att beräkna en 2-approximation för maximal viktmatchning utan att ådra sig ytterligare runda straff i CONGEST-modellen. Vi använder en känd reduktion för att simulera algoritmer på linjen grafen samtidigt medför trängsel, men vi visar vår algoritm är en del av en bred familj av lokala aggregeringsalgoritmer för vilka vi beskriver en mekanism som gör att simuleringen kan köras i CONGEST-modellen utan ytterligare overhead. Därefter visar vi att för maximal vikt matchning, slappna av approximationsfaktorn till (2 + ε) gör det möjligt för oss att utforma en distribuerad algoritm som kräver O ( log på log log log) rundor för alla konstant ε > 0. För det oviktade fallet kan vi till och med få en (1 + ε) approximation i detta antal rundor. Dessa algoritmer är de första att uppnå den bevisligen optimala runda komplexitet med avseende på beroendet av. Referensformat för ACM: | En optimal randomiserad (1 + ) - approximation i CONGEST- modellen, som körs i O (logga/logga) rundor för konstant anges i REF. | 11,327,348 | Distributed Approximation of Maximum Independent Set and Maximum Matching | {'venue': "PODC '17", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 2,992 |
Python är ett av de mest populära moderna programmeringsspråken. 2008 introducerade dess författare en ny version av språket, Python 3.0, som inte var bakåtkompatibel med Python 2, initierar en övergångsfas för Python mjukvaruutvecklare. Syfte: Studien som beskrivs i denna uppsats undersöker i vilken grad Python mjukvaruutvecklare gör övergången från Python 2 till Python 3. Metod: Vi har utvecklat en Python compliance analysator, PyComply, och har monterat en stor corpus av Python applikationer. Vi använder PyComply för att mäta och kvantifiera i vilken utsträckning Python 3 funktioner används, samt hastigheten och sammanhanget för deras antagande. Resultat: I själva verket utnyttjar inte Python mjukvaruutvecklare de nya funktionerna och fördelarna med Python 3, utan väljer snarare att behålla bakåtkompatibilitet med Python 2. Slutsatser: Pythonutvecklare begränsar sig till en språkundergrupp, som styrs av den minskande skärningspunkten mellan Python 2, som inte är under utveckling, och Python 3, som håller på att utvecklas med nya funktioner som introduceras när språket fortsätter att utvecklas. | Malloy REF 20] undersökte i vilken utsträckning Python-programutvecklare migrerar från Python 2 till Python 3 genom att mäta och kvantifiera användningen av Python 3-funktioner. | 4,702,484 | Quantifying the Transition from Python 2 to 3: An Empirical Study of Python Applications | {'venue': '2017 ACM/IEEE International Symposium on Empirical Software Engineering and Measurement (ESEM)', 'journal': '2017 ACM/IEEE International Symposium on Empirical Software Engineering and Measurement (ESEM)', 'mag_field_of_study': ['Computer Science']} | 2,993 |
Betydande insatser görs för närvarande i applikationsintegreringen, vilket gör det möjligt för olika företags affärsprocesser att interagera och bilda komplexa flerpartsprocesser. Webbtjänststandarder, baserade på WSDL (Web Service Definition Language), har antagits som process-till-process kommunikationsparadigm. Den konceptuella modellen för tillämpningar som använder webbtjänster har dock ännu inte tagits upp. Interaktion med webbtjänster anges ofta på nivån för källkoden, vilket innebär att gränssnitten för webbtjänsten är begravda i en programmatisk specifikation. I denna artikel hävdar vi att webbtjänster bör betraktas som förstklassiga medborgare i specifikationen av webbapplikationer. Således, service-aktiverade webbapplikationer bör dra nytta av den höga nivå modellering och automatisk kodgenerering teknik som länge har förespråkats för webbapplikation design och genomförande. I detta syfte utökar vi en deklarativ modell för att specificera dataintensiva webbapplikationer i två riktningar: (i) modellering på hög nivå av webbtjänster och deras interaktioner med de webbapplikationer som använder dem, och (ii) modellering och specifikation av webbapplikationer som implementerar nya, komplexa webbtjänster. Vårt tillvägagångssätt är helt implementerat i ett CASE-verktyg som möjliggör modellering på hög nivå och automatisk installation av serviceaktiverade webbapplikationer. | Manolescu m.fl. REF föreslog en förklarande modellbaserad metod för att visualisera, utforma och distribuera webbapplikationer med hjälp av webbtjänster. | 13,086,549 | Model-driven design and deployment of service-enabled web applications | {'venue': 'TOIT', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 2,994 |
I den här artikeln visar vi att Itti et at har en seminal, biologiskt inspirerad saliensmodell. {21] är fortfarande konkurrenskraftig med nuvarande toppmoderna metoder för betydande object-segmentering om vissa viktiga anpassningar görs. Vi visar vilka förändringar som är nödvändiga för att uppnå hög prestanda, med särskild tonvikt på skalan-rymden: vi introducerar en tvillingpyramid för beräkning Dif f erence-of Gaussians, som möjliggör en flexibel center-surround förhållande. Det resulterande systemet, som kallas VOCUS2, är elegant och koherent i struktur, snabb, och beräknar soliditet på pixelnivå. Det är inte bara lämplig för bilder med få objekt, men också för komplexa scener som fångas av mobila enheter. Fur termore, vi integrerar saliency systemet i ett objekt förslag generering ram för att få segment-baserade saliency kartor och öka resultaten för framträdande objekt seg mentering. Vi visar att vårt system uppnår toppmodern peiformance på en stor insamling av referensdata. | För det första genererar lönesystemet VOCUS2 REF en lönekarta. | 10,210,888 | Traditional saliency reloaded: A good old model in new shape | {'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 2,995 |
Abstrakt. I detta dokument utvecklar vi ett vietnamesiskt svarssystem för att besvara enkla frågor om bestämmelser, processer, förfaranden och rättsliga påföljder för företag Vietnam. Forskning för att bygga en vietnamesisk fråga Svarssystem är svårare än engelska Fråga Svarssystem på grund av brist på vietnamesiska bearbetning resurser och verktyg, eller deras resultat är inte hög. Vi har utnyttjat tillgängliga vietnamesiska resurser, verktyg och modifierat vissa verktyg (såsom Lucene) och algoritmer, som fungerade bra på engelska, gäller på vietnamesiska. Av detta har vi föreslagit en likhetsbaserad modell för att bygga ett vietnamesiskt svarssystem i Vietnams rättsliga dokument, nämligen mot Lawyer-systemet. I försöksavsnittet uppnådde vi lovande resultat, ungefär 70 procent exakt i juridiska dokument, det visade att vårt tillvägagångssätt är rimligt när det gäller juridiska dokument. | Duong REF presenterade ett QA-system för användning i vietnamesiska juridiska dokument som kan svara på enkla frågor om förfaranden och sanktioner i lag om företag. | 28,525,050 | A Vietnamese Question Answering System in Vietnam’s Legal Documents | {'venue': 'CISIM', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 2,996 |
Nyligen, djupt lärande baserade 3D ansikte återuppbyggnadsmetoder har visat lovande resultat i både kvalitet och effektivitet. Men utbildning djupa neurala nätverk kräver vanligtvis en stor mängd data, medan ansikte bilder med mark-sanning 3D ansikte former är knappa. I detta dokument föreslår vi en ny strategi för rekonstruktion av 3D-ansikten som 1) utnyttjar en robust, hybridförlustfunktion för svagt övervakat lärande som tar hänsyn till information på både låg nivå och perceptionsnivå för övervakning, och 2) utför rekonstruktion av ansikte med flera bilder genom att utnyttja kompletterande information från olika bilder för sammanläggning av form. Vår metod är snabb, exakt och robust mot ocklusion och stor pose. Vi tillhandahåller omfattande experiment på tre datauppsättningar, som systematiskt jämför vår metod med femton nya metoder och demonstrerar dess toppmoderna prestanda. | I detta dokument använder vi metoden REF för återuppbyggnad av 3D. | 84,187,285 | Accurate 3D Face Reconstruction with Weakly-Supervised Learning: From Single Image to Image Set | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 2,997 |
I sensornätverk sker datainsamling ofta vid enheter med låg kapacitet. De förvärvade data överförs sedan genom en hierarki av noder med gradvis ökande nätverksbandbredd och beräkningskraft. Vi betraktar problemet med att utföra frågor över dessa dataströmmar, som är roten till hierarkin. För att minimera dataöverföring, är det önskvärt att utföra "in-network" frågebehandling: gör en del av arbetet vid mellanliggande noder som data reser till roten. De flesta tidigare arbeten på i-nätverk frågebehandling har fokuserat på aggregering och billiga filter. I detta papper, vi behandlar i-nätverk bearbetning för frågor som eventuellt dyra konjunktiva filter, och går med. Vi anser att problemet med att placera operatörer längs noderna i hierarkin så att den totala kostnaden för beräkning och dataöverföring minimeras. Vi visar att problemet är dragbart, ger en optimal algoritm, och visar att en enklare girig operatör placering algoritm kan misslyckas med att hitta den optimala lösningen. Slutligen definierar vi ett antal intressanta variationer i den grundläggande operatörens placeringsproblem och demonstrerar deras hårdhet. | I samband med sensornätverk överväger REF att placera operatörer längs noderna i en hierarki för att minska nätutnyttjandet. | 14,887,217 | Operator placement for in-network stream query processing | {'venue': "PODS '05", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 2,999 |
Kognitiv radio (CR) kan utnyttjas för att minska problemet med spektrumbrist i Internet of Things (IoT) applikationer medan trådlös energi skörd (WEH) kan bidra till att minska laddning/byte batterier för sakernas internet och CR-nätverk. I detta syfte föreslår vi att Weh används för CR-nätverk där CR-enheter inte bara kan avkänna tillgängliga radiofrekvenser i samarbete utan också skörda den trådlösa energi som överförs av en åtkomstpunkt. Ännu viktigare är att vi utformar ett optimeringsramverk som fångar upp en grundläggande avvägning mellan energieffektivitet (EE) och spektral effektivitet i nätverket. I synnerhet formulerar vi ett blandat heltal icke-linjär programmering problem som maximerar EE samtidigt som hänsyn tas till användarbuffert beläggning, datahastighet rättvisa, energi kausalitet begränsningar, och interferens begränsningar. Vi bevisar vidare att den föreslagna optimeringsramen är ett NP-hard problem. Därför föreslår vi en låg komplexitet heuristisk algoritm, för att lösa problemet med resursallokering och optimering av energiutvinning. Den föreslagna algoritmen visas vara kapabel att uppnå nära optimal lösning med hög noggrannhet samtidigt med polynom komplexitet. Effektiviteten i vårt förslag valideras genom väl utformade simuleringar. Index Terms-Energieffektivisering (EE), nätverksoptimering, resursfördelning, trådlös energiskörd (WEH). | I REF föreslogs ett annat system för trådlös energiupptagning för CR-IoT. I det föreslagna systemet känner CR-IoT-enheter av det licensierade spektrumet innan de använder det och även skördar den trådlösa energi som överförs av den närliggande åtkomstpunkten (AP). | 49,659,751 | Energy Efficient Resource Allocation in EH-Enabled CR Networks for IoT | {'venue': 'IEEE Internet of Things Journal', 'journal': 'IEEE Internet of Things Journal', 'mag_field_of_study': ['Computer Science']} | 3,000 |
Abstract-Diffusion Tensor Imaging (DTI) är en magnetisk resonanstomografi metod som kan användas för att mäta lokal information om strukturen av vit materia i den mänskliga hjärnan. Genom att kombinera DTI-data med beräkningsmetoderna för MR-traktaografi kan neuroforskare uppskatta de platser och storlekar på nervpaket (white materia banor) som går genom den mänskliga hjärnan. Neuroscientists har använt visualiseringstekniker för att bättre förstå traktatografi data, men de kämpar ofta med överflöd och komplexitet av banorna. I den här artikeln beskriver vi en ny uppsättning interaktionstekniker som gör det lättare att utforska och tolka sådana vägar. Speciellt, vår applikation tillåter neuroforskare att placera och interaktivt manipulera box eller ellipsoidformade regioner för att selektivt visa vägar som passerar genom specifika anatomiska områden. Dessa regioner kan användas i samordning med ett enkelt och flexibelt frågespråk som möjliggör godtyckliga kombinationer av dessa frågor med hjälp av booleska logiska operatörer. En representation av kortikalytan tillhandahålls för att specificera frågor om vägar som kan vara relevanta för gråsubstansstrukturer och för att visa aktiveringsinformation som erhållits från funktionell magnetisk resonanstomografi. Genom att förhandsberäkna vägarna och deras statistiska egenskaper får vi den hastighet som krävs för interaktiva fråge- och svarssessioner med hjärnforskare. Vi undersöker några frågor som forskare har ställt om data om traktatografi och visar hur vårt system kan användas för att svara på dessa frågor på ett effektivt sätt. | Sherbondy m.fl. REF implementerade interaktionstekniker för att placera och manipulera regioner för att selektivt visa deterministiska vägar som passerar genom specifika anatomiska områden. | 838,056 | Exploring connectivity of the brain's white matter with dynamic queries | {'venue': 'IEEE Transactions on Visualization and Computer Graphics', 'journal': 'IEEE Transactions on Visualization and Computer Graphics', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 3,001 |
Integrerad systemhälsohantering omfattar felsökning, feldiagnos (eller felisolering) och felprognos. Vi definierar prognosen för att upptäcka prekursorer till ett misslyckande, och förutsäga hur mycket tid som återstår innan ett sannolikt misslyckande. Algoritmer som använder datadriven metod för prognos lär sig modeller direkt från data, snarare än att använda en handbyggd modell baserad på mänsklig expertis. Detta dokument undersöker tidigare arbete i den datadrivna metoden för prognos. Det omfattar också relaterat arbete inom datadriven feldetektering och diagnos, samt i modellbaserad diagnos och prognos, särskilt som tillämpas på rymdsystem. | Ref kartlägger det senaste arbetet inom datadriven prognostik, feldetektering och diagnostik. | 13,957,324 | A Survey of Data-Driven Prognostics | {'venue': 'AIAA InfoTech Aerospace', 'journal': None, 'mag_field_of_study': ['Engineering']} | 3,002 |
Vi introducerar en ny variationsformulering för problemet med att rekonstruera en vattentät yta definierad av en implicit ekvation, från en ändlig uppsättning orienterade punkter; ett problem som har väckt stor uppmärksamhet i mer än två decennier. Som i Poisson Surface Reconstruction approach, diskretizations av den kontinuerliga formuleringen minska till lösningen av gles linjära system av ekvationer. Men i stället för att tvinga den implicita funktionen att approximera indikatorfunktionen hos den volym som avgränsas av den implicita ytan, tvingas den implicita funktionen i vår formulering att vara en jämn approximation av den undertecknade distansfunktionen till ytan. Eftersom en indikatorfunktion är okontinuerlig, finns inte dess lutning exakt där den behöver jämföras med normala vektordata. Den släta signerade avståndet har ungefärlig enhet lutning i närheten av datapunkterna. Som ett resultat, den normala vektordata kan införlivas direkt i energifunktionen utan implicit funktion utjämning. Dessutom, snarare än att först utvidga de orienterade punkterna till ett vektorfält inom den avgränsande volymen, och sedan tillnärma vektorfältet med ett gradientfält i minsta kvadrat betydelse, här vektorfältet begränsas till att vara lutningen av den implicita funktionen, och ett enda variationsproblem löses direkt i ett steg. Formuleringen möjliggör ett antal olika effektiva diskretiseringar, minskar till en ändlig minsta kvadrat problem för alla linjärt parameteriserade familjer av funktioner, och kräver inte gränsförhållanden. De resulterande algoritmerna är betydligt enklare och lättare att implementera, och ger resultat av kvalitet jämförbar med toppmoderna algoritmer. Ett effektivt genomförande baserat på en primal-graph octree-baserad hybrid finita element-finita skillnaden diskretization, och Dual Marching Cubes isosurface extraktion algoritm, visas producera hög kvalitet crack-fri adaptive multiple polygon meshes. | En approximation av distansfältet till ett punktmoln presenterades i REF. | 15,971,632 | SSD: Smooth Signed Distance Surface Reconstruction | {'venue': 'Comput. Graph. Forum', 'journal': 'Comput. Graph. Forum', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 3,003 |
Vi föreslår en ny dataförstärkning för märkta meningar som kallas kontextuell förstärkning. Vi antar att meningarna är naturliga även om orden i meningarna ersätts med andra ord med paradigmiska relationer. Vi stokastiskt ersätta ord med andra ord som förutspås av en dubbelriktad språkmodell på ordet positioner. Ord som förutsägs enligt ett sammanhang är talrika men lämpliga för förstärkningen av de ursprungliga orden. Dessutom eftermonterar vi en språkmodell med en etikett-villkorad arkitektur, vilket gör det möjligt för modellen att utöka meningar utan att bryta etikett-kompatibilitet. Genom experimenten för sex olika textklassificeringsuppgifter visar vi att den föreslagna metoden förbättrar klassificeringen baserat på de konvolutionella eller återkommande neurala nätverken. | Ett av de senaste verken av Kobayashi REF utbildade en dubbelriktad språkmodell som är villkorad av klassetiketter där man förutspådde sannolikheten för ett ord baserat på det omgivande sammanhanget av orden. | 21,725,995 | Contextual Augmentation: Data Augmentation by Words with Paradigmatic Relations | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 3,004 |
Abstract-We present a new model for multivariate time-series classification, som kallas den dolda enhetslogistiska modellen (HULM), som använder binära stokastiska dolda enheter för att modellera latent struktur i data. De dolda enheterna är anslutna i en kedja struktur som modellerar temporal beroenden i data. Jämfört med tidigare modeller för tidsserieklassificering såsom det dolda villkorade slumpmässiga fältet kan vår modell modellera mycket komplexa beslutsgränser, eftersom antalet latenta tillstånd ökar exponentiellt med antalet dolda enheter. Vi demonstrerar den starka prestandan hos vår modell i experiment på en mängd olika (datorseende) uppgifter, inklusive handskriven karaktärsigenkänning, taligenkänning, ansiktsuttryck och handlingsigenkänning. Vi presenterar också ett toppmodernt system för upptäckt av ansiktsaktivitetsenheter baserat på HULM. | På samma sätt använder den dolda enhetslogistiska modellen (HULM) REF binära stokastiska dolda enheter för att representera de exponentiella dolda tillstånden för att modellera mer komplexa latenta beslutsgränser. | 858,399 | Multivariate Time-Series Classification Using the Hidden-Unit Logistic Model | {'venue': 'IEEE Transactions on Neural Networks and Learning Systems', 'journal': 'IEEE Transactions on Neural Networks and Learning Systems', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 3,005 |
Abstrakt. I detta dokument föreslår vi en förstärkande inlärningsmetod som kallas en luddig Q-learning där en agent bestämmer sin verksamhet utifrån slutresultatet av ett luddigt regelbaserat system. Vi tillämpar den föreslagna metoden på en fotbollsagent som avlyssnar en förbipasserad boll av en annan agent. I den föreslagna metoden representeras tillståndsutrymmet av intern information som inlärningsagenten upprätthåller såsom den relativa hastigheten och den relativa positionen för bollen till inlärningsagenten. Vi delar upp statsrymden i flera suddiga subrymder. En luddig om-då regel i den föreslagna metoden representerar en luddig subrymd i tillståndsutrymmet. Den efterföljande delen av den suddiga om-då regler är en rörelse vektor som tyder på den rörliga riktning och hastighet lärande agenten. En belöning ges till inlärningsagenten om avståndet mellan bollen och agenten blir mindre eller om agenten hinner ikapp bollen. Det förväntas att inlärningsagenten till slut får den effektiva positioneringsskickligheten. | Nakashima m.fl. I REF föreslås en förstärkt inlärningsmetod som kallas "fuzzy Q-learning", där en agent bestämmer sin verksamhet utifrån slutresultatet av ett luddigt regelbaserat system. | 13,163,246 | A fuzzy reinforcement learning for a ball interception problem | {'venue': 'RoboCup', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,007 |
Abstract-I detta papper visar vi att alla processer i samband med flytta-sense-update cykeln av EKF SLAM kan utföras i tid linjärt i antalet kartfunktioner. Vi beskriver Divide and Conquer SLAM, en EKF SLAM-algoritm där beräkningskomplexet per steg minskas från O(n 2 ) till O(n) (den totala kostnaden för SLAM minskas från O(n 3 ) till O(n 2 ) ). Dessutom har uppskattningarna av fordon och kartor bättre konsekventa egenskaper än standard EKF SLAM i den meningen att den beräknade covariansen på ett bättre sätt motsvarar det verkliga felet i uppskattningen. Både simulerade experiment och Victoria Park Dataset används för att visa fördelarna med denna algoritm. | Alldeles nyligen visas det i REF att den genomsnittliga beräkningskostnaden för kartsammanfogning i varje steg kan minskas till O(n) genom "Divide and Conquer SLAM". | 12,607,073 | Data Association in O(n) for Divide and Conquer SLAM | {'venue': 'Robotics: Science and Systems', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,008 |
Finita batterilivslängder och låg datorkapacitet hos trådlösa enheter med storleksbegränsningar (WD) har länge varit prestandabegränsningar i många trådlösa nät med låg effekt, t.ex. trådlösa sensornätverk och sakernas Internet. Den senaste tidens utveckling av teknik för radiofrekvensbaserad trådlös kraftöverföring (WPT) och mobila edge computing (MEC) ger en lovande lösning för att helt ta bort dessa begränsningar för att uppnå hållbar enhetsdrift och förbättrad beräkningsförmåga. I detta dokument anser vi att ett MEC-nätverk med flera användare som drivs av WPT, där varje energiskördande WD följer en binär beräkningsavlastningspolicy, dvs. datauppsättningen av en uppgift måste utföras som helhet antingen lokalt eller på distans på MEC-servern via aktivitetsavlastning. Framför allt är vi intresserade av att maximera den (viktade) sammanlagda beräkningshastigheten för alla WD i nätverket genom att gemensamt optimera det individuella valet av datorläge (dvs. lokal databehandling eller avlastning) och fördelningen av systemets överföringstid (vid WPT och avlastning av uppgifter). Den största svårigheten ligger i den kombinatoriska karaktären hos valet av datorläge för flera användare och dess starka koppling till tilldelningen av sändningstid. För att ta itu med detta problem överväger vi först en frikopplad optimering, där vi utgår från att valet av läge ges och föreslår en enkel dubbelsidig sökalgoritm för att få den villkorliga optimala tidstilldelningen. Dessutom är en koordinat nedstigningsmetod utformad för att optimera valet av läge. Metoden är enkel i genomförandet men kan lida av hög computational komplexitet i ett stort nätverk. För att ta itu med detta problem föreslår vi vidare en gemensam optimeringsmetod baserad på den alternerande riktningsmetoden för multiplikatorer (ADMM) nedbrytningsteknik, som har en mycket långsammare ökning av beräknings komplexitet när nätverkens storlek ökar. Omfattande simuleringar visar att både de föreslagna metoderna effektivt kan uppnå en nästan optimal prestanda under olika nätverkskonfigurationer, och avsevärt överträffa de andra representativa referensmetoder som beaktas. Index Terms-Mobile edge computing, trådlös kraftöverföring, binär beräkning avladdning, resursfördelning. | I REF studerar författarna en binär beräkning offloading problem för maximering av den viktade summan beräkningshastighet. | 4,271,602 | Computation Rate Maximization for Wireless Powered Mobile-Edge Computing With Binary Computation Offloading | {'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 3,009 |
I denna studie presenterar vi en litteraturöversikt, klassificeringsscheman och analys av metoder för schemaläggning problem på Batch Processing Machine (BP) med både bearbetningstid och arbetsstorlek begränsningar som också betraktas som tvådimensionell (TD) schemaläggning. Särskild uppmärksamhet ägnas åt schemaläggning problem med icke-identiska jobbstorlekar och bearbetningstider, med detaljer om de grundläggande algoritmerna och andra betydande resultat. | REF översyn BPM schemaläggning problem genom att betona både jobbstorlek och behandlingstid. | 13,980,068 | Two-Dimensional Scheduling: A Review | {'venue': None, 'journal': 'Research Journal of Applied Sciences, Engineering and Technology', 'mag_field_of_study': ['Computer Science']} | 3,010 |
Wireless Body Area Network (WBAN) har varit en viktig del av e-hälsan för att övervaka organ. Denna teknik möjliggör nya tillämpningar under paraply av olika domäner, inklusive det medicinska området, underhållning och omgivande intelligens områden. I detta undersökningsdokument läggs stor vikt vid WBAN-teknikens koncept och nyckelegenskaper. För det första införs WBAN-konceptet och en översyn av viktiga tillämpningar som underlättas av denna nätverksteknik tillhandahålls. Studien undersöker sedan en mängd olika kommunikationsstandarder och metoder som används i denna teknik. På grund av att de data som WBAN överför och hanterar är känsliga och kritiska är feltolerans en kritisk fråga som diskuteras allmänt i detta dokument. Därför undersöker denna undersökning noggrant den tillförlitlighet och feltolerans paradigm som föreslagits för WBAN. Öppen forskning och utmanande frågor som rör feltolerans, samexistens och störningshantering samt strömförbrukning diskuteras också tillsammans med några förslag till trender i dessa aspekter. | Tillförlitlighet, feltoleranta och störningsbegränsande system presenteras i REF. | 9,280,644 | Wireless Body Area Network (WBAN): A Survey on Reliability, Fault Tolerance, and Technologies Coexistence | {'venue': 'CSUR', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,011 |
En 3D iteration utrymme visualizer (ISV) presenteras för att analysera parallellismen i loopar och för att hitta loop transformationer som förbättrar parallellismen. Med hjälp av automatisk programinstrumentering konstrueras iterationsutrymmesberoendekurvan (ISDG), som visar de exakta databeroendena hos godtyckligt inbäddade slingor. Olika grafiska operationer som rotation, zoomning, klippning, färgning och filtrering, tillåter en detaljerad undersökning av beroenderelationer. Dessutom visar en animerad dataflödesutförande maximal parallellism och parallella slingor indikeras automatiskt av en inbäddad databeroendeanalys. Dessutom kan användaren upptäcka och indikera ytterligare parallellism för vilken en lämplig enmodulär slinga omvandling beräknas och verifieras. Den ISV har applicerats för att parallellisera algoritmiska kärnprogram, en beräkningsvätska dynamik (CFD) simuleringskod, upptäckt av uttalande nivå parallellism och loop variabel privatisering.Programmen visar att visualiseraren är ett mångsidigt och lätt att använda verktyg för den högpresterande program programmeraren. Akademisk press | 3D iteration utrymme visualizer kan användaren interaktivt begära loop parallellisering genom en visuell representation REF. | 18,787,334 | Loop parallelization using the 3D iteration space visualizer | {'venue': 'Journal of Visual Languages and Computing', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,012 |
Hitta källan till lukt i en turbulent miljö - ett vanligt beteende för levande organismer - är icke-trivial på grund av den slumpmässiga naturen av blandning. Här analyserar vi de statistiska fysikaspekterna av problemet och föreslår en effektiv strategi för luktsökning som kan fungera i turbulenta plymer. Algoritmen kombinerar den maximala sannolikheten för att källpositionen ska sluta sig till en aktiv sökning. Vårt tillvägagångssätt ger den teoretiska grunden för utformningen av luktrobotar och de kvantitativa verktygen för analys av de observerade luktsökbeteenden hos levande varelser (t.ex. luktmodulerad optomotorisk anemotax av mal). Olfaktoriska sökstrategier är intressanta på grund av deras relevans för djurens beteende [1, 2, 3, 4, 5, 6] och på grund av deras potentiella nytta i praktiska tillämpningar (t.ex. sökande efter kemiska läckor, droger och sprängämnen [27] ). Både försöket att karakterisera och förstå luktbeteendet hos levande organismer [1, 2, 3, 4, 5, 6] och den senaste tidens försök att konstruera och bygga "sniffmaskiner" -robotar som navigerar med lukter som vägledning [27, 26, 28, 29] står inför det gemensamma problemet att förstå hur den information som erhålls från sporadisk upptäckt av lukt som sprids i ett naturligt turbulent flöde effektivt kan användas för att lokalisera källan. Här ska vi diskutera de statistiska aspekterna av turbulent luktspridning och föreslå en ny och väldefinierad sökalgoritm, som vi först ska definiera i samband med en förenklad modell av den turbulenta plymen och senare upprepa i den form som gäller för den naturliga miljön. Den föreslagna sökalgoritmen kan användas i robotiska tillämpningar och ger en rimlig algoritmisk tolkning av aspekter av insektsolfaktorns sökbeteende. Den mest kända strategin för att lokalisera källan till ett ämne är cellgifter [7, 30] som består av rörelse i riktning mot den lokala koncentrationsgradienten. Kemotaxi verkar på små skalor, där ämnet sprids genom diffusion och koncentrationsfältet är jämnt, vilket är lämpligt för miljön hos bakterier, amöbae eller enstaka eukaryota celler [30, 31]. Å andra sidan spårar större djur lukter i turbulenta flöden, t.ex. i atmosfären, måste ta itu med den komplexa fluktuerande struktur lukt plommon orsakas av slumpmässigheten i flödet som sprider det. Detta gör sökningen till en mycket mer komplex uppgift. Lukten är inte alltid närvarande och när det upptäcks, den lokala koncentrationsgradienten pekar normalt inte mot källan [2, 8, 9, 10, 11]. En mer komplex strategi krävs och ytterligare information såsom den aktuella vindriktningen (och hastigheten) är mycket värdefull. En av de bäst karakteriserade luktsökningsbeteenden är "odormodulerad optomotorisk anemotaxis", som används av män av vissa malarter (se [1, 2] ) för att lokalisera källan till en feromon (dvs. Potentiell mate), och som innebär, förutom luktsinnet, förmågan att bestämma vindriktningen *. Malens luktjakt flyg uppvisar en motsvängande mönster: en följd av svängar alternativt till vänster och höger med avseende på vindriktning †. Motsvängning klassificeras vidare som i) gjutning och ii) sicksackning [15, 16, 17, 18]. De två skiljer sig i omfattningen av uppvinden progression: "zigzagging" är motsvängning med en betydande resulterande rörelse- * Moths bestämma momentant riktning vind visuellt genom att titta på rörelsen av objekt på marken: när malen är på väg mot uppvind sin kropp axel är i linje med riktningen för rörelse av objekten (se C. T. David, Ref. [1] s. 49). † Det har visat sig att motsvängarna är självstyrda i motsats till lutningsstyrda [15, 16], vilket innebär att malen gör varje sväng inte för att den når gränsen för plymen och känner den laterala lutningen av koncentrationen, men på grund av inre svänggenerator som växlar mellan höger och vänster. | Balkovskijs och Shraiman Ref:s arbete med statistisk analys av plymen är också relevant. | 5,223,710 | Olfactory search at high Reynolds number | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Medicine', 'Physics']} | 3,013 |
Nya system är utformade med förbättrad kvalitet eller egenskaper. Alla nya system lever dock inte upp till sina förväntningar före utvecklingen när de testas med slutanvändare. Utvärderingen av den första versionen av vårt LOCO-Analyst-verktyg för att ge lärare feedback på elevers lärandeaktiviteter och prestationer ledde till att verktygets visualiseringsegenskaper förbättrades. Den andra utvärderingen av det förbättrade verktyget gjorde det möjligt för oss att se hur förbättringarna påverkar användarens uppfattning om verktyget. Här presenterar vi de kvalitativa resultaten av våra två utvärderingar. Resultaten visar att pedagoger finner de typer av feedback som implementeras i verktyget informativa och de värdesätter blandningen av text- och grafiska representationer av olika typer av feedback som tillhandahålls av verktyget. | Till exempel har REF utvecklat LOCO-Analyst för att ge instruktörer feedback på studentinlärningsaktiviteter och prestanda. | 15,582,540 | A qualitative evaluation of evolution of a learning analytics tool | {'venue': 'Comput. Educ.', 'journal': 'Comput. Educ.', 'mag_field_of_study': ['Computer Science']} | 3,014 |
Abstrakt. Arbetet med att integrera källor och tjänster i Semantic Web förutsätter att uppgifterna antingen redan finns representerade i RDF eller OWL eller finns tillgängliga via en Semantic Web Service. I praktiken finns det en enorm mängd data på webben som inte är tillgänglig via den semantiska webben. I detta dokument presenterar vi en strategi för att automatiskt upptäcka och skapa nya semantiska webbtjänster. Tanken bakom detta tillvägagångssätt är att börja med en uppsättning kända källor och motsvarande semantiska beskrivningar av dessa källor och sedan upptäcka liknande källor, extrahera data från dessa källor, bygga semantiska beskrivningar av dessa källor och sedan förvandla dem till semantiska webbtjänster. Vi implementerade en end-to-end lösning på detta problem i ett system som heter Deimos och utvärderade systemet över fem olika domäner. Resultaten visar att systemet automatiskt kan upptäcka, lära sig semantiska beskrivningar och bygga semantiska webbtjänster med endast exempelkällor och deras beskrivningar som indata. | DEIMOS REF är ett end-to-end-system som, med tanke på en såddwebbplats och viss bakgrundskunskap om domänen, upptäcker relaterade webbplatser och bygger semantiska webbtjänster från dem. | 9,295,554 | Automatically Constructing Semantic Web Services from Online Sources | {'venue': 'International Semantic Web Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,015 |
En uppsättning X är svagt konvex i G om för två hörn a, b X det finns en ab-geodesic sådan att alla dess hörn tillhör X. En uppsättning X V är en svagt konvex dominerande uppsättning om X är svagt konvex och dominerande. Det svagt konvexa dominanstalet γ wcon (G) i en graf G är lika med den minsta kardinaliteten hos en svagt konvex dominant som anges i G. Det svagt konvexa dominanstalet sd γwcon (G) är det minsta antal kanter som måste delas upp (varje kant i G kan delas upp som mest en gång) för att öka det svaga konvexa dominanstalet. I detta dokument inleder vi studiet av svagt konvext dominansdelsektionsnummer och fastställer övre gränser för det. | Studie av svagt konvexa dominans indelningsnummer och dess övre gränser presenteras i REF. | 44,222,694 | Weakly convex domination subdivision number of a graph | {'venue': None, 'journal': 'Filomat', 'mag_field_of_study': ['Mathematics']} | 3,016 |
Vi presenterar ett minnesbaserat lärande (MBL) förhållningssätt till ytlig tolkning där POS-märkning, kapning och identifiering av syntaktiska relationer formuleras som minnesbaserade moduler. De experiment som rapporteras i detta papper visar konkurrenskraftiga resultat, F β=1 för Wall Street Journal (WSJ) trädbank är: 93,8% för NP styckning, 94,7% för VP styckning, 77,1% för ämnesdetektering och 79,0% för objektdetektering. | REF använder minnesbaserat lärande. | 47,323,967 | Memory-Based Shallow Parsing | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 3,017 |
Effektiv tilldelning av delade on-chip-resurser mellan kärnor är avgörande för att optimera utförandet i chip multiprocessorer (CMP). Tekniker som föreslås i litteraturen är ofta beroende av globala, centraliserade mekanismer som försöker maximera systemgenomströmningen. Global optimering kan skada skalbarhet: eftersom fler kärnor är integrerade på en die, ökar sökytan exponentiellt, vilket gör det svårare att uppnå optimala eller till och med acceptabla driftpunkter vid körning utan att ådra sig betydande overheads. I detta dokument föreslår vi XChange, en ny resursfördelningsmekanism för CMP som ger skalbar hög genomströmning och rättvisa. Genom XChange fungerar CMP som en marknad, där varje delad resurs tilldelas ett pris som ändras över tiden, och varje kärna strävar efter att maximera sin egen nytta, genom att bjuda på dessa delade resurser. Eftersom varje kärna till stor del fungerar självständigt blir resurstilldelningen en skalbar, mestadels distribuerad beslutsprocess. Genom att fördela resurserna proportionellt till anbuden undviker systemet dessutom orättvisa och behandlar varje kärna på ett opartiskt sätt. Vår utvärdering visar att med hjälp av detaljerade simuleringar av en 64-kärnig CMP-konfiguration som kör en mängd olika flerprogrammerade arbetsbelastningar, förbättrar den föreslagna XChange-mekanismen systemgenomströmningen (viktad upphastighet) med ca 21% i genomsnitt, och rättvisa (harmonisk upphastighet) med ca 24% i genomsnitt, jämfört med lika stor andel på chip cache och strömdistribution. När det gäller båda mätvärdena är det minst dubbelt så mycket förbättring jämfört med lika stor andel som ett toppmodernt centraliserat fördelningssystem. Dessutom visar våra resultat att XChange är betydligt mer skalbar än det toppmoderna centraliserade tilldelningssystem vi jämför med. | I REF fungerar CMP-arkitekturen som en "marknad" där varje huvudbud på "prissatta" delade resurser med dess "budget". Genom att fördela resurser i proportion till anbuden undviker systemet orättvisa och behandlar varje kärna på ett opartiskt sätt. | 7,932,186 | XChange: A market-based approach to scalable dynamic multi-resource allocation in multicore architectures | {'venue': '2015 IEEE 21st International Symposium on High Performance Computer Architecture (HPCA)', 'journal': '2015 IEEE 21st International Symposium on High Performance Computer Architecture (HPCA)', 'mag_field_of_study': ['Computer Science']} | 3,018 |
En ny dynamisk Bayesiansk icke-parametrisk ämnesmodell för anomalidetektering i video föreslås i detta dokument. Batch och online Gibbs provtagare är utvecklade för slutledning. I dokumentet införs en ny abnormitetsåtgärd för beslutsfattande. Den föreslagna metoden utvärderas på både syntetiska och verkliga data. Jämförelsen med en icke-dynamisk modell visar den föreslagna dynamiska modellens överlägsenhet när det gäller klassificeringsprestanda för att upptäcka anomalier. | Isupova m.fl. REF föreslog en ny dynamisk Bayesian nonparametric ämnesmodell och dess Batch och online Gibbs samplers för anomali upptäckt i video. | 64,331,385 | Anomaly detection in video with Bayesian nonparametrics | {'venue': None, 'journal': 'arXiv: Machine Learning', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 3,019 |
Sanering av ett dokument innebär att känslig information tas bort från dokumentet, så att den kan distribueras till en bredare publik. Sådan sanitering behövs samtidigt som dokument som omfattar känslig eller konfidentiell information såsom e-post till företag, underrättelserapporter, journaler, etc. I detta dokument presenterar vi ERASE-ramverket för att utföra dokumentsanering på ett automatiserat sätt. ERASE kan användas för att sanera ett dokument dynamiskt, så att olika användare får olika vyer av samma dokument baserat på vad de har behörighet att veta. Vi formaliserar problemet och presenterar algoritmer som används i ERASE för att hitta lämpliga termer för att ta bort från dokumentet. Vår preliminära experimentella studie visar de föreslagna algoritmernas effektivitet och effektivitet. | REF presenterar Erasme-ramverket för sanitering av ostrukturerade dokument baserat på scoring-funktioner. | 14,594,443 | Efficient techniques for document sanitization | {'venue': "CIKM '08", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,020 |
Abstract-Spectrum reservation växer fram som en av de potentiella lösningarna för att tillgodose kommunikationsbehoven hos ett stort antal trådlösa Internet of Things (IoT) enheter med tillförlitlighet begränsningar särskilt i uppdragskritiska scenarier. I de flesta uppdragskritiska system kanske den verkliga nyttan av en reservation inte är helt känd i förväg eftersom de osedda händelserna kanske inte är helt förutsägbara. I detta dokument presenterar vi en dynamisk kontraktsmetod där en förskottsbetalning görs vid bokningstillfället baserat på partiell information om spektrumreservationsverktyget. När den fullständiga informationen har erhållits görs en rabatt på betalningen om bokningen frisläpps. I detta dokument presenterar vi ett kontrakt teoretiskt tillvägagångssätt för att utforma en incitamentsmekanism som tvingar applikationerna att avslöja sin sanna applikationstyp vilket resulterar i större lönsamhet för IoT-nätoperatören. Operatören erbjuder en meny av kontrakt med avancerade betalningar och rabatt till IoT-applikationer utan att ha kunskap om vilka typer av applikationer. Beslutet av ansökningarna vid valet av avtal leder till att operatören får kännedom om sin verkliga typ som gör det möjligt för den att generera högre vinster än en traditionell spektrumauktionsmekanism. Enligt vissa antaganden om fördelningen av nyttan av tillämpningarna tillhandahålls slutna formulärlösningar för det optimala dynamiska spektrumreservationsavtalet och känsligheten mot systemparametrar analyseras. | I REF har till exempel ett optimalt dynamiskt spektrumbokningsavtal utformats för uppdragskritiska IoT-system. | 3,995,963 | Optimal Dynamic Contract for Spectrum Reservation in Mission-Critical UNB-IoT Systems | {'venue': '16th International Symposium on Modeling and Optimization in Mobile, Ad Hoc and Wireless Networks (WiOpt 2018)', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,021 |
Deep Neural Networks utbildade som bild auto-kodare har nyligen dykt upp som en lovande riktning för att avancera state-of-the-art i bildkomprimering. Den viktigaste utmaningen när det gäller att lära sig sådana nätverk är två: att hantera kvantifiering, och att kontrollera avvägningen mellan rekonstruktionsfel (förvrängning) och entropi (frekvens) av den latenta bildrepresentationen. I detta dokument fokuserar vi på den senare utmaningen och föreslår en ny teknik för att navigera rankningsavräkning för en bildkompression auto-encoder. Huvudidén är att direkt modellera den latenta representationens entropi med hjälp av en kontextmodell: A 3D-CNN som lär sig en villkorlig sannolikhetsmodell av den latenta fördelningen av auto-encodern. Under utbildningen använder sig auto-encodern av kontextmodellen för att uppskatta dess representations entropi, och kontextmodellen uppdateras samtidigt för att lära sig beroendena mellan symbolerna i den latenta representationen. Våra experiment visar att detta tillvägagångssätt, när det mäts i MS-SSIM, ger ett tillstånd-av-hjärta bildkompressionssystem baserat på en enkel convolutional auto-encoder. | Mentzer m.fl. REF använder också en modifierad autoencoder-arkitektur som styr avvägningen mellan komprimeringsförhållandet och distorsion genom användningskontextmodeller och crossentropiuppskattning. | 44,247,532 | Conditional Probability Models for Deep Image Compression | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 3,022 |
Den dynamiska approximativa medlemskap problemet ber att representera en uppsättning S i storlek n, vars delar tillhandahålls på ett on-line-sätt, stödja medlemskap frågor utan falska negativa och med en falsk positiv hastighet som mest. Det vill säga, medlemskapsalgoritmen måste vara korrekt på varje x på S, och kan fela med sannolikhet som mest på varje x / på S. Vi studerar en välmotiverad, men otillräckligt utforskad, variant av detta problem där storleken n av uppsättningen inte är känd i förväg. Befintliga optimala approximativa medlemsdata strukturer kräver att storleken är känd i förväg, men i många praktiska scenarier är detta inte ett realistiskt antagande. Dessutom, även om den slutliga storleken n av uppsättningen är känd i förväg, är det önskvärt att ha minsta möjliga utrymme användning också när det nuvarande antalet infogade element är mindre än n. Vårt bidrag består av följande resultat: • Vi visar en super-linjär gap mellan utrymmet komplexitet när storleken är känd i förväg och utrymmet komplexitet när storleken inte är känd i förväg. När storleken är känd i förväg, är det välkänt att på log(1/ ) bitar av utrymme är nödvändiga och tillräckliga (Bloom '70, Carter et al. - "78". - Jag vet inte. Men när storleken inte är känd i förväg, visar vi att minst (1 − o(1))n log(1/ ) + på log n) bitar av utrymme måste användas. I synnerhet måste det genomsnittliga antalet bitar per element bero på mängdens storlek. • Vi visar att vårt utrymme är trångt och till och med kan matchas av en mycket effektiv datastruktur. Vi presenterar en datastruktur som använder (1+o(1))n log(1/ )+O(n log n) bitar av utrymme för att approximera någon uppsättning av någon storlek n, utan att behöva veta n i förväg. Vår datastruktur stöder medlemskap frågor i konstant tid i värsta fall med hög sannolikhet, och stöder tillägg i förväntad amortized konstant tid. Dessutom kan det vara "de-amortized" att stödja även infogar i konstant tid i värsta fall med hög sannolikhet genom att bara öka sin rymdanvändning till O(n log(1/ ) + n log log n) bitar. | Pagh, Segev och Wieder REF visade att om storleken n inte är känd i förväg måste minst (1 − o(1))n log 1 ε + (n log n) bitar av utrymme användas. | 2,549,059 | How to Approximate a Set without Knowing Its Size in Advance | {'venue': '2013 IEEE 54th Annual Symposium on Foundations of Computer Science', 'journal': '2013 IEEE 54th Annual Symposium on Foundations of Computer Science', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 3,023 |
Med tanke på ett (kombinatoriskt) optimeringsproblem och en genomförbar lösning på det, motsvarande inversa optimeringsproblem är att hitta en minimal justering av kostnadsfunktionen så att den givna lösningen blir optimal. Flera sådana problem har undersökts under de senaste tio åren. Efter att ha formaliserat begreppet om ett omvänt problem och dess varianter presenterar vi olika metoder för att lösa dem. Sedan diskuterar vi de problem som behandlas i litteraturen och de resultat som har uppnåtts. Slutligen formulerar vi några öppna problem. | Heuberger REF ger en utmärkt kartläggning av de olika inversa optimeringsproblem som har hanterats. | 18,105,696 | Inverse Combinatorial Optimization: A Survey on Problems, Methods, and Results | {'venue': 'TO APPEAR IN JOURNAL OF COMBINATORIAL OPTIMIZATION', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 3,024 |
Abstract-This paper are a two-way halv-duplex decode-and-flow reläing system, där flera par av en-antenna användare utbyter information via en multipel-antenna relä. Förutsatt att kanal kunskap är nonideal och reläet använder maximal förhållande bearbetning, vi härleda en storskalig approximation av den summa spektral effektivitet (SE) som är snäv när antalet reläantenner M blir mycket stor. Dessutom studerar vi hur överföringsvågen med M för att upprätthålla ett önskat SE. I synnerhet diskuteras tre speciella potenscaling fall och motsvarande asymptotic SE härleds med tydliga insikter. Våra eleganta kraftskalningslagar avslöjar en kompromiss mellan användarens/reläets och pilotsymbolens överföringskrafter. Slutligen formulerar vi ett kraftfördelningsproblem när det gäller att maximera summan SE och få en lokal optimal genom att lösa en sekvens av geometriska programmeringsproblem. Index Terms-Decode-och-framåt, geometrisk programmering, massiv MIMO, makt-skalning lag, tvåvägs reläer. | Vårt tidigare arbete med REF har avslöjat denna kompromiss för avkoda-och-framåt reläsystemet. | 13,718,875 | Multipair Two-Way Half-Duplex DF Relaying With Massive Arrays and Imperfect CSI | {'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 3,025 |
Under de senaste åren har det förekommit flera allvarliga attacker mot Transport Layer Security (TLS), inklusive attacker mot de vanligaste koderna och driftssätten. Detta dokument sammanfattar dessa attacker, med målet att motivera generiska och protokollspecifika rekommendationer om användningen av TLS och Datagram TLS (DTLS). Denna Internetkraft lämnas in i full överensstämmelse med bestämmelserna i BCP 78 och BCP 79. | REF RFC 7457 sammanfattar kända attacker mot TLS och DTLS. | 1,655,128 | Summarizing Known Attacks on Transport Layer Security (TLS) and Datagram TLS (DTLS) | {'venue': 'RFC', 'journal': 'RFC', 'mag_field_of_study': ['Computer Science']} | 3,026 |
Sammanfattning Syftet med denna uppsats är att undersöka en curry-howard tolkning av skärningspunkten och fackföreningstyp inference system för kombinatorisk Logic. Typer tolkas som formler för en Hilbert-stil logik L, som visar sig vara en utvidgning av den intuitionistiska logiken med avseende på bevisbara disjunktiva formler (på grund av nya ekvivalensrelationer på formler), medan det implicita-konjunktiva fragmentet av L fortfarande är ett fragment av intuitionistisk logik. Dessutom, typbara termer översätts i en maskinskriven version, så att den maskinskrivna kombinationslogiken termer bevisas för att helt kodifiera de tillhörande logiska bevis. | Valtyper påminner också om facktyper REF. | 15,698,530 | The "Relevance" of Intersection and Union Types | {'venue': 'Notre Dame Journal of Formal Logic', 'journal': 'Notre Dame Journal of Formal Logic', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 3,027 |
Raderad filloggning Fillikviditet a b s t r a c t Den historiska inriktningen av rättsmedicinsk forskning och verktyg på digitala system som beslagtas från en misstänkt missar det faktum att det i centralt kontrollerade nätverk är möjligt att proaktivt och kontinuerligt samla in bevis i förväg om ett känt behov. Vi presenterar en proof-of-concept för PROOFS, det första föreslagna kontinuerliga kriminaltekniska bevis insamlingssystem som tillämpar informationssökning tekniker för filsystem kriminalteknik. PROOFS skapar och lagrar signaturer för filer som tas bort, redigeras eller kopieras inom ett sådant nätverk. Hjärtat i varje signatur är ett eller flera fingeravtryck, som genereras baserat på statistiska egenskaper filinnehåll, upprätthålla semantik samtidigt som kräver så lite som 1,06% av lagringsutrymmet i den ursprungliga filen. Vi fokuserar på textdokument och visar att PROOFS har en hög precision på 0,96 och minns 0,85 med lagrade fingeravtrycksstorlekar på mindre än 375 byte. De två bidragen från detta arbete är att vi visar att det finns gemensamma miljöer där proaktiv insamling av rättsmedicinska bevis är möjlig och att vi visar en effektiv och korrekt mekanism för insamling av bevis i dessa miljöer. | Sköldar och al. REF skapade ett proof-of-concept kontinuerlig kriminalteknisk bevisinsamlingssystem som kunde användas i molnet, till exempel för att registrera radering och skapande av tjänstebestämmelser. | 14,410,238 | A system for the proactive, continuous, and efficient collection of digital forensic evidence | {'venue': None, 'journal': 'Digital Investigation', 'mag_field_of_study': ['Computer Science']} | 3,028 |
Klicka förutsägelse är ett av de grundläggande problemen i sponsrad sökning. De flesta befintliga studier drog nytta av maskininlärning metoder för att förutsäga annonsklick för varje händelse av annonsvy oberoende. Men, som observerats i den verkliga världen sponsrade söksystemet, användarens beteende på annonser ger hög beroende av hur användaren betedde sig tillsammans med den senaste tiden, särskilt när det gäller vilka frågor hon lämnade in, vilka annonser hon klickade eller ignorerade, och hur länge hon spenderade på landningssidorna för klickade annonser, etc. Inspirerad av dessa observationer introducerar vi ett nytt ramverk baserat på Recurrent Neural Networks (RNN). Jämfört med traditionella metoder modellerar detta ramverk direkt beroendet av användarens sekventiella beteende i klickförutsägelseprocessen genom den återkommande strukturen i RNN. Storskaliga utvärderingar av klick-genom loggar från en kommersiell sökmotor visar att vår strategi kan avsevärt förbättra klick förutsägelsen noggrannhet, jämfört med sekvensoberoende strategier. | För att fånga beroende av användarnas sekventiella beteenden, Zhang et al. I REF föreslås modeller baserade på Recurrent Neural Network (RNN) för CTR-prognoser. | 9,655,225 | Sequential Click Prediction for Sponsored Search with Recurrent Neural Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 3,029 |
Vi rapporterar resultat om att förutsäga känslan av implicita diskursrelationer mellan angränsande meningar i text. Vår undersökning fokuserar på sambandet mellan diskursrelationer och egenskaper hos de referentuttryck som förekommer i de relaterade meningarna. Intressets egenskaper inkluderar coreferensinformation, grammatisk roll, informationsstatus och syntaktisk form av hänvisningsuttryck. Att förutsäga känslan av implicita samtalsrelationer baserade på dessa egenskaper är betydligt bättre än en slumpmässig baslinje och flera av de mest diskriminerande dragen överensstämmer med språklig intuition. Dessa egenskaper fungerar dock inte lika bra som lexikala drag som traditionellt används för att förutsäga sinnesförnimmelser. | Ref fokuserade på implicita relationer som kopplar samman intilliggande argument och experimenterar med samreferensinformation, grammatisk roll, informationsstatus och syntaktisk form av referensuttryck. | 6,860,396 | Using entity features to classify implicit discourse relations | {'venue': 'Proceedings of the SIGDIAL 2010 Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,030 |
Operativsystemets (OS) roll i hanteringen av delade resurser som CPU-tid, minne, kringutrustning och även energi är väl motiverad och förstådd [23]. Tyvärr är en viktig resurs-lägre-nivå delad cache i chip multi-processorer- vanligen hanteras enbart i hårdvara genom rudimentära ersättningspolicyer såsom minst nyanvända (LRU). Hårdvarucachehanteringspolitikens stelbenta karaktär utgör ett allvarligt problem eftersom det inte finns någon enda bästa policy för hantering av cache i alla delningsscenarier. Till exempel, cache management policy för ett scenario där applikationer från en enda organisation kör under "bästa ansträngning" prestanda förväntningar kommer sannolikt att skilja sig från policyn för ett scenario där tillämpningar från konkurrerande företag enheter (t.ex. vid en tredje parts datacenter) kör under en lägsta servicenivå förväntningar. När det gäller att hantera delade cacheminnen finns det en inneboende spänning mellan flexibilitet och prestanda. Å ena sidan, att hantera den delade cache i OS ger enorm politisk flexibilitet eftersom det kan genomföras i programvara. Tyvärr är det oöverkomligt dyrt i fråga om prestanda för OS att delta i hanteringen av temporärt finkorniga händelser såsom cache allokering. Å andra sidan har sofistikerade hårdvaru-endast cachehantering tekniker för att uppnå rättvis delning eller throughput maximization föreslagits. Men de erbjuder ingen politisk flexibilitet. Detta dokument tar upp detta problem genom att utforma arkitektoniskt stöd för OS för att effektivt hantera delade cacheminnen med en mängd olika policyer. Vårt system består av en mekanism för hantering av cachekvoter, ett OS-gränssnitt och en uppsättning policyer för kvotering av OS-nivåer. Hårdvarumekanismen garanterar att OS-specificerade kvoter tillämpas i delade caches, vilket eliminerar behovet av (och prestandastraffet för) tidsmässigt finkorniga OS-intervention. OS behåller den politiska flexibiliteten eftersom den kan justera kvoterna vid regelbundet schemalagda OS-interventioner. Vi visar att vårt program kan stödja ett brett spektrum av politiska åtgärder, inklusive politik som ger a) passiv per- | REF föreslog ett arkitekturstöd och operativsystem (OS) gränssnitt som tillåter OS-nivå cache partitionering, där ett program hindras från att ockupera mer än en viss fraktion (kvot) av cache. | 2,377,185 | Architectural support for operating system-driven CMP cache management | {'venue': "PACT '06", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,031 |
Neural Machine Translation (NMT) baserad på encoder-dekoder arkitekturen har nyligen blivit ett nytt paradigm. Forskare har visat att målsidan enspråkig data kan avsevärt förbättra dekoder modellen av NMT. De enspråkiga uppgifterna på källkodssidan utforskas dock inte fullt ut, även om det bör vara lämpligt att stärka NMT:s kodarmodell, särskilt när den parallella corpusen är långt ifrån tillräcklig. I detta dokument föreslår vi två metoder för att fullt ut utnyttja källsidans enspråkiga uppgifter i NMT. Den första metoden använder sig av självlärande algoritm för att generera syntetiska storskaliga parallella data för NMT utbildning. Det andra tillvägagångssättet tillämpar det multi-task lärande ramverket med hjälp av två NMTs för att förutsäga översättningen och de omordnade källsidan monolingual meningar samtidigt. De omfattande försöken visar att de föreslagna metoderna får betydande förbättringar jämfört med den starka uppmärksamhetsbaserade NMT. | Jämfört med bakåtöversättning föreslår REF två metoder för att använda källsidans enspråkiga data, varav den första använder sig av en självlärande algoritm för att generera pseudodata, medan den andra använder två NMT-modeller för att förutsäga översättningen och för att omordna källsidans enspråkiga meningar. | 17,667,087 | Exploiting Source-side Monolingual Data in Neural Machine Translation | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,032 |
Hittills saknar trådlösa sensornätverk den mest kraftfulla mänskliga sense -visionen. Detta beror till stor del på två huvudsakliga problem: (1) tillgängliga trådlösa sensornoder saknar den bearbetningskapacitet och energiresurs som krävs för att effektivt bearbeta och kommunicera stora volymer av bilddata och (2) de tillgängliga protokollen ger inte den kökontroll och feldetekteringskapacitet som krävs för att minska felfrekvensen i paket och vidaresändningar till en nivå som lämpar sig för trådlösa sensornätverk. Detta dokument presenterar en innovativ arkitektur för objektextraktion och ett robust program-lager protokoll för energieffektiv bildkommunikation över trådlösa sensornätverk. Protokollet innehåller paket kökontrollmekanism med inbyggd CRC för att minska felfrekvensen för paket och därigenom öka datagenomströmningen. Till skillnad från andra protokoll för bildöverföring erbjuder det föreslagna protokollet flexibilitet för att justera bildpaketstorleken baserat på länkförhållanden. Den föreslagna processarkitekturen ger objektextraktion med hög hastighet med minimalt hårdvarubehov och låg strömförbrukning. Systemet utformades och genomfördes framgångsrikt på FPGA. Experimentella resultat som erhållits från ett nätverk av sensornoder som utnyttjar den föreslagna arkitekturen och tillämpnings-lager protokollet visar att denna nya metod är lämplig för att effektivt kommunicera multimediadata över trådlösa sensornätverk. | I REF Pham och Aziz föreslog en ny arkitektur för objektextraktion och tillförlitliga kommunikationsprotokoll över trådlöst sensornätverk. | 18,834,601 | Object extraction scheme and protocol for energy efficient image communication over wireless sensor networks | {'venue': 'Comput. Networks', 'journal': 'Comput. Networks', 'mag_field_of_study': ['Computer Science']} | 3,033 |
Djupa kvarvarande nätverk (ResNets) och deras varianter används i stor utsträckning i många datorseende applikationer och naturliga språkbehandlingsuppgifter. De teoretiska principerna för utformning och utbildning av ResNets är dock ännu inte helt klarlagda. Nyligen har flera synpunkter dykt upp för att försöka tolka ResNet teoretiskt, såsom ouppklarad vy, orullad iterativ uppskattning och dynamisk systemvy. I detta dokument, vi antar den dynamiska system synvinkel, och analysera lesioning egenskaper ResNet både teoretiskt och experimentellt. Baserat på dessa analyser föreslår vi dessutom en ny metod för att påskynda ResNet-utbildningen. Vi tillämpar den föreslagna metoden för att träna ResNets och Wide ResNets för tre bild klassificering riktmärken, minska utbildningstiden med mer än 40% med överlägsen eller on-par noggrannhet. | Chang REF föreslog dynamisk systemvisning av kvarvarande nät (ResNet). | 35,673,326 | Multi-level Residual Networks from Dynamical Systems View | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 3,034 |
Cloud computing erbjuder allmännyttiga IT-tjänster till användare över hela världen. Baserat på en pay-as-you-go modell, möjliggör det att vara värd för omfattande tillämpningar från konsumenter, vetenskapliga, och affärsområden. Datacenter hosting Cloud-applikationer förbrukar dock enorma mängder elektrisk energi, vilket bidrar till höga driftskostnader och koldioxidavtryck till miljön. Därför behöver vi Green Cloud computing-lösningar som inte bara kan minimera driftskostnaderna utan också minska miljöpåverkan. I detta dokument definierar vi en arkitektonisk ram och principer för energieffektiv datormoln. Baserat på denna arkitektur presenterar vi vår vision, öppna forskningsutmaningar, resursförsörjning och allokering av algoritmer för energieffektiv hantering av molndatamiljöer. Den föreslagna energi-medvetna tilldelning heuristics tillhandahållande data center resurser till klientapplikationer på ett sätt som förbättrar energieffektiviteten i datacenteret, samtidigt som den förhandlade Kvalitet på tjänsten (QoS). I detta dokument genomför vi i synnerhet en undersökning av forskning inom energieffektiv databehandling och föreslår: a) arkitektoniska principer för energieffektiv hantering av moln, b) energieffektiv resursfördelningspolitik och schemaläggningsalgoritmer med beaktande av QoS-förväntningar och anordningarnas egenskaper för effektanvändning, och c) ett antal öppna forskningsutmaningar som kan ge betydande fördelar för både resursleverantörer och konsumenter. Vi har validerat vår strategi genom att genomföra en prestandautvärderingsstudie med hjälp av verktygslådan CloudSim. Resultaten visar att Cloud computing-modellen har en enorm potential eftersom den erbjuder betydande kostnadsbesparingar och visar stor potential för att förbättra energieffektiviteten under dynamiska arbetsbelastningsscenarier. | I REF, Beloglazov m.fl. fastställa en arkitektonisk ram utöver principerna för resursfördelning för energieffektiva datormoln. | 11,199,785 | Energy-Aware Resource Allocation Heuristics for Efficient Management of Data Centers for Cloud Computing | {'venue': 'Future Gener. Comput. Syst.', 'journal': 'Future Gener. Comput. Syst.', 'mag_field_of_study': ['Computer Science']} | 3,035 |
Abstrakt. Domänens kontradiktoriska lärande anpassar funktionsfördelningen över käll- och måldomänerna i ett minimax-spel med två spelare. Befintliga domäna kontradiktoriska nätverk antar i allmänhet identiskt märkesutrymme över olika domäner. I närvaro av big data finns det stark motivation för att överföra djupa modeller från befintliga stora domäner till okända små domäner. I detta dokument införs partiell domänanpassning som ett nytt scenario för domänanpassning, vilket avlastar det helt delade utrymmesförutsättningen till att källmärkningens utrymme subsumerar det angivna utrymmet. Tidigare metoder matchar normalt hela källkodsdomänen med måldomänen, som är sårbara för negativ överföring för problemet med partiell domänanpassning på grund av den stora obalansen mellan etikettrymder. Vi presenterar Partial Adversarial Domain Adaptation (PADA), som samtidigt lindrar negativ överföring genom nedvägning av data från avvikande källklasser för utbildning av både källklassare och domänmotståndare, och främjar positiv överföring genom att matcha funktionsfördelningen i det delade etikettutrymmet. Experiment visar att PADA överskrider de senaste resultaten för partiella domänanpassningsuppgifter på flera datauppsättningar. | Cao m.fl. REF försökte lindra denna fråga genom att nedvikta proverna i osammanhängande märkningsutrymme och främja en positiv överföring via den kontradiktoriska inställningen i det delade märkningsutrymmet. | 51,980,671 | Partial Adversarial Domain Adaptation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 3,036 |
Sammanfattning Detta dokument syftar till att göra partiella orderminskningar oberoende av modellspråket. I detta syfte presenterar vi en bevakningsbaserad metod som är en allmän tillämpning av den envisa metoden. Vi närmar oss genomförandet genom så kallade nödvändiga möjliggörande uppsättningar och do-not-acord uppsättningar, och ger en algoritm lämplig för en abstrakt modell kontroll gränssnitt. Vi inför också nödvändiga handikappande uppsättningar och heuristik för att producera mindre envisa uppsättningar och därmed bättre minskning till låga kostnader. Vi undersöker effekten av dessa metoder med hjälp av en implementering i modellkontrollen LTSmin. Vi experimenterar med partiell orderminskning på ett antal Promela-modeller, på riktmärken från BEEM-databasen på DVE-språket och med flera med LTL-egenskaper. Effektiviteten hos den heuristiska algoritmen fastställs genom en jämförelse med den delmängdsminimala Deletion-algoritmen och den enkla stängningsalgoritmen. Vi jämför också våra resultat med Spin-modellens checker. Även om minskningarna tar längre tid, är de genomgående bättre än Spins rikliga uppsättning och ofta överträffar den övre gränsen för processbaserade rikliga uppsättningar, etablerade empiriskt tidigare på BEEM-modeller. | Ett allmänt genomförande av svaga envisa uppsättningar föreslås av Laarman et al. Hoppa över det. | 13,862,387 | Guard-based partial-order reduction | {'venue': 'International Journal on Software Tools for Technology Transfer', 'journal': 'International Journal on Software Tools for Technology Transfer', 'mag_field_of_study': ['Computer Science']} | 3,037 |
Att förstå mänskliga handlingar i vilda videor är en viktig uppgift med ett brett spektrum av tillämpningar. I detta dokument föreslår vi ett nytt tillvägagångssätt som heter Hierarkical Attention Network (HAN), som gör det möjligt att införliva statisk rumslig information, kortfristig rörelseinformation och långsiktiga tidsmässiga videostrukturer för komplex mänsklig handlingsförståelse. Jämfört med den senaste tidens konvolutionella neurala nätverk baserade metoder, har HAN följande fördelar -(1) HAN kan effektivt fånga video temporal strukturer i ett längre intervall; (2) HAN kan avslöja temporal övergångar mellan rambitar med olika tidssteg, dvs... Den modellerar uttryckligen tidsmässiga övergångar mellan ramar och videosegment och (3) med en flerstegs spatial temporal uppmärksamhetsmekanism, HAN lär sig automatiskt viktiga regioner i videoramar och temporalsegment i videon. Den föreslagna modellen utbildas och utvärderas utifrån de standardiserade riktmärkena för videoåtgärder, dvs. UCF-101 och HMDB-51, och överträffar i hög grad konstens tillstånd. | I REF föreslås ett Hierarkiskt uppmärksamhetsnätverk (HAN), som gör det möjligt att integrera uppmärksamhet av både rumslig och rörelseström i igenkänningen av åtgärder. | 8,734,355 | Hierarchical Attention Network for Action Recognition in Videos | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 3,038 |
Abstrakt. I många datadrivna tillämpningar måste man analysera vetenskaplig information som erhållits från flera källor och som genererats genom beräkningar av distribuerade resurser. Systematisk analys av denna vetenskapliga information frigör ett växande behov av automatiserade datadrivna applikationer som också kan hålla reda på härkomsten av data och processer med liten användarinteraktion och overhead. Sådana dataanalyser kan underlättas av de senaste framstegen i vetenskapliga arbetsflödessystem. En stor vinst vid användning av vetenskapliga arbetsflödessystem är förmågan att göra härkomstinsamlingen till en del av arbetsflödet. Specifikt bör härkomsten omfatta inte bara standarddatalinjeinformationen utan också information om det sammanhang i vilket arbetsflödet användes, utförande som behandlade data och utvecklingen av arbetsflödesdesignen. I detta dokument beskriver vi ett komplett ramverk för data och process härkomst i Kepler Scientific Workflow System. Vi beskriver de krav och frågeställningar som rör data och arbetsflödens härkomst i ett multidisciplinärt arbetsflödessystem och introducerar hur generisk härkomstfångst kan underlättas i Keplers aktörsorienterade arbetsflödesmiljö. Vi beskriver också användningen av lagrad härkomstinformation för effektiv rerun av vetenskapliga arbetsflöden. | Altintas, etc.Förlängningen av Cepler Scientific Workflow System REF liknar också det arbete som presenteras här. | 1,996,124 | Provenance collection support in the Kepler scientific workflow system | {'venue': 'In Proceedings of the International Provenance and Annotation Workshop (IPAW', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,040 |
Kunskapsdiagram är användbara resurser för många AI-tillämpningar, men de är långt ifrån fullständiga. Tidigare arbete som TransE, TransH och TransR/CTransR betraktar en relation som översättning från huvudenhet till svans enhet och CTransR uppnår state-of-the-art prestanda. I detta dokument föreslår vi en mer finkornig modell kallad TransD, som är en förbättring av TransR/CTransR. I TransD använder vi två vektorer för att representera ett namngivet symbolobjekt (enhet och relation). Den första representerar betydelsen av a(n) entitet (relation), den andra används för att konstruera kartmatris dynamiskt. Jämfört med TransR/CTransR beaktar TransD inte bara mångfalden av relationer, utan även enheter. TransD har mindre parametrar och har ingen matris-vektor multiplikation operationer, vilket gör att det kan tillämpas på storskaliga grafer. I Experiment utvärderar vi vår modell på två typiska uppgifter som trillingar klassificering och länk förutsägelse. Utvärderingsresultaten visar att vår strategi överträffar de senaste metoderna. | Transd Ref fångar upp mångfalden av relationer och enheter samtidigt genom att definiera dynamisk kartläggningsmatris. | 11,202,498 | Knowledge Graph Embedding via Dynamic Mapping Matrix | {'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,041 |
Minnesnätverk är neurala nätverk med en explicit minne komponent som kan både läsas och skrivas till av nätverket. Minnet tas ofta upp på ett mjukt sätt med hjälp av en softmax-funktion, vilket gör end-to-end träning med backpropagation möjlig. Detta är dock inte beräkningsbart för applikationer som kräver att nätverket läser från extremt stora minnen. Å andra sidan är det välkänt att mekanismer för hård uppmärksamhet som bygger på förstärkt inlärning är utmanande att träna framgångsrikt. I den här artikeln utforskar vi en form av hierarkiskt minnesnätverk, som kan betraktas som en hybrid mellan hårda och mjuka uppmärksamhetsminnesnätverk. Minnet är organiserat i en hierarkisk struktur så att läsning från det görs med mindre beräkning än mjuk uppmärksamhet över ett platt minne, samtidigt som det är lättare att träna än hård uppmärksamhet över ett platt minne. Vi föreslår att Maximum Inner Product Search (MIPS) införlivas i utbildnings- och slutledningsförfarandena för vårt hierarkiska minnesnätverk. Vi undersöker användningen av olika toppmoderna approximativa MIPS-tekniker och rapporterar resultat om enkla frågor, en utmanande storskalig faktafråga svar uppgift. | Hierarkiska minnesnätverk REF ) studera användningen av maximal inre produktsökning (MIPS) för att lagra minnesplatser i en hierarki. | 18,813,614 | Hierarchical Memory Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 3,042 |
Abstract-Vi utforskar de grundläggande gränserna för heterogen distribuerad detektion i ett anonymt sensornätverk med n-sensorer och ett enda fusionscenter. Fusionscentret samlar den enda observationen från var och en av n-sensorerna för att upptäcka en binär parameter. Sensorerna är grupperade i flera grupper och olika grupper följer olika fördelningar under en given hypotes. Den viktigaste utmaningen för fusionscentret är anonymiteten av sensorer-även om den vet det exakta antalet sensorer och fördelningen av observationer i varje grupp, det vet inte vilken grupp varje sensor tillhör. Det är därför naturligt att betrakta det som ett sammansatt hypotestestproblem. För det första föreslår vi ett optimalt test som kallas blandningssannolikhetstest, vilket är ett slumpmässigt tröskeltest baserat på förhållandet mellan den enhetliga blandningen av alla möjliga fördelningar under en hypotes och det under den andra hypotesen. Optimalitet visas genom att först hävda att det finns ett optimalt test som är symmetriskt, dvs. det beror inte på ordningen av observationer över sensorerna, och sedan bevisa att blandningen sannolikhetsförhållandet testet är optimal bland alla symmetriska tester. För det andra fokuserar vi på inställningen Neyman-Pearson och karakteriserar felet exponenten av den värsta fall typ-II sannolikhet som n tenderar att oändlighet, förutsatt att antalet sensorer i varje grupp är proportionell mot n. Slutligen generaliserar vi vårt resultat för att hitta insamling av alla uppnåeliga typ-I och typ-II fel exponenter, visar att gränsen för regionen kan erhållas genom att lösa ett optimeringsproblem. Våra resultat belysa priset på anonymitet i heterogen distribuerad detektion, och kan utvidgas till M-ary hypotes testning med heterogena observationer genereras enligt dolda latenta variabler. | Chen och Wang REF studerade det anonyma heterogena distribuerade detektionsproblemet och kvantifierade priset på anonymitet. | 13,673,534 | Anonymous Heterogeneous Distributed Detection: Optimal Decision Rules, Error Exponents, and the Price of Anonymity | {'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 3,043 |
Vi föreslår en ny representation av rörelsedata och kontroll som möjliggör tecken med både mycket smidiga svar på användarinmatning och naturlig hantering av godtyckliga externa störningar. Representationen organiserar rörelsedata som prover i en högdimensionell generalisering av ett vektorfält som vi kallar ett "rörelsefält". Vår runtime rörelsesyntes mekanism fritt "flöden" i rörelsefältet och är kapabel att skapa nya och naturliga rörelser som är mycket lyhörda för realtidsanvändarens inmatning, och i allmänhet inte uttryckligen specificerad i data. | REF föreslår en datastruktur som kallas rörelsefält där användaren interaktivt kan styra tecknen i rörelsegrenröret. | 13,511,006 | Motion fields for interactive character locomotion | {'venue': "SIGGRAPH ASIA '10", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,044 |
Ett ökande antal system är beroende av programmeringsspråkteknik för att garantera säkerhet och säkerhet för lågnivåkoder. Tyvärr är dessa system vanligtvis beroende av en komplex, betrodd sopsamlare. Regionbaserade typsystem ger ett alternativ till sophämtning genom att göra minneshanteringen explicit men verifiabelt säker. Det har dock inte varit klart hur man använder regioner i lågnivå, typsäker kod. Vi presenterar en kompilator mellanspråk, som kallas Capability Calculus, som stöder regionbaserad minneshantering, har ett bevisligen säkert typsystem, och är enkel att kompilera till ett maskinskrivet monteringsspråk. Källspråk kan sammanställas till vårt språk med hjälp av kända regionslutalgoritmer. Dessutom behöver regionens livstider inte lexikalt avgränsas i vårt språk, men språket kan kontrolleras för säkerhet utan komplexa analyser. Slutligen, vår ljudstyrka bevis är relativt enkel, med endast standard tekniker. Den centrala nyheten är användningen av statiska funktioner för att specificera tillåtenheten av olika operationer, såsom minnesåtkomst och deallocation. För att säkerställa att kapaciteten avges på rätt sätt spårar typsystemet aliasinformation med hjälp av en form av avgränsad kvantifiering. 1 En aktuell trend i systemprogramvara är att tillåta att opålitliga tillägg installeras i skyddade tjänster, beroende på språkteknik för att skydda tjänstens integritet i stället för hårdvarubaserade skyddsmekanismer [19, 39, 2, 25,24,17,14]. SPIN-projektet [2] bygger till exempel på Modula-3-systemet för att skydda en operativsystemkärna från felaktiga utökningar. På samma sätt förlitar sig webbläsare på Java Virtual Machine byte-kod kontrollant [19] för att skydda användare från skadliga applets. I båda fallen är målet att eliminera dyr kommunikation eller gräns *Denna forskning utfördes medan den första författaren var vid Cornell University. Detta material är baserat på arbete som delvis stöds av AFOSR-bidraget F49620-97-1-0013 och ARPA/RADC-bidraget F30602-96-l-0317. Alla synpunkter, resultat och slutsatser eller rekommendationer som uttrycks i denna publikation är upphovsmännens och återspeglar inte dessa organs synpunkter. Tillstånd att göra digitala eller hårda kopior av hela eller delar av detta arbete för personligt eller klassrum används utan avgift menas att kopior inte vadas eller distribueras för prolit eller kommersiella fördelar och att ämnen bär detta meddelande och fyll citering på första sidan. För att kopiera annat, för att återpublicera, för att posta på servrar eller för att omfördela till listor, krävs tidigare specifik behörighet och!eller en avgift. övergångar genom att tillåta utvidgningar för att direkt få tillgång till de resurser de behöver. Nyligen har Necula och Lee 126, 251 föreslagit ProofCarrying Code (PCC) och Morrisett et al. [24] har föreslagit Typed Assembly Language (TAL) som språkteknik som ger säkerhetsfördelar av hög nivå språk, men utan overheads av tolkning eller just-in-time sammanställning. I båda systemen, låg nivå maskinkod kan kraftigt optimeras, för hand eller av kompilator, och ändå automatiskt verifieras genom korrektur- eller typkontroll. Men i alla dessa system (SPIN, JVM, TAL och Touchstone [27], en kompilator som genererar PCC), finns det en aspekt över vilken programmerare och optimerande kompilatorer har liten eller ingen kontroll: minneshantering. Deras sundhet är i synnerhet beroende av att minnet återvinns av en pålitlig sopsamlare. Därför kan applets eller kärntillägg inte utföra sin egen optimerade minneshantering. Eftersom sopuppsamlare tenderar att vara stora, komplicerade delar av okontrollerad programvara minskar dessutom förtroendet för språkbaserade skyddsmekanismer. Målet med detta arbete är att ge en hög grad av kontroll över minneshantering för programmerare och kompilatorer, men som i PCC och TAL ramar, göra verifiering av säkerheten i program en enkel uppgift. Tofte och Talpin [35, 361 föreslår ett typ- och effektsystem för att verifiera sundheten i den regionbaserade minneshanteringen. I senare arbete visar Tofte och andra hur man kan härleda regiontyper och livstider och hur man genomför deras teori [34, 3, 41. Det finns flera fördelar med regionbaserad minneshantering; ur vår synvinkel är de två viktigaste: 1. Deallocation är explicit men bevisligen säkert. 2. Utgångspunkten är följande: De körtider som krävs för regionbaserad minneshantering är relativt enkla konstanta operationer och skulle i princip kunna verifieras formellt. Tofte-Talpin-kalkylen använder ett lexikalt slingat uttryck (letregion r i e slut) för att avgränsa livslängden för en region r. Memory för regionen tilldelas när kontrollen går in i omfattningen av letregion konstruera och deallokeras när kontrollen lämnar omfattningen. Denna mekanism resulterar i en strikt LIFO (last-in, first-out) beställning av regionens livstider. Båda Birkedal et al. [4] och Aiken m.fl. [l] konstaterade att en fullständig LIFO (de)allokering av regioner skulle göra dålig användning av minnet i många fall. De föreslog en rad optimeringar som ofta minskar effektiviteten och till och med förbättrar den traditionella sophämtningen i vissa fall. Även om deras optimeringar är säkra, det finns ingen enkel bevis-eller typkontroll som en opålitlig klient kan använda för att kontrollera utdatakoden. På samma sätt kräver till och med den mest enkla kodgenereringen att vi avviker från ramen för Tofte-Talpin och tillåter godtycklig åtskillnad av fördelnings- och fördelningspunkter. Därför, medan region slutsatser för oss halvvägs till vårt mål, för att bygga ett starkt-typed region-baserade monteringsspråk måste vi ompröva den grundläggande frågan: "När kan vi befria ett objekt x?" En lösning är att gratis x när du kan garantera att det inte längre kommer att nås. Operativa system som Hydra [41] har löst åtkomstkontrollproblemen tidigare genom att koppla ihop en oförfalskad nyckel eller kapacitet med varje objekt och kräva att användaren presenterar denna förmåga att få tillgång till objektet. Dessutom, när behovet uppstår, dessa system återkallar kapacitet, vilket förhindrar framtida tillgång. I resten av denna uppsats beskriver vi ett starkt skrivspråk som kallas Capability Calculus. Vårt språktypsystem ger ett effektivt sätt att kontrollera säkerheten för explicit, godtyckligt ordnad regionallokering och deallocation instruktioner med hjälp av en uppfattning om förmåga. Precis som i traditionella kapacitetssystem håller vårt typsystem koll på kapacitetskopior noggrant för att avgöra när en kapacitet verkligen har återkallats. Till skillnad från traditionella kapacitetssystem stöder vår analys endast frivilligt återkallande. Emellertid, kapaciteten i vår analys är ett rent statiskt koncept och därmed deras genomförande kräver ingen run-time overhead. Vi har ett rent syntaktiskt argument, baserat på Subject Reduction och Progress lemmas i stil med Felleisen och Wright [40], att typsystemet för Capability Calculus är ljud. Tofte och Talpin formulerar däremot sundheten i sitt system med hjälp av ett mer komplicerat och mest invecklat argument [36] och ljudnivån hos Aiken et AI.' s optimeringar [l] beror på detta argument. En del av anledningen till den extra komplexiteten är att Tofte och Talpin samtidigt visar att region inference översätter lambda kalkyl termer till operativt likvärdiga region kalkyl termer, en starkare egendom än vi bevisar. Men när systemets säkerhet är den viktigaste angelägenheten, är sundhet den kritiska egenskapen. Enkelheten i vårt argument visar fördelarna med att skilja typ ljud från typ inference eller optimering korrekthet. Vi har en formell översättning av en variant av TofteTalpin-språket till vår kalkyl. Vi beskriver översättningen i detta dokument som exempel; de fullständiga detaljerna finns i den tekniska rapporten [5]. Vi illustrerar också hur vissa regionbaserade optimeringar kan kodas på vårt språk och dra nytta av vår extra frihet att placera fördelnings- och deallocationspunkter. Vi har anpassat typsystemet för Capability Calculus till inställningen av Typed Assembly Language, vilket för första gången ger möjlighet för "applets" att uttryckligen styra sin minneshantering utan att offra minnes- eller typsäkerhet. Eftersom skrivkonstruktionerna på mellan- och monteringsnivå är så lika, diskuterar vi här endast mellanspråket och hänvisar den intresserade läsaren till den tekniska rapporten [5] för detaljer på monteringsnivå. Det centrala tekniska bidraget i detta dokument är Capability Calculus, ett statiskt inskrivet mellanspråk som stöder explicit allokering, frigörande och åtkomst av minnesregioner. Program i Capability Calculus är skrivna i fortsättnings-passerande stil (CPS) [29]. Det vill säga, funktioner returnerar inte värden; istället fungerar avsluta genom att kalla en fortsättning funktion som vanligtvis tillhandahålls som ett argument. Det faktum att det bara finns ett sätt att överföra kontroll i CPS-rader än de två medel (samtal och retur) i direkt stil förenklar spårningen av funktioner i vårt typsystem. En direkt stil formulering är möjligt, men de komplikationer som är inblandade skymmer de centrala frågorna. I resten av detta dokument antar vi att vi är förtrogna med CPS. Syntaxen för kapacitetskalkylen visas i figur 1. I följande avsnitt förklarar och motiverar vi de viktigaste konstruktionerna och skrivreglerna för språket en efter en. Den fullständiga statiska och operativa semantiken specificeras i tillägg A. Vi specificerar det operativa beteendet hos Capability Calculus med hjälp av en tilldelning semantik [22, 23, 241, vilket gör fördelningen av data i minnet explicit. Semantiken ges av ett deterministiskt omskrivningssystem P I-+ P' karteringsmaskintillstånd till nya maskintillstånd. Ett maskintillstånd består av ett par (M, e) av ett minne och en term som utförs. Ett minne är en ändlig kartläggning av regionnamn (v) till regioner där en region är ett minnesblock som innehåller en samling hög fördelade objekt. Regioner skapas på körtid genom deklarationen neurgnp, z, som fördelar en ny region i högen, binder p till namnet på den regionen, och binder z till handtaget (handle(v)) för den regionen. Regionens namn och handtag skiljer sig åt för att upprätthålla en fasskillnad mellan kompileringstid och runtime-uttryck. Regionnamnen är betydande vid sammanställningstidpunkten: Typkontrollören identifierar vilken region ett objekt bebor via ett regionnamn (se nedan). Regionnamn, liksom andra typer av konstruktörer, har dock ingen betydelse för körtiden och kan raderas från körbar kod. Regionen hanterar däremot hålla de run-time data som krävs för att manipulera regioner. Förutom att redovisa en fasskillnad, gör uppdelningen av regionnamn och handtag också att vi kan förfina de sammanhang där regionen hanterar behövs. Handtag behövs vid fördelning av objekt inom en region och när man befriar en region, men behövs inte vid läsning av data från en region. Regioner frigörs av deklarationen freergnv, där v är handtaget för regionen att befrias. Objekt h tillräckligt stora för att kräva heap allokering (dvs. funktioner och tuples), kallas heap vaZues, tilldelas av deklarationen z = h vid v, där v är handtaget för den region där h ska fördelas. Data läses från en region på två sätt: funktioner läses av en funktion anrop, och tuples läses av deklarationen z = r;(v), som binder x till data som är bosatta i ith fältet av objektet på adress v. Var och en av dessa åtgärder kan utföras endast när regionen i fråga inte redan har befriats. En förstärkning av denna begränsning är syftet med den kapacitetsmekanism som diskuteras i avsnitt 2.2. En region kartlägger platser (e) för att samla värden. Således en adress anges av ett par v.e av en region namn och en plats. Under utförandet kommer ordstorleksvärden (v) att ersättas för värdevariabler och typkonstruktörer för konstruktörsvariabler, men högvärden (h) fördelas alltid i minnet och hänvisas indirekt till av en adress. Vid genomförandet av deklarationen z = h vid r (där r är handtag(v), handtaget för region v), h fördelas i region v (säg vid a) och adressen v.e ersätts med x i följande kod. En term i Capability Calculus består av en serie deklarationer som slutar i antingen en gren eller ett funktionssamtal (eller ett stopp). Klassen deklarationer inkluderar de konstruktioner som diskuteras ovan, plus två standardkonstruktioner, x = v för bindande variabler till värden och x = vi p 212 (där p varierar över +, -och x) för aritmetik. Typerna av Capability Calculus inkluderar typ konstruktör variabler och heltal, en typ av region handtag, liksom tuple och funktionstyper. Om r är en region, då r handtag är typen av r region handtag. Tuple typ (Tl,. ., TV) vid r innehåller de vanliga n-fält tuples, men också anger att sådana tuples fördelas i region r, där r är antingen ett regionnamn v eller, oftare, en regionvariabel P. Till exempel, en polymorfisk identitetsfunktion som tilldelas i region r, men vars fortsättningsfunktion kan vara i någon region, kan ges typ V[a:Typ, p:Rgn].(C, cy, (C, a) + 0 at p) + 0 at r för vissa lämpliga C. Låt f vara en sådan funktion, låt w vara dess argument med typ r, och låt g vara dess fortsättning med typ (C, 7) -+ 0 at r. Då f kallas av Skrivreglerna också använda regiontyper (T), som tilldelar en typ till varje plats som tilldelats i en region, och minnestyper (@), som tilldelar en regiontyp till varje område som tilldelats i minnet. 2.2 Det centrala problemet är hur man statiskt ser till att ingen region används efter det att den har frigjorts. Skrivreglerna verkställer detta med ett system av funktioner som anger vilka operationer som är tillåtna. Den huvudsakliga maskinskrivning bedömning är *; A; I'; C!-e 264 som anger att (när minnet har typ X!?, fria konstruktörsvariabler har typer som ges av A och fria värdevariabler har typer som anges av I') det är lagligt att köra termen e, förutsatt att kapaciteten C hålls. En relaterad typning bedömning är som anger att om kapaciteten C innehas, är det lagligt att utföra deklarationen d, vilket resulterar i nya konstruktör sammanhang A', nytt värde sammanhang I" och ny förmåga C'. Kapaciteten anger den uppsättning regioner som för närvarande gäller för tillträde, dvs. de regioner som inte har frigjorts. Kapaciteter bildas genom att sammanfoga en samling av singleton kapacitet {r} som ger tillgång till endast en region, och kapacitetsvariabler E som ger tillgång till en ospecificerad uppsättning regioner. Capability ansluter, skriftlig Cr @ Cz, är associativ och pendlande, men är inte alltid idempotent; i Avsnitt 2.3 kommer vi att se exempel där C @ C inte motsvarar C. Tomheten kapacitet, som ger tillgång till inga regioner, betecknas med 8. Vi kommer ofta förkorta kapaciteten {ri} $. .. @ {T,} av {PI,.. .......................................................... För att läsa ett fält från en tuple i region r, är det nödvändigt att hålla förmågan att komma åt r, som i regeln: A I-C = C' @ {r} : Cap *;A;l?t-~:(ri,...,r~)atr 9; A; l?; C I-z = A;(W) + A; l?{z:ri}; C (z G Dam(r)) Det första delmålet anger att kapaciteten som hålls (C) är likvärdig med någon förmåga som inkluderar {r}. En liknande regel används för att fördela ett objekt i en region. Eftersom typen av ett högvärde återspeglar den region där det fördelas, måste värderingen av högvärdet (det andra delmålet nedan) tillhandahållas med den regionen. A l-C = C' @ {r} : Cap\k;A;I't-hatr:r 'P;A;I'fv:r handtag ~;A;r;Ct-~=atv~A;r{z:r};C (z @ oom(r)) Funktioner definieras av formen fixf[A](C,zi:r,..., z,:r,).e, där f står för själva funktionen och kan visas fritt i kroppen, A anger funktionens konstruktör argument, och C är funktionens kapacitetsförutsättning. När A är tom och f inte visas fritt i funktionskroppen vi förkortar fix form av X(C,zi:ri,). ..., z ":r,......................................................... För att kalla en funktion bosatt i region r, är det återigen nödvändigt att hålla förmågan att komma åt r, och även att ha en kapacitet som motsvarar funktionens kapacitetsförutsättning: A k C = C" @ {r} : Cap A I-C = C' : Cap *;A;lYt-v:(C',ri,...,r,) + Oatr O;A;I't-wi:ri Kroppen av en funktion kan då anta funktionens kapacitetsförutsättning är tillfredsställd, som anges av kapaciteten C i premissen för regeln: " *; A; I'{zi:ri,. ., G:T,}; C I-e 9; A; r E X(C, zl:rl, .., z,:r,).e Ofta kommer vi att utöka den kapacitet som krävs för en funktion med en kvantifierad kapacitetsvariabel (liknar en radvariabel). Denna variabel kan omedelbart aktiveras med alla funktioner som blir över efter att ha uppfyllt den erforderliga kapaciteten. Följaktligen kan funktionen användas i olika sammanhang. Den känsligaste frågan är definitionen av fördelning och fördelning av regioner. Intuitivt bör skrivreglerna för newrgn- och freergn-deklarationer lägga till och ta bort kapacitet för lämplig region. Naiva skrivregler kan vara: Denna funktion är välformad enligt den naiva skrivregeln: Funktionen börjar med förmågan {pi,pz} och pi tas bort av freergn-deklarationen, vilket lämnar {pz}. Tuple y fördelas i pz, så projektionen är laglig. Denna kod är dock driftsmässigt felaktig om pi och pz omedelbart av samma region r. I så fall den första deklarationen friar r och den andra försök att läsa från r. Detta problem är ett bekant problem. För att frigöra en region på ett säkert sätt är det nödvändigt att radera alla kopior av kapaciteten. Instantiella regionvariabler kan dock skapa alias, vilket gör det omöjligt att genom kontroll avgöra om det finns några kopior. Vi önskar ett system för aliaskontroll som lätt kan genomdrivas av typsystemet, utan dyra och komplexa programanalyser. En möjlighet är ett linjärt typsystem [12, 37, 381. I ett linjärt typsystem skulle aliaset vara trivialt kontrollerat; varje användning av ett regionnamn skulle förbruka det namnet och se till att det inte kunde användas någon annanstans. I ett linjärt system skulle därför de naiva reglerna för fördelning och fördelning av regioner vara sunda. Tyvärr är ett linjärt system alltför restriktivt för att tillåta många användbara program. Anta till exempel att f har typ V[pl:Rgn, pz:Rgn]. Klockan två. .) + 0 vid d och vi och w2 är heltal tuples fördelade i samma region r. Då kunde f inte kallas med vi och 2) ~ som argument, eftersom det skulle kräva omedelbar pl och pa med samma region. Mer allmänt kunde man inte skriva någon funktion som kräver två argument som skulle kunna eller inte skulle kunna fördelas i samma region. Metoder baserade på syntaktisk kontroll av interferens [30, 311 är mer eftergivna än ett linjärt system, men är fortfarande alltför restriktiva för våra syften; det är fortfarande omöjligt att direktiera flera argument med samma region. 265 Vårt tillvägagångssätt, i stället för att försöka förhindra alias, är att använda typsystemet för att spåra alias. Mer exakt, vi spårar non-aliasing, det vill säga unikhet. Vi gör detta genom att märka regioner med en av två multiplikatorer när de bildar en förmåga. Den första formen, {r+}, är förmågan att komma åt region r som det har förståtts hittills. Den andra formen, {ri}, tillåter också tillgång till region P, men lägger till ytterligare information som P är unik; det vill säga r representerar en annan region än någon annan region som visas i en förmåga som bildas med {r'}. Till exempel indikerar förmågan {r,', ri} inte bara att det är tillåtet att komma åt ri och rz, men också att ri och ~2 representerar olika regioner. Eftersom {r'} garanterar att r inte visas någon annanstans i en förmåga som bildas med hjälp av den, det är förmågan, inte bara att komma åt r, men också att fri r. Således kan vi skriva region deallocation med regeln: Observera att anslutningsmöjligheter är bara idempotent när kapaciteterna i fråga innehåller inga unika multipliciteter. Till exempel, kapaciteterna {r+} och {r+, r+} är likvärdiga, men kapaciteterna {r'} och {r',r'} är inte; den senare kapaciteten ( {r', r'}) hävdar att r är skild från sig själv och följaktligen att senare förmåga aldrig kan tillfredsställas. Reglerna för kapacitetslikvärdighet finns i bilaga A. När C är likvärdigt med C@C, säger vi att C är duplicatable. Observera att kapacitetsvariabler är oupplösliga, eftersom de kan stå för alla funktioner, inklusive oupplösliga. Ibland förhindrar detta skrivandet av önskade program, så vi ger en strippa operatör C som ersätter alla 1 multipliciteter i C med + multipliciteter. Till exempel {r:,rz} = {rt,r,'}. För alla funktioner C är kapaciteten c duplicerbar. När program behöver en okänd men duplicerbar förmåga, kan de använda en borttagen variabel 7. Kapaciteterna {r'} och {r+} är inte desamma, men den förra bör tillhandahålla alla privilegier för den senare. Vi säger därför att det förra är en subcapability av det senare och skriver {r'} 5 {r+}. I det kompletta systemet ändras de olika reglerna i avsnitt 2.2 för att ta hänsyn till delkapaciteter. Till exempel, funktion anropsregeln blir: Om vi har kapacitet {r+}, kan vi kalla f b ating pi och p2 med r, eftersom {r+} = {r+,r P instanti-}. Med hjälp av subcapability relationen, kan vi också ringa f när vi håller {rl}, igen genom att direktiating pi och p2 med r, sedan {r'} 5 {r+} = {P+,r+}. Subcapability relationen står endast för glömska av unikhet information. Intuitivt kan det finnas en andra källa till underkapacitet, de som genereras av att glömma en hel förmåga. Till exempel verkar {rt,r$} tillhandahålla alla privilegier {rt}, så det är rimligt att anta att {r;',r,'} är subkapabilitet för {r;'}. I själva verket kan man konstruera en ljud Capability Calculus införliva denna axiom, men vi utelämnar det eftersom gör det möjligt för oss att ange minneshantering skyldigheter och att bevisa en starkare egenskap om rymdanvändning. Man kan skriva en funktion som kan kallas med extra kapacitet med hjälp av en kapacitetsvariabel, som diskuteras i avsnitt 2.2. Genom att utelämna axiom Cl @ C2 5 Ci, kan vårt typsystem formellt ange vem som har ansvar för att befria en region. Underlåtenhet att följa informella konventioner är en vanlig källa till buggar i språk (såsom C) som använder manuell minneshantering. Vårt typsystem utesluter sådana buggar. Tänk till exempel på typen: ({pi} @ e, p handtag, (E) -+ 0 at r') + 0 at r I vårt system e @ {p'} f E. Följaktligen, innan någon funktion med denna typ kan återvända (dvs. ringa fortsättning av typ (E) + 0 at r), måste det vidta åtgärder för att uppfylla kapaciteten E, det vill säga det måste fri p. I allmänhet, vårt typsystem förhindrar "region läckor": program måste returnera alla minnesresurser till operativsystemet innan de slutar (Theorem 2.4). Operativsystemet behöver inte städa upp efter ett program stannar. I skrivregeln för stopp anges att inga resurser får hållas kvar, och eftersom kapacitet inte får glömmas bort innebär detta att alla regioner måste ha befriats. Det system som presenteras för denna punkt är sunt, men det är ännu inte tillräckligt för att sammanställa verkliga källspråk. Vi måste kunna återvinna unikhet efter att ett regionnamn har kopierats. För att se varför, anta att vi har förmågan {r') och f har typ: Pa, * * * 9 ( {pt,pt},. ..) + 0 at r') + 0 at r" Vi skulle vilja kunna instantera pl och p2 med r (vilket vi kan göra, sedan {r'} 5 {r+,r+}), och sedan fri r när f kallar fortsättning i sitt slutliga argument. Unforyftel? fortsätta endast poss; bedömer förmågan {r,r} - {r+}, inte förmågan {r } nödvändig för att frigöra r. Det hjälper inte att stärka kapaciteten för fortsättning till (till exempel) {pi}, eftersom då f kanske inte kallar det. Vi kan återvinna unik information genom att kvantifiera en kapacitetsvariabel. Antag att vi återigen har förmåga {r'} och g har typ: V[pi:Rgn, pz:Rgn, e:Cap].(e,. ... (E.............................................................. .) + 0 vid T') + 0 vid r" Vi kan omedelbart e med {r'} och sedan fortsätter kommer att ha samma förmåga, vilket gör det möjligt att fri r. Tyvärr har kroppen av funktion g inte längre möjlighet att komma åt pl och ~2, eftersom dess typ drar ingen koppling mellan dem och E. Vi löser detta problem genom att använda avgränsad kvantifiering för att relatera pi, pr och e. Antag att h har typ: V[~l:~,Ggn,c 5 {P:,P;)]. - E. - Vad är det för fel på dig? ... (E. ..) + 0 at r ) + 0 at r" Om vi har förmåga {r'}, kan vi kalla h genom att instantera pi och pz med r och instantiering c med r'}. Denna indikering är tillåten eftersom {r'} 5 {r i,r+J. Som med g, den fortsatta kommer att ha förmågan {r }, tillåter det att fri r, men kroppen av h (som den av f) kommer att ha möjlighet att komma åt pi och pa, sedan e 5 {pt,pt}. Gränsad kvantifiering löser problemet genom att avslöja viss information om en förmåga e, samtidigt som den fortfarande kräver att funktionen ska vara parametrisk över E. Därför, när funktionen kallar sin fortsättning vi återfår den starkare kapaciteten (till fri r), även om denna förmåga tillfälligt dold för att duplicera T. Mer allmänt, begränsad kvantifiering kan vi dölja vissa privilegier när vi kallar en funktion, och återfå dessa privilegier i dess fortsättning. Därför stöder vi statiskt kontrollerbar dämpning och förstärkning av kapaciteten. 2.4 De viktigaste egenskaperna hos Capability Calculus är Type Soundness och Complete Collection. Var och en kan bevisas från de formella semantiken i bilaga A. Typ Soundness säger att vi aldrig kommer in i ett fast tillstånd under genomförandet av ett välskrivet program. Ett tillstånd (M,e) är fast om det inte finns (M', e') sådan att (M,e) e (M',e') och e inte stannar i. Till exempel fastnar ett tillstånd som försöker projicera ett värde från en tuple som inte visas i minnet. Theorem Beviset på sundhet är enkelt, att använda sig av standard Subject Reduction och Progress lemmas. Framsteg visar att väldefinierade tillstånd inte sitter fast, och Subject Reduction uppger att utvärderingsstegen bevarar välutformadhet. Lemma 2 (Subject Reduction) Ift-(M,e) och (M,e) w (M',e') sedan F (M',e') Lemma 3 (Progress) Ift-(M,e) sedan antingen: 1. Det finns (M',e') sådana att (M,e) c-) (M',e), eller The Complete Collection egenskap garanterar att välskrivna avslutande program returnerar alla sina minnesresurser till systemet innan de stannar. Genom Subject Reduction och Progress, avslutande program slutar i välformade maskintillstånd (M, stopp i). Skrivregeln för stopputtrycket kräver att kapaciteten C är tom. Med hjälp av detta faktum kan vi dra slutsatsen att minnet M inte innehåller några regioner. Vårt arbete ger ett typsystem för att kontrollera regionannoterade program för säkerhet, men vi tillhandahåller inga nya tekniker för att bestämma dessa annoteringar. I stället förlitar vi oss på befintliga regionslutsatser [34, l] för att dra slutsatsen om lämpliga regionanteckningar. I detta avsnitt illustrerar vi hur en variant av språket Tofte-Talpin kan översättas till Capability Calculus. Översättningen formaliseras i den tekniska rapporten [5]. Genom att komponera Tofte och Birkedals regioninferensalgoritm [34] med denna översättning har vi ett sätt att sammanställa språk på hög nivå till Capability Calculus. Vårt exempel anser att en funktion räknas ner till noll. För att ha intressant tilldelning beteende heltal inblandade i räkningen boxas, och därmed fördelas i en region. Räkna funktionen lagras i region pl och tar två argument, ett handtag för region p och en ruta heltal x tilldelas i region p. Om x är nonzero, räkna minskningar det, lagra resultatet igen i p, och återkommer. Funktionen har två effekter: en läsning på pl, till följd av den rekursiva anrop, och en läs/skriv effekt på p, till följd av rad l läs och rad 2 butik. Därför ger vi funktionen räkna effekten (acce88 (PI), access (pz)}. Operativt tjänar kommandot letregion ett syfte som liknar ett par newrgn- och freergn-deklarationer. En ny region tilldelas i början av hyresregionblocket och fördelas automatiskt i slutet av blocket, vilket resulterar i ett stackliknande fördelningsmönster (LIFO). Därför, koden ovan allokerar två regioner (pl och pz), butiker räknas i pl, lagrar ett boxat heltal i pz, samtal räknas, och sedan deallocates pl och pa. Översättningen av detta program till Capability Calculus omskriver det i fortsättning-passing stil, och omvandlar effekter information till kapacitetskrav. En av de viktigaste uppgifterna för översättningen är sammanställningen av letregion block i nevrgn och freergn deklarationer. Det resulterande programmet visas nedan. För tydlighetens skull har vi på ett par sätt förenklat det faktiska resultatet av den formella översättningen. Det översatta programmet börjar med att fördela regioner pi och ps, och också allokerar en tredje region ps för att hålla räkningens fortsättning. Räkna funktionen kräver en förmåga E minst lika bra som den förmåga {p~,p+,p~,t} som behövs för att komma åt sig själv, dess argument och dess fortsättning; och den för vidare samma förmåga E till dess fortsättning. Fortsättningen kräver förmågan {p:,p:,p:,p:} för att befria de tre regionerna. Därför är E omedelbar med den starkare förmåga som krävs för fortsättningen. Kraften i avgränsad kvantifiering kommer in i bilden när en funktion kallas med flera regioner, av vilka en del kan vara eller kanske inte är densamma. Till exempel kan exemplet ovan skrivas om till att ha tio och kan inte dela en region, utan att ändra koden för räkning på något sätt:%% räkna vith tio och kant dela ps låt newrgn pr,xP1 i låt neurgn p2,xPz i % kapacitet som hålls är {p:,pi} låt räkna =. .. som tidigare. .. låt tio = (10) vid xP2 in låt cant = 0 (G,P:}).... I xp2 i antal IPZ, ~2~ ipi, piI1 (xp2, tio, kant) I detta exempel är pcont omedelbar med,os och E omedelbart med {pt, pt} (som återigen är den förmåga som krävs av cant). Räkna fortsätter dock precis som tidigare eftersom c fortfarande är lika bra som {pf,p+,pL,t) (sedan tp:, P:) 5 {PL P,'> = MY Pzs, Pz+D I exemplen ovan, även om räkningen är svansrekursiv, allokerar vi en ny cell varje gång runt slingan och vi deallokerar inte någon av cellerna förrän räkningen är klar. Men eftersom p aldrig innehåller några andra levande värden än det nuvarande argumentet, är det säkert att minska programmets rymdanvändning genom att deallokera argumentets region varje gång runt slingan, som visas nedan. Observera att denna optimering inte är möjlig när regionens livstider måste vara lexiskt avgränsade. XVI räkna med effektiv minnesanvändning låt newrgn pi,xPl in låt newrgn pz, xP2 in låt newrgn ps,xP3 i % kapacitet innehas är {p:,p:,p:} låt räkna = (fix räkna [pz, ~3, {pi, piller (xP2, tio, kant) För att deallocate sitt argument, den reviderade räkningen kräver en unik förmåga för sitt argument region p. Observera att om programmet skrevs om igen så att tio och kant delade en region (som skulle leda till en körtid fel, eftersom tio delas tidigt), skulle programmet inte längre typkontroll, eftersom {pi, pi} g {p;',p$, pi}. Programmet skrivs dock om så att räkna och inte dela en region misslyckas inte på körtid, och gör typkontroll, eftersom {P:> PiI I {P;", PL PiI. Vi anser att den allmänna ramen för vårt kapacitetssystem är ganska robust. Det finns flera sätt att utvidga språket och ett antal riktningar för framtida forskning. 4.1 Huvudsyftet med detta arbete var att utveckla ett språk med låg typsäkerhet som ger kompilatorer och programmerare kontroll över allokering och fördelning av data. Det språk som vi har beskrivit hittills är relativt hög nivå eftersom det inkluderar abstrakta stängningar och hög-268 nivå operationer såsom atomal allokering och initiering av data. I den kompletterande tekniska rapporten [5] visar vi att kapacitetskonstruktioner samverkar välvilligt med den process för typbevarande sammanställning som beskrivs av Morrisett et al. [24] och vi använder de tekniker som beskrivs i detta dokument för att ändra deras maskinskrivna monteringsspråk för att tillåta explicit deallocation av datastrukturer. I detta dokument har vi koncentrerat oss på att använda Capability Calculus för att implementera säker deallocation av minne, men med några ändringar, tror vi att vår kapacitetsapparat kan användas i en mängd andra inställningar också. En potentiell tillämpning innebär att minska omkostnaderna för kommunikation över användar-kärnan adress rymdgräns i traditionella operativsystem. I sådana system, när data i användarutrymme presenteras för kärnan, måste kärnan kopiera data för att säkerställa att dess integritet bevaras. Men om en användare behandlar en unik förmåga för en region till kärnan, behöver kärnan inte kopiera regionens data; utan förmågan kan användaren inte längre läsa eller ändra innehållet i den regionen. Kapaciteter kan också användas för att säkerställa ömsesidigt uteslutande tillgång till delade muterbara data i en flertrådig miljö, genom att betrakta slussar som jämförbara med regioner. Om vi associerar varje del av känsliga data med ett lås, kan vi statiskt kontrollera att varje kund till känsliga data får motsvarande lås och tillhörande kapacitet innan du får tillgång till dessa data. När koden släpper låset, vi återkallar kapaciteten på data, precis som vi återkallar en förmåga när vi befriar en region. Närhelst ett system vill begränsa tillgången till vissa data statiskt, och/eller för att säkerställa att en viss sekvens av operationer utförs, kan det i allmänhet överväga att använda kapacitet för att kontrollera att lämpliga invarianter upprätthålls. 4.2 Capability Calculus härstammar från Giffords och Lucasens arbete med typ- och effektsystem [ll, 201 och den efterföljande studien av många andra [16, 33, 36, 341]. Förhållandet mellan effekter och förmåga är ganska nära. En nödvändig förutsättning för att använda något av systemen är typinferens, som utförs av en programmerare eller kompilator, och en stor del av forskningen om effektsystem har koncentrerats på denna svåra uppgift. På grund av fokus på inferens, är effektsystem vanligtvis formulerade som en bottom-up syntes av effekter. Vårt arbete kan betraktas som ett verifierbart bevis på att en slutsats är riktig. Därför, medan effektsystem vanligtvis fungerar nedifrån och upp, specificerar effekterna som kan uppstå, vi tar en top-down strategi, specificerar med hjälp av kapacitet de effekter som tillåts uppstå. Att lägga till aliasinformation till vår kapacitet skiljer dem också från tidigare arbete med effektsystem. Kapaciteten uttrycker dock endast de enklaste aliasrelationerna: en region är antingen helt oaliaserad eller också kan den aliasera vilken annan region som helst. Våra förmågor avslöjar väldigt lite av butikens struktur. Ett antal andra forskare [lo, 7, 321 har studerat statiska analyser som innehåller former av datastrukturer och alias mellan dem. Vi planerar att undersöka hur dessa finkorniga minnesmodeller kan användas för att öka flexibiliteten i vårt typsystem. En koppling kan också dras mellan kapaciteter och monadiska typsystem. Arbete med effekter på monader [21, 28, 18, 81] har betraktat effektfulla funktioner som rena funktioner som återställer statstransformatorer. Detta kan kallas en ex post vy: effekten sker efter funktionens utförande. Däremot ser vi på förhand att förmågan att utföra den relevanta effekten måste vara tillfredsställd före funktionens utförande. Ändå finns det stor likhet mellan åsikterna; precis som monadlagarna ser till att butiken är enkeltrådad genom en beräkning, våra skrivregler tråd en förmåga (som sammanfattar aspekter av butiken) längs verkställandet av ett program. Erfarenheten av Birkedal et al. [4] med ML Kit region kompilatorn visar att det finns många förbättringar i det grundläggande systemet som kommer att vara nödvändigt för att göra vår Capability Calculus ett praktiskt mellanspråk. I synnerhet fann Birkedal att fördelningen ofta sker i två olika sammanhang: ett sammanhang där inga levande föremål finns kvar i regionen och ett andra sammanhang där det kan finnas levande föremål kvar i regionen. För att undvika kod dubblering och ändå säkerställa effektiv rymdanvändning, kontrollerar de på körtid för att ta reda på vilken situation som har uppstått. I det förra fallet återställer de regionen (deallokera och omfördela i vår formalism) och i det senare fallet återställs de inte utan fortsätter att fördela på toppen av regionen. Det typsystem vi presenterar här är inte tillräckligt kraftfullt för att koda dessa lagrings-mode polymorphic operationer. I själva verket måste den förfinas på två sätt. För det första kräver denna optimering finergrared aliasing specifikationer som deklarerar en region p inte alias någon särskild region p' men kan alias andra regioner. För det andra, efter att vi dynamiskt har kontrollerat vilka av de två sammanhangen ovan vi befinner oss i, måste vi förfina vår förmåga. Harper och Morrisetts typecase [13]-mekanism utvecklad för TIL-kompilatorn och ytterligare förfinad av Crary et al. [6] möjliggör den typ av typförfining som krävs här. Aiken m.fl. [l] har också studerat hur man kan optimera det ursprungliga ramverket för regionen Tofte-Talpin och de gör det också möjligt att fördela regionerna självständigt. Dessutom skiljer deras system namnet på en region från dess fördelning. Vårt språk, som presenterats, gör inte en sådan åtskillnad, men det är enkelt att lägga till en. Med en sådan mekanism på plats, antar vi, baserat på ljudstyrka bevis för Aiken et al.'s analyser, att dessa analyser kan användas för att producera typ korrekt kod i Capability Calculus. Gay och Aiken [9] har utvecklat en säker regionimplementering som ger programmerare kontroll över regionallokering och deallocation. De använder referensräkning för att garantera säkerheten. Hawblitzel och von Eicken [15] har också använt begreppet region i sitt språkpass för att stödja delning och återkallande mellan flera skyddsområden. Båda dessa grupper använder körtidskontroll för att garantera säkerheten och det skulle vara intressant att undersöka hybridsystem som kombinerar funktioner i vårt statiska typsystem med mer dynamiska system. Vi har presenterat ett nytt starkt skrivspråk som medger verksamhet för explicit tilldelning och fördelning av datastrukturer. Dessutom är detta språk tillräckligt uttrycksfullt för att tjäna som mål för en regional slutsats och kan sammanställas till ett maskinskrivet monteringsspråk. Vi anser att begreppet kapacitet som stöder statiskt kontrollerbar dämpning, förstärkning och återkallande är ett effektivt nytt verktyg för språkdesigners. | Analysen av kapaciteter REF var den första kalkylen för att ge säker explicit minnesdeallokering samtidigt som dingla pekare. | 283,023 | Typed memory management in a calculus of capabilities | {'venue': "POPL '99", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,045 |
Komplexa modeller för regression och klassificering har hög noggrannhet, men kan tyvärr inte längre tolkas av användarna. Vi studerar prestandan hos generaliserade additivmodeller (GAMs), som kombinerar enstaka modeller som kallas formfunktioner genom en linjär funktion. Eftersom formfunktionerna kan vara godtyckligt komplexa är GAM mer exakta än enkla linjära modeller. Men eftersom de inte innehåller några interaktioner mellan funktioner, kan de lätt tolkas av användarna. Vi presenterar den första storskaliga empiriska jämförelsen av befintliga metoder för att lära GAM. I vår studie ingår befintliga spline- och trädbaserade metoder för formfunktioner och straffade minst kvadrater, lutningsförbättrande och bakmontering för att lära GAMs. Vi presenterar också en ny metod baserad på trädensembler med adaptivt antal blad som genomgående överträffar tidigare arbeten. Vi kompletterar våra experimentella resultat med en partisk-variantanalys som förklarar hur olika formmodeller påverkar additivmodellen. Våra experiment visar att grunda påstäckta träd med lutning öka utmärker sig som den bästa metoden på låg-till mellandimensionella datauppsättningar. | Slutligen föreslår Ref generaliserade additivmodeller, som är linjära kombinationer av godtyckligt komplexa enfunktionsmodeller, som tolkningsbara modeller. | 7,715,182 | Intelligible models for classification and regression | {'venue': 'KDD', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,046 |
I detta dokument presenteras en prognostisk metod för feldetektering i växlar och lager i drivlinor för vindkraftverk. Denna metod baseras på vinkelhastighetsmätningar från växellådans ingångsaxel och utsignalen till generatorn, med hjälp av ytterligare två vinkelhastigheter | REF, där vinkelhastighetsmätningar från växellådans ingångsaxel och utgående axel till generatorn användes för att definiera en felfunktion för att upptäcka växel och lagerskador. | 111,327,008 | A prognostic method for fault detection in wind turbine drivetrains | {'venue': None, 'journal': 'Engineering Failure Analysis', 'mag_field_of_study': ['Materials Science']} | 3,047 |
Meta-learning gör det möjligt för en intelligent agent att utnyttja tidigare inlärningsepisoder som en grund för att snabbt förbättra prestandan på en ny uppgift. Bayesian hierarkisk modellering ger en teoretisk ram för formalisering meta-learning som slutledning för en uppsättning parametrar som delas över uppgifter. Här omformulerar vi modellen-agnostic meta-learning algoritm (MAML) av Finn et al. (2017) som metod för probabilistisk slutsats i en hierarkisk Bayesisk modell. I motsats till tidigare metoder för meta-learning via hierarkiska Bayes, MAML är naturligt tillämplig på komplexa funktion approximatorer genom dess användning av en skalbar lutning nedstigning förfarande för bakre inferens. Dessutom ger identifieringen av MAML som hierarkiska Bayes ett sätt att förstå algoritmens funktion som ett meta-learning-förfarande, samt en möjlighet att använda sig av beräkningsstrategier för effektiv inferens. Vi använder detta tillfälle för att föreslå en förbättring av MAML algoritm som använder sig av tekniker från ungefärlig inferens och krökning uppskattning. | Till exempel, i REF, författarna införa en anpassning av MAML för att lära sig parametrarna för en tidigare distribution i en hierarkisk Bayesian modell. | 3,484,654 | Recasting Gradient-Based Meta-Learning as Hierarchical Bayes | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 3,048 |
Med den explosiva tillväxten av rörelse fånga data, blir det mycket viktigt i animation produktion att ha en effektiv sökmotor för att hämta rörelser från stora rörelseförrådet. På grund av datarymdens höga dimension och matchningsmetodernas komplexitet kan de flesta befintliga metoder dock inte ge tillbaka resultatet i realtid. I detta dokument föreslås en hög nivå semantisk funktion i ett utrymme med låg dimension för att representera den väsentliga egenskapen hos olika rörelseklasser. Baserat på statistik utbildning av Gauss Blandning modell, kan denna funktion effektivt uppnå rörelse matchning på både global clip nivå och lokal ramnivå. Experimentella resultat visar att vårt tillvägagångssätt kan hämta liknande rörelser med rankning från stor rörelsedatabas i realtid, och även göra rörelse annotation automatiskt i farten. | På grundval av statistik utbildning av Gauss Blandning modell, kan denna funktion effektivt uppnå rörelse matchning på både global clip nivå och lokal ram nivå REF. | 36,027,733 | A semantic feature for human motion retrieval | {'venue': 'Journal of Visualization and Computer Animation', 'journal': 'Journal of Visualization and Computer Animation', 'mag_field_of_study': ['Computer Science']} | 3,049 |
Abstract-Embedded enheter har blivit allestädes närvarande, och de används i en rad integritetskänsliga och säkerhetskritiska applikationer. De flesta av dessa enheter kör egenutvecklad programvara, och lite dokumentation finns tillgänglig om programvarans inre funktioner. I vissa fall kan kostnaderna för hårdvaran och skyddsmekanismerna göra det omöjligt att få tillgång till själva utrustningen. Analysera den programvara som finns i sådana miljöer är utmanande, men nödvändigt, om riskerna i samband med programvara buggar och sårbarheter måste undvikas. Faktum är att nyligen genomförda undersökningar avslöjade förekomsten av bakdörrar i ett antal inbyggda anordningar som finns tillgängliga på marknaden. I detta dokument presenterar vi Firmalice, en binär analys ram för att stödja analysen av firmware körs på inbyggda enheter. Firmalice bygger ovanpå en symbolisk exekvering motor, och tekniker, såsom program skärning, för att öka skalbarheten. Dessutom använder Firmalice en ny modell av autentisering bypass brister, baserat på angriparens förmåga att bestämma vilka indata som krävs för att utföra privilegierade operationer. Vi utvärderade Firmalice på firmware av tre kommersiellt tillgängliga enheter, och kunde upptäcka autentisering bypass bakdörrar i två av dem. Dessutom kunde Firmalice avgöra att bakdörren i den tredje firmware prov var inte exploaterbar av en angripare utan kunskap om en uppsättning oprivilegierade referenser. | Samtidigt är Firmalice REF ett statiskt binärt analysramverk som stöder analysen av firmware-filer för inbyggda enheter. | 17,298,209 | Firmalice - Automatic Detection of Authentication Bypass Vulnerabilities in Binary Firmware. | {'venue': 'NDSS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,050 |
Det finns ett ökande beroende av videoövervakningssystem för systematisk härledning, analys och tolkning av de data som behövs för att förutsäga, planera, utvärdera och genomföra den allmänna säkerheten. Detta framgår tydligt av det stora antalet övervakningskameror som används på offentliga platser. I juli 2013 rapporterade till exempel British Security Industry Association (BSIA) att över 4 miljoner CCTV-kameror hade installerats enbart i Storbritannien. BSIA visar också att endast 1,5 % av dessa är statligt ägda. I detta dokument föreslår vi en ram som ger tillgång till data från privatägda kameror, i syfte att öka effektiviteten och noggrannheten i den offentliga säkerhetsplaneringen, säkerhetsverksamheten och beslutsstödsystem som bygger på videointegrerade övervakningssystem. Exaktheten i de resultat som erhållits från statligt ägda offentliga säkerhetsinfrastrukturer skulle förbättras avsevärt om privatägda övervakningssystem "exponerade" relevanta videogenererade metadatahändelser, såsom utlösande varningar och även tillåta förfrågan om ett metadataarkiv. Därefter kan en polis, till exempel, med en lämplig nivå av systemtillstånd fråga enhetliga videosystem över ett stort geografiskt område som en stad eller ett land för att förutsäga platsen för en intressant enhet, såsom en fotgängare eller ett fordon. Detta blir möjligt med vår föreslagna nya hierarkiska arkitektur, Fused Video Surveillance Architecture (FVSA). På hög nivå, FVSA består av en hårdvara ram som stöds av en multi-lager abstraktion programvara gränssnitt. Den presenterar videoövervakningssystem som ett anpassat beräkningsnät av intelligenta tjänster, som är möjligt att kommunicera med andra kompatibla system på sakernas Internet (IoT). | Författare, till exempel Ajiboye et al. i REF, föreslå en ny hierarkisk arkitektur kallad Fused Video Surveillance Architecture (FVSA). | 18,159,345 | Hierarchical video surveillance architecture: a chassis for video big data analytics and exploration | {'venue': 'Electronic Imaging', 'journal': None, 'mag_field_of_study': ['Engineering', 'Computer Science']} | 3,051 |
Abstract-Energikostnaden blir en stor del av datacenter driftskostnader. Datorsystemet förbrukar mer ström när det körs under hög arbetsbelastning. Många tidigare studier fokuserade på hur man kan förutsäga effektförbrukningen med hjälp av prestandaräknare. Vissa modeller hämtar prestandaräknare från marker. Vissa modeller frågar prestandaräknare från OS. De flesta av dessa undersökningar kontrollerades på flera maskiner och hävdade att deras modeller var korrekta under testet. Vi hittade olika servrar har olika energiförbrukning tecken även med samma CPU. I den här artikeln presenterar vi BFEPM, en energiförutsägelsemodell som passar bäst. Den väljer den bästa modellen baserat på resultatet av elförbrukningsriktmärket. Vi illustrerar hur man använder referensresultat för att hitta en modell som passar bäst. Sedan validerar vi modellens genomförbarhet och effektivitet på alla publicerade resultat. Äntligen tillämpar vi den bästa modellen på två olika maskiner för att uppskatta energiförbrukningen i realtid. Resultaten visar att vår modell kan få bättre resultat än en modell. | Därför presenterade de en bästa passform energi förutsägelse modell BFEPM som flexibelt väljer den bästa modellen för en given server baserat på en serie av ekvationer som endast anser CPU utnyttjande REF. | 13,997,596 | BFEPM: Best Fit Energy Prediction Modeling Based on CPU Utilization | {'venue': '2013 IEEE Eighth International Conference on Networking, Architecture and Storage', 'journal': '2013 IEEE Eighth International Conference on Networking, Architecture and Storage', 'mag_field_of_study': ['Computer Science']} | 3,052 |
Abstrakt. Gränsöverskridande skript (XSS) sårbarheter är bland de vanligaste problemen på webben. Bland de praktiskt utplacerade motåtgärderna finns en "försvarsfördjupad" policy för innehållssäkerhet (CSP) för att mildra effekterna av XSS-attacker. Antagandet av CSP har emellertid varit frustrerande långsamt. Detta dokument fokuserar på en särskild vägspärr för ett bredare antagande av CSP: dess samspel med webbläsartillägg. Vi rapporterar om en storskalig empirisk studie av alla gratis tillägg från Googles Chrome webbutik som avslöjar tre klasser av sårbarheter som uppstår från spänningen mellan kraften i tillägg och CSP avsedd för webbsidor: tredje part kod inkludering, möjliggör XSS, och användarprofilering. Vi upptäcker förlängningar med över en miljon användare i varje sårbar kategori. Med målet att underlätta ett bredare antagande av CSP, föreslår vi en extension-aware CSP godkännande mekanism mellan servern och klienten. En fallstudie med de Rapportive förlängningar för Firefox och Chrome visar det praktiska i tillvägagångssättet. | Ännu ett papper av Hausknecht et al. undersöker spänningen mellan webbläsartillägg och CSP REF. | 6,993,258 | May I? - Content Security Policy Endorsement for Browser Extensions | {'venue': 'DIMVA', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,053 |
Heuristik är avgörande verktyg för att minska sökinsatser inom olika områden av AI. För att vara effektiv måste en heurist vara effektiv för att beräkna, samt ge användbar information till sökalgoritmen. Men vissa välkända heuristiker som gör bra i att minska backtracking är så tunga att vinsten av att distribuera dem i en sökning algoritm kan uppvägas av deras overhead. Vi föreslår en rationell metaresonemang strategi för att besluta när man ska använda heuristik, med hjälp av CSP backtracking sökning som en fallstudie. I synnerhet tas ett värde av information tillvägagångssätt för adaptiv spridning av lösning-räkna uppskattning heuristik för värdebeställning. Empiriska resultat visar att den föreslagna mekanismen med framgång balanserar avvägningen mellan minskande backtracking och heuristic computingal overhead, vilket resulterar i en betydande total minskning av söktiden. | REF använder rationell metaresonemang för att bestämma när man ska beräkna värdet på att beställa heuristik i en CSP-lösare. | 6,002,548 | Rational Deployment of CSP Heuristics | {'venue': 'IJCAI-2011', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,054 |
Multi-hop överföring beaktas för stora täckningsområden i bandbreddsbegränsade undervattens akustiska nätverk. I detta papper presenterar vi en skalbar routingteknik baserad på platsinformation, och optimerad för minsta energi per bit förbrukning. Det föreslagna protokollet Focused Beam Routing (FBR) är lämpligt för nätverk som innehåller både statiska och mobila noder, som inte nödvändigtvis synkroniseras till en global klocka. En källa nod måste vara medveten om sin egen plats och platsen för sin slutliga destination, men inte de andra noder. FBR-protokollet kan definieras som ett cross-layer-inflygning, där routingprotokollet, den medelstora åtkomstkontrollen och de fysiska lagerfunktionerna är tätt kopplade av effektstyrning. Det kan beskrivas som en distribuerad algoritm, där en rutt är dynamiskt etablerad när datapaketet passerar nätverket mot dess slutdestination. Valet av nästa relä görs vid varje steg på vägen efter det att lämpliga kandidater har föreslagit sig själva. Systemets prestanda mäts i form av energiförbrukning per bit och genomsnittlig end-to-end-fördröjning. Resultaten jämförs med de som erhållits med hjälp av i förväg etablerade rutter, definierade via Dijkstra algoritm för minimal strömförbrukning. Det visas att protokollets prestanda ligger nära det idealiska fallet, eftersom den extra bördan av dynamisk rutt upptäckt är minimal. | Den fokuserade Bream routing (FBR) protokollet REF antar att varje nod har sin plats information och varje källa nod vet den slutliga destinationen. | 10,821,401 | Focused beam routing protocol for underwater acoustic networks | {'venue': "WuWNeT '08", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,055 |
Praktiska program delar stora moduler av kod. Men många programanalyser är ineffektiva på att återanvända analysresultat för delad kod över program. Vi presenterar POLYMER, en analys optimizer för att ta itu med detta problem. POLYMER kör analysen offline på en corpus av träningsprogram och lär sig analys fakta över delad kod. Det beskär de inlärda fakta för att eliminera mellanliggande beräkningar och sedan återanvända dessa beskurna fakta för att påskynda analysen av andra program som delar kod med tränings corpus. Vi har implementerat POLYMER för att påskynda analyser som specificeras i Datalog, och tillämpa det för att optimera två analyser för Java-program: en call-graph analys som är flöde-och kontext-okänslig, och en poäng-till analys som är flöde-och kontext-känslig. Vi utvärderar de resulterande analyserna på tio program från DaCapo-sviten som delar JDK-biblioteket. POLYMER uppnår genomsnittliga hastigheter på 2,6× för callgraph analys och 5,2× för poäng-till analys. | Kulkarni m.fl. REF påskyndar programanalys i Datalog genom att köra analysen offline på en corpus av träningsprogram för att lära sig analys fakta över delad kod och sedan återanvända de inlärda fakta för att påskynda analysen av andra program som delar kod med utbildningen corpus. | 5,444,649 | Accelerating program analyses by cross-program training | {'venue': 'OOPSLA 2016', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,056 |
Abstrakt. Djupa neurala nätverk kan lära sig kraftfulla representationer från stora mängder märkta inmatningsdata, men de kan inte alltid generalisera väl över förändringar i indatadistributioner. Domänanpassningsalgoritmer har föreslagits för att kompensera för försämringen i prestanda på grund av domänskifte. I detta dokument tar vi upp fallet när måldomänen är omärkt, vilket kräver oövervakad anpassning. CORAL[1] är en "frustratingly easy" oövervakad domänanpassningsmetod som anpassar andra ordningens statistik för källan och målfördelningarna till en linjär omvandling. Här utvidgar vi CORAL för att lära sig en icke-linjär omvandling som anpassar korrelationer av lageraktiveringar i djupa neurala nätverk (djup CORAL). Experiment på standardriktvärden visar toppmoderna resultat. | Deep-CORAL REF anpassar korrelationer av lageraktiveringar i djupa neurala nätverk. | 12,453,047 | Deep CORAL: Correlation Alignment for Deep Domain Adaptation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 3,057 |
För många applikationer, gren felprediktioner och cache missar begränsa en processor prestanda till en nivå långt under sin topp instruktion genomströmning. En liten bråkdel av statiska instruktioner, vars beteende inte kan förutses med hjälp av nuvarande gren prediktorer och cacher, bidrar en stor del av sådana prestanda förnedrande händelser. Detta papper analyserar den dynamiska instruktion ström som leder fram till dessa prestanda förnedrande instruktioner för att identifiera de operationer som krävs för att utföra dem på ett tidigt stadium. Den bakre delen (delmängd av programmet som relaterar till instruktionen) av dessa prestanda förnedrande instruktioner, om liten jämfört med hela den dynamiska instruktionsströmmen, kan förexekveras för att dölja instruktionens latens. För att övervinna konservativa beroendeantaganden som resulterar i stora skivor kan spekulationer användas, vilket resulterar i spekulativa skivor. Detta papper ger en inledande karakterisering av bakåtriktade skivor av L2 data cache missar och gren misspredictions, och visar effektiviteten av tekniker, inklusive minne beroende förutsägelse och kontroll oberoende, för att minska storleken på dessa skivor. Genom att använda dessa tekniker kan många skivor reduceras till mindre än en tiondel av hela den dynamiska instruktionsströmmen när man överväger de 512 instruktionerna före utförandet förnedrande undervisning. | Zilles och Sohi analyserade dynamiska baklänges skivor av prestanda förnedrande instruktioner REF. | 2,706,022 | Understanding the backward slices of performance degrading instructions | {'venue': "ISCA '00", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,058 |
Vi diskuterar hur nyligen upptäckta tekniker och verktyg från komprimerad avkänning kan användas i tensordepositioner, med utsikt mot modellering av signaler från flera matriser av flera sensorer. Vi visar att med lämpliga gränser på ett mått av separation mellan strålkällor som kallas koherens, kan man alltid garantera existensen och unikheten av en bästa rang-r approximation av tensoren som representerar signalen. Vi kan också härleda en beräkningsmässigt genomförbar variant av Kruskals unika tillstånd, där koherensen framträder som en proxy för k-rank. Problem med sparsam återhämtning med en oändlig kontinuerlig ordbok, lägsta rank tensor representation, och blind källkod separation behandlas på ett enhetligt sätt. Förruttnelsen av mätspänningen leder till samtidig lokalisering och utvinning av strålkällor, på ett helt deterministiskt sätt. Traitement du signal multi-antenne : les décompositioner tensorielles rejoignent l'échantillonnage compressé. Nous décrivons compressé récemment decouverts peuventêtre utilisés dans les décompositions tensorielles, avec pour illustration une modélisation des signaux provant de plusieurs antennes multicapteurs. Nous montrons qu'en posant des barnes appropriées sur une caree mesure de séparation entre les sources rayonnantes (appelée cohérence dans le jargon de l'échantillonnage compressé), on pouvait toujours garantir l'existens et l'unicité d'une meilleure approximation de rang r du titutur représentant le signal. Nous en déduisons aussi une variante calculable de la condition d'unicité de Kruskal, oò cette cohérence apparaît comme une mesure du k-rang. Les problèmes de récupération parcimonieuse avec un Dictionnaire infini continu, de représentation tentorielle de plus bas rang, et de séparation aveugle de sources sont aidsi abordés d'une seule et même façon. La décomposition du titutur de mesures conductà la localisation età l'extraktion simultanées des sources rayonnantes, de manière entièrement deterministe. Nyckelord: Blind källa separation, blind kanal identifiering, tensors, tensor rank, polyadic tensor nedbrytningar, bästa rank-r approximationer, sparse representationer, gnista, k-rank, sammanhållning, multiarrays, multisensorer Mots-clés : Séparation aveugle de sources, identifiering avveugle de kanal, spändurs, rang tensoriel, décompositions tensorielles polyadiques, meilleure approximation de rang r, représentations parcimonieuses, gnista, k-rang, cohérence, antennes multiples, multicapteurs Nous expliquons comment les de décompositions tensorielles et les modèles d'acissent naturellement dans les signaux multicapteurs, et voyons comment l'étude de ces modèles peutêtre contributions proventant de l'étellentlant de l' les modétillon compressé. Le vocableéchantillonnage compressé està prendre au sens stora, englobant non seumental les idées couvertes par [1, 4, 7, 14, 15, 18], mais aussi les travaux sur la minimation du rang et la complétion de matrise [3, 5, 17, 19, 31, 38]. Nous explorons notamment deux thèmes : (1) l'utilization de dictionnaires redondants avec des barnes sur les produits scalaires entre leurséléments ; (2) le recoursà la cohérence ou au gnista pour prouver l'unicité. En particulier, nous verrons kommentar ces idées peuventêtreétendues aux tempusurs, et appliquéesà leur décomposition et leurs approximations. Si nous kvalifions les travaux [1, 4, 7, 14, 15, 18] d'échantillonnage compressé de formes linéaires (variables vectorielles) et [3, 5, 17, 19, 31, 38] d'échantillonnage compressé de formes bilinéaires (variables matricielles), alors cet article porte sur l'échantillonnage compressé de formes multilinéaires (variables tensorielles). Les approximations tensorielles rekèlent des dirtés duesà leur caractère mal posé [9, 12], et le calcul de la plupart des problèmes d'algèbre multilinéaire sont de complexité non polynomiale (NP-durs) [20, 22]. En outre, il est souvent difficile ou même omöjlig de répondre dans le cadre de la géométrie algébriqueà securees ques fondamentales concerent les tempusurs, cadre qui est pourtan usuel pour formuler ces ques (jfr. Avsnitt 4). Nous verrons que secures de ces problèmes pourraient devenir plus abordables si on les déplace de la géomérie algébrique vers l'analyse harmonique. Plus précisément, nous verrons comment les concepts glanés auprès de l'échantillonnage compressé peuventêtre utilisés pour atténuer securees composites. Enfin, nous montrons que si les sources sont sufisamment séparées, alors il est possible de les localiser et de les extraire, d'une manière complètement deterministe. Par "suffisamment séparées", i bilaga que secures produits scalaires soient inférieursà un seuil, qui diminue avec le nombre de sources présentes. Dans le jargon de l'échantillonnage compressé, la "cohérence" désigne le plus grand de ces produits scalaires. En posant des barnes appropriées sur cette cohérence, on peut toujours garantir l'existens et l'unicité d'une meilleure approximation de rang r'un tempusur, et par conséquent l'identifiabilité d'un canal de propertation d'une part, et l'estimation des signaux source d'autre part. | I REF bygger de på ett beräkningsmässigt genomförbart villkor för unikhet med hjälp av begreppet koherens. | 5,612,513 | Multiarray Signal Processing: Tensor decomposition meets compressed sensing | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Physics']} | 3,059 |
Layer-wise magnitud-baserad beskärning (LMP) är en mycket populär metod för djup neural nätverk (DNN) komprimering. Att justera de skiktspecifika tröskelvärdena är dock en svår uppgift, eftersom utrymmet för tröskelkandidater är exponentiellt stort och utvärderingen är mycket dyr. Tidigare metoder är främst för hand och kräver expertis. I detta dokument föreslår vi en automatisk inställningsmetod baserad på optimering, kallad OLMP. Tanken är att omvandla problemet med tröskelinställning till ett begränsat optimeringsproblem (dvs. minimera storleken på den beskurna modellen under förutsättning att noggrannhetsförlusten begränsas), och sedan använda kraftfulla derivatfria optimeringsalgoritmer för att lösa det. För att komprimera en utbildad DNN utförs OLMP inom en ny iterativ beskärning och justering pipeline. Empiriska resultat visar att OLMP kan uppnå det bästa beskärning förhållandet på LeNet-stil modeller (dvs. 114 gånger för LeNet-300-100 och 298 gånger för LeNet-5) jämfört med vissa toppmoderna DNN beskärningsmetoder, och kan minska storleken på en AlexNet-stil nätverk upp till 82 gånger utan noggrannhetsförlust. | REF föreslog en optimeringsalgoritm för att automatiskt justera beskärningströsklarna för magnitudbaserade beskärningsmetoder. | 51,608,228 | Optimization based Layer-wise Magnitude-based Pruning for DNN Compression | {'venue': 'IJCAI', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 3,060 |
Vi ger den första effektiva (1 − ε) - approximation algoritm för följande problem: Med tanke på en axel-parallell d-dimensionell låda R i R d som innehåller n punkter, beräkna en maximal volym tom axel-parallell d-dimensionell låda som finns i R. Den minsta av denna mängd över alla sådana punktuppsättningar är av ordningen ( 1 n ). Vår algoritm finner en tom axeljusterad låda vars volym är minst (1 − ε) av den maximala i O((8edε −2 ) d · n log d n) tiden. Inga tidigare effektiva exakta eller approximativa algoritmer var kända för detta problem för d ≥ 4. Eftersom problemet nyligen har visat sig vara NP-hård i godtyckligt höga dimensioner (dvs. när d är en del av inmatningen), är förekomsten av en effektiv exakt algoritm osannolik. Vi presenterar också en (1 − ε) - approximation algoritm som, med tanke på en axel-parallell d-dimensionell kub R i R d som innehåller n punkter, beräknar en maximal volym tom axel-parallell hyperkub som ingår i R. Minsta av denna mängd över alla sådana punktuppsättningar visas också vara av ordningen ( 1 n ). En snabbare (1 – ε) approximationsalgoritm, med ett mildare beroende av d i körtiden, erhålls i detta fall. | I REF Dumitrescu m.fl. presenterade den första effektiva 1 − approximation algoritm för problemet med att hitta storleken på den största MEHR. | 929,942 | On the Largest Empty Axis-Parallel Box Amidst n Points | {'venue': 'Algorithmica', 'journal': 'Algorithmica', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 3,061 |
I detta dokument granskas beslutförhetssystem (QS) ur kognitiva radionäts perspektiv. Kvorumsystem utvecklades ursprungligen för och användes i stor utsträckning inom operativsystemens räckvidd. På senare tid har beslutförhetssystem också börjat tillämpas på trådlös kommunikation. Syftet med detta dokument är trefaldigt. För det första ger dokumentet en översikt och vägledning om användningen av beslutförhetssystem. För det andra visar det att QS-egenskaper utgör ett intressant alternativ till en asynkron kommunikation i kognitiva ad hoc-nätverk (CRAN). På grund av egenskaper hos beslutförhetssystem är det möjligt att etablera CRANs utan att använda en gemensam styrkanal (CCC), perfekt synkronisering, eller central styrenhet arkitektur. QS egenskaper kan användas effektivt för att hantera mötesplatsen (RDV) problem i CRANs. Nya RDV-protokoll måste utformas på ett sådant sätt att det finns en garanti för att alla noder möts regelbundet inom rimliga tidsperioder. Eftersom pseudorandomlösningar inte ger denna garanti behövs systematiska metoder som QS. För det tredje föreslår vi också ett nytt distribuerat RPV-protokoll, MtQS-DSrdv, som är baserat på spegeltorus QS och olika uppsättning begrepp. Det föreslagna protokollet garanterar RPVs på alla tillgängliga kanaler medan CR noder har samma kanaluppsättning. | I REF kan man hitta en omfattande vägledning om tillämpningen av beslutförhetssystem i trådlös kommunikation och mötesplatssfrågor i decentraliserade CNN. | 37,833,569 | Quorum Systems towards an Asynchronous Communication in Cognitive Radio Networks | {'venue': 'J. Electrical and Computer Engineering', 'journal': 'J. Electrical and Computer Engineering', 'mag_field_of_study': ['Computer Science']} | 3,062 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.