src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
Abstract-För närvarande finns det många forskning som fokuserar på att använda smartphone som en datainsamlingsenhet. Många har visat sina sensorer förmåga att ersätta en labb testbädd. Dessa tröghetssensorer kan användas för att segmentera och klassificera körhändelser ganska exakt. I denna forskning undersöker vi möjligheten att använda fordonets tröghetssensorer från CAN-bussen för att bygga en profil av föraren för att i slutändan ge korrekt feedback för att minska antalet farliga bilmanövrer. Bromsning och svängning händelser är bättre på att karakterisera en individ jämfört med acceleration händelser. Att histogramma tid-seriens värden för sensordata hjälper inte prestanda. Dessutom bidrar kombinationen av sväng- och bromshändelser till att bättre skilja mellan två liknande förare vid användning av övervakad inlärningsteknik jämfört med separata händelser enbart, om än med anemisk prestanda. | Van Ly Ref undersöker möjligheten att använda fordonets tröghetssensorer från CAN-bussen för att bygga en profil av föraren som observerar broms- och vridhändelser för att karakterisera en individ jämfört med accelerationshändelser. | 1,688,946 | Driver classification and driving style recognition using inertial sensors | {'venue': '2013 IEEE Intelligent Vehicles Symposium (IV)', 'journal': '2013 IEEE Intelligent Vehicles Symposium (IV)', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 79,689 |
Abstrakt. De flesta state-of-the-art metoder för att erkänna åtgärder bygger på globala representationer antingen genom att sammanfalla lokal information i en lång deskriptor vektor eller genom att beräkna en enda plats oberoende histogram. Detta begränsar deras prestanda i närvaro av ocklusioner och när de kör på flera synpunkter. Vi föreslår en ny strategi för att ge robusthet till både ocklusioner och synpunkter förändringar som ger betydande förbättringar jämfört med befintliga tekniker. I sitt hjärta är en lokal partitionering och hierarkisk klassificering av 3D-histogrammet av orientaliserade gradienter (HOG) deskriptor för att representera sekvenser av bilder som har konkateneras till en datavolym. Vi uppnår robusthet mot ocklusioner och synvinklar genom att kombinera träningsdata från alla synvinklar till klassificerare som beräknar actionetiketter oberoende över uppsättningar av HOG-block. En toppklassificerare kombinerar dessa lokala etiketter till ett globalt aktionsklassbeslut. | Metoden i REF utför lokal partitionering och hierarkisk klassificering av 3D Histogram of Oriented Gradients (HOG) deskriptor för att representera sekvenser av bilder. | 14,814,265 | Making action recognition robust to occlusions and viewpoint changes. ECCV | {'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,690 |
Coreferens upplösningssystem är vanligtvis tränas med heuristiska förlustfunktioner som kräver noggrann inställning. I detta papper tillämpar vi istället förstärkningslärande för att direkt optimera en neurala omnämnande-ranking modell för coreferens utvärderingsmått. Vi experimenterar med två tillvägagångssätt: REINFORCE policy gradient algoritm och en belöningskalade max-marginal mål. Vi anser att den senare är mer effektiv, vilket resulterar i betydande förbättringar jämfört med nuvarande toppmoderna på de engelska och kinesiska delarna av CoNLL 2012 Shared Task. | REF tillämpade förstärkningslärande om omnämnande-ranking coreference resolution. | 2,012,188 | Deep Reinforcement Learning for Mention-Ranking Coreference Models | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 79,691 |
Tillkomsten av sociala medier och dess välstånd gör det möjligt för användarna att dela med sig av sina åsikter och åsikter. Förstå användarnas känslomässiga tillstånd kan ge möjlighet att skapa nya affärsmöjligheter. Att automatiskt identifiera användarnas emotionella tillstånd från sina texter och klassificera känslor i finita kategorier som glädje, ilska, avsky osv. kan betraktas som ett problem med textklassificeringen. Men det introducerar ett utmanande inlärningsscenario där flera känslor med olika intensiteter ofta hittas i en enda mening. Dessutom förekommer vissa känslor oftare samtidigt som andra känslor sällan samexisterar. I detta dokument föreslår vi ett nytt tillvägagångssätt som bygger på inlärning av känslofördelning för att ta itu med de ovannämnda frågorna. Nyckelidén är att lära sig en kartfunktion från meningar till deras känslofördelningar som beskriver flera känslor och deras respektive intensitet. Dessutom fångas relationen av känslor baserat på Plutchiks hjul av känslor och senare införlivas i inlärningsalgoritmen för att förbättra riktigheten av känslodetektion. Experimentella resultat visar att det föreslagna tillvägagångssättet effektivt kan hantera problemet med att upptäcka känslor och prestera anmärkningsvärt bättre än både metoden för att upptäcka hjärtkänslor och flermärkta inlärningsmetoder. | REF förutspådde flera känslor med intensiteter baserade på känslofördelning lärande. | 1,380,793 | Emotion Distribution Learning from Texts | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,692 |
Målet med graf klustring är att dela hörn i en stor graf i olika kluster baserat på olika kriterier såsom vertex anslutning eller grannskap likhet. Grafklusterteknik är mycket användbar för att upptäcka tätt sammankopplade grupper i en stor graf. Många befintliga grafklustringsmetoder fokuserar främst på den topologiska strukturen för klustring, men ignorerar till stor del de vertexegenskaper som ofta är heterogena. I detta dokument föreslår vi en ny grafklusteralgoritm, SA-Cluster, baserad på både strukturella och attributliknande genom ett enhetligt avståndsmått. Vår metod partitionerar en stor graf associerad med attribut i k kluster så att varje kluster innehåller en tätt ansluten subgraf med homogena attributvärden. En effektiv metod föreslås för att automatiskt lära sig graden av bidrag av strukturell likhet och attribut likhet. Teoretisk analys tillhandahålls för att visa att SA-Cluster konvergerar. Omfattande experimentella resultat visar effektiviteten av SA-Cluster genom jämförelse med den state-of-the-art graf klustering och summering metoder. | Den senaste distansbaserade metoden är SA-kluster Ref som definierade ett enhetligt avståndsmått för att kombinera strukturella och attributiska likheter. | 1,061,056 | Graph Clustering Based on Structural/Attribute Similarities | {'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']} | 79,693 |
De flesta verkliga system består av ett stort antal interagerande, multi-type komponenter, medan de flesta samtida forskare modellerar dem som homogena informationsnätverk, utan att skilja olika typer av objekt och länkar i nätverken. Nyligen börjar allt fler forskare betrakta dessa sammankopplade, multi-typade data som heterogena informationsnätverk, och utveckla strukturella analysstrategier genom att utnyttja den rika semantiska betydelsen av strukturella typer av objekt och länkar i nätverken. Jämfört med ett brett studerat homogent informationsnätverk innehåller det heterogena informationsnätet rikare struktur och semantisk information, vilket ger många möjligheter samt många utmaningar för datautvinning. I detta dokument ger vi en översikt över heterogena analyser av informationsnät. Vi kommer att introducera grundläggande koncept för heterogen informationsnätverksanalys, undersöka dess utveckling på olika data mining uppgifter, diskutera några avancerade ämnen, och peka ut några framtida forskningsriktningar. | I litteraturen kallas dessa grafer heterogena grafer eller heterogena informationsnätverk REF. | 7,885,409 | A Survey of Heterogeneous Information Network Analysis | {'venue': 'IEEE Transactions on Knowledge and Data Engineering', 'journal': 'IEEE Transactions on Knowledge and Data Engineering', 'mag_field_of_study': ['Computer Science', 'Physics']} | 79,694 |
Upptäckten av upprepade undersekvenser, tidsseriemotiv, är ett problem som har visat sig ha stor nytta av flera högre nivåers databrytningsalgoritmer, inklusive klassificering, klusterbildning, segmentering, prognostisering och regelupptäckt. Under de senaste åren har det gjorts betydande forskningsinsatser för att effektivt upptäcka dessa motiv i statiska offlinedatabaser. Men för många domäner kräver tidsseriens inneboende streaming-karaktär online upptäckt och underhåll av tidsseriemotiv. I denna uppsats utvecklar vi den första onlinemotive discovery algoritmen som övervakar och upprätthåller motiv exakt i realtid under en ströms senaste historia. Vår algoritm har en i värsta fall uppdateringstid som är linjär till fönsterstorleken och kan förlängas för att upprätthålla mer komplexa mönsterstrukturer. Däremot behöver de nuvarande offline-algoritmerna antingen betydande uppdateringstid eller mycket kostsamma förbehandlingssteg som online-algoritmer helt enkelt inte har råd med. Våra kärnidéer möjliggör användbara utökningar av vår algoritm för att hantera godtyckliga datahastigheter och upptäcka flerdimensionella motiv. Vi demonstrerar nyttan av våra algoritmer med en mängd olika fallstudier inom robotik, akustisk övervakning och komprimering online. | Detta innebär att REF behåller motiv baserade på den senaste historiken av strömmen. | 2,718,699 | Online discovery and maintenance of time series motifs | {'venue': "KDD '10", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,695 |
Neurala nätverk är en kraftfull klass av ickelinjära funktioner som kan tränas end-to-end på olika applikationer. Medan överparametrisering naturen i många neurala nätverk gör förmågan att passa komplexa funktioner och stark representation makt att hantera utmanande uppgifter, leder det också till starkt korrelerade neuroner som kan skada generalisering förmåga och ådra sig onödiga beräkningskostnader. Som ett resultat, hur man legalisera nätverket för att undvika oönskade representation redundans blir en viktig fråga. I detta syfte hämtar vi inspiration från ett välkänt problem inom fysik -Thomson problem, där man försöker hitta ett tillstånd som distribuerar N elektroner på en enhet sfär så jämnt som möjligt med minsta möjliga energi. Mot bakgrund av denna intuition, vi minska redundans legalisering problem till generisk energiminimering, och föreslå en minimal hypersfärisk energi (MHE) mål som generisk legalisering för neurala nätverk. Vi föreslår också några nya varianter av MHE, och ger några insikter ur teoretisk synvinkel. Slutligen tillämpar vi neurala nätverk med MHE legalisering till flera utmanande uppgifter. Omfattande experiment visar effektiviteten i vår intuition, genom att visa den överlägsna prestanda med MHE legalisering. Den senaste tidens framgångar med djupa neurala nätverk har lett till dess breda tillämpningar i en mängd olika uppgifter. Med överparametriseringsnaturen och djupskiktad arkitektur kan nuvarande djupa nätverk [15, 47, 43] uppnå imponerande prestanda på storskaliga problem. Trots sådan framgång, har redundant och starkt korrelerade neuroner (t.ex., vikter av kärnor/filter i konvolutionella neurala nätverk (CNNs)) orsakas av överparametrisering presenterar en fråga [38, 42], som motiverade en serie inflytelserika verk i nätverk kompression [11, 1] och parameter-effektiva nätverk arkitekturer [17, 20, 64]. Dessa fungerar antingen komprimera nätverket genom beskärning redundant neuroner eller direkt ändra nätverksarkitekturen, syftar till att uppnå jämförbar prestanda medan du använder färre parametrar. Ändå är det fortfarande ett öppet problem att hitta en enhetlig och principiell teori som styr nätverkskompressionen i samband med optimal generaliseringsförmåga. En annan ström av verk försöker ytterligare släppa nätverket generalisering kraft genom att lindra redundans genom diversifiering [59, 58, 5, 37] som noggrant analyseras av [61]. De flesta av dessa arbeten tar itu med problemet med redundans genom att genomdriva relativt stor mångfald mellan parvis projektionsbaser via legalisering. Vårt arbete faller i stort sett in i denna kategori genom att vi delar liknande mål på hög nivå, men andan och motivationen bakom våra föreslagna modeller är tydliga. I synnerhet finns det en ny trend av studier som uppvisar betydelsen av vinkelinlärning på både förlust- och konvolutionsnivåer [30, 29, 31, 28], baserat på observationen att vinklar i djupa inbäddningar lärt av CNNs tenderar att koda semantisk skillnad. Den viktigaste intuitionen är att vinklar bevarar den mest rikliga och diskriminerande information för visuell igenkänning. Som ett resultat, hypersfäriska geodesiska avstånd mellan neuroner spelar naturligt en nyckelroll i detta sammanhang, och därför är det intuitivt önskvärt att införa diskriminering genom att hålla sina prognoser på hypersfären så långt bort från * indikerar lika bidrag. | Minsta hypersfäriska energi, som föreslås av REF, ingår också i denna kategori. | 43,921,092 | Learning towards Minimum Hyperspherical Energy | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 79,696 |
Vi tillhandahåller teoretisk undersökning av läroplan lärande i samband med stokastisk lutning nedstigning när optimera konvex linjär regressionsförlust. Vi visar att graden av konvergens av en idealisk inlärningsmetod i läroplanen ökar monotont med svårigheten i exemplen. Dessutom, bland alla lika svåra punkter, konvergens är snabbare när man använder punkter som medför större förlust i förhållande till den nuvarande hypotesen. Därefter analyserar vi läroplanslärandet i samband med att vi utbildar ett CNN. Vi beskriver en metod som leder fram till läroplanen genom att överföra lärande från ett annat nätverk, som är förskolat på en annan uppgift. Även om detta tillvägagångssätt bara kan approximera den idealiska läroplanen, observerar vi empiriskt liknande beteende som den som förutspås av teorin, nämligen en betydande ökning av konvergenshastigheten i början av utbildningen. När uppgiften försvåras observeras också förbättringar i generaliseringens prestanda. Slutligen, läroplans lärande visar robusthet mot ogynnsamma förhållanden såsom överdriven legalisering. | En metod för att härleda läroplanen genom att överföra lärande från ett annat nätverk som är preducerat på en annan uppgift föreslås av REF. | 5,004,002 | Curriculum Learning by Transfer Learning: Theory and Experiments with Deep Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 79,697 |
Läppläsning är uppgiften att avkoda texten från en talares rörelse. Traditionella metoder separerade problemet i två steg: designa eller lära visuella funktioner, och förutsägelse. Senare djupa läppläsning metoder är end-to-end trainingable (Wand et al., 2016; Chung & Zisserman, 2016a). Befintligt arbete på modeller utbildade end-to-end utför dock endast ordklassificering, snarare än mening-nivå sekvens förutsägelse. Studier har visat att mänsklig läppavläsning prestanda ökar för längre ord (Easson & Basala, 1982), vilket visar vikten av funktioner fånga temporal sammanhang i en tvetydig kommunikationskanal. Motiverade av denna observation presenterar vi LipNet, en modell som kartlägger en sekvens av videoramar med varierande längd till text, med användning av spatiotemporala konvolutioner, ett återkommande nätverk, och den tidsbundna klassifikationsförlusten, tränade helt end-to-end. Såvitt vi vet, LipNet är den första end-to-end mening nivå läppavläsning modell som samtidigt lär sig spatiotemporala visuella funktioner och en sekvensmodell. På GRID corpus, LipNet uppnår 95,2% noggrannhet i mening-nivå, överlappande högtalare split uppgift, bättre erfarna mänskliga läppläsare och den tidigare 86,4% ord-nivå state-of-the-art noggrannhet (Gergen et al., 2016). | LipNet REF var den första end-to-end-modellen för att hantera läppavläsning på meningsnivå genom att förutsäga teckensekvenser. | 7,421,075 | LipNet: End-to-End Sentence-level Lipreading | {'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,699 |
I detta dokument föreslår vi en ny biometrisk fingermetod. Infraröda fingerbilder fångas först, och sedan funktionsextraktion utförs med hjälp av en modifierad Gaussian high-pass filter genom binarization, lokala binära mönster (LBP) och lokala derivat mönster (LDP) metoder. Infraröda fingerbilder inkluderar multimodala egenskaper hos finger vener och fingergeometrier. Istället för att extrahera varje funktion med olika metoder, är den modifierade Gaussian högpass filter helt invecklad. Därför innehåller de extraherade binära mönster av fingerbilder multimodala egenskaper vener och fingergeometrier. Experimentella resultat visar att den föreslagna metoden har en felfrekvens på 0,13%. | I REF föreslogs ett kombinerat igenkänningssystem för finger- och fingergeometri med ett modifierat Gaussiskt högpassfilter genom binarisering, LBP och lokalt derivatmönster (LDP). | 10,833,005 | New Finger Biometric Method Using Near Infrared Imaging | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']} | 79,700 |
Till skillnad från mänskligt lärande misslyckas maskininlärning ofta med att hantera förändringar mellan utbildning (källa) och test (mål) ingångsdistributioner. Sådana domänskiften, vanliga i praktiska scenarier, allvarligt skadar prestandan hos konventionella maskininlärningsmetoder. Övervakade metoder för domänanpassning har föreslagits för fallet när måldata har etiketter, inklusive några som fungerar mycket bra trots att de är "frustratingly lätt" att genomföra. I praktiken är dock måldomänen ofta omärkt, vilket kräver en oövervakad anpassning. Vi föreslår en enkel, effektiv och effektiv metod för oövervakad domänanpassning som kallas KORRELATION (CORAL). CORAL minimerar domänbytet genom att anpassa den andra ordningens statistik över käll- och målfördelningar, utan att kräva några målmärkningar. Även om det är utomordentligt enkelt-det kan genomföras i fyra rader av Matlab code-CORAL presterar anmärkningsvärt bra i omfattande utvärderingar på standardriktvärden dataset. "Allt ska göras så enkelt som möjligt, men inte enklare." | Till exempel, Correlation Alignment (CORAL) Ref finner en linjär omvandling som minimerar avståndet mellan kovariansen av källa och mål. | 16,439,870 | Return of Frustratingly Easy Domain Adaptation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 79,701 |
I denna artikel visar vi att Flerspråkig BERT (M-BERT), utgiven av Devlin et al. (2019) Som en enda språkmodell som är förträngd från enspråkig korpora på 104 språk, är förvånansvärt bra på noll-shot tvärspråkig modellöverföring, där uppgiftsspecifika kommentarer på ett språk används för att finjustera modellen för utvärdering på ett annat språk. För att förstå varför, Vi presenterar ett stort antal undersökningsförsök, visar att överföring är möjligt även till språk i olika skript, att överföring fungerar bäst mellan typologiskt liknande språk, att enspråkig corpora kan träna modeller för kodväxling, och att modellen kan hitta översättning par. Av dessa resultat kan vi dra slutsatsen att M-BERT skapar flerspråkiga representationer, men att dessa representationer uppvisar systematiska brister som påverkar vissa språkpar. | REF presenterar ett stort antal undersökningsförsök och visar att flerspråkiga BERTs robusta förmåga att generalisera språkligt stöds av en flerspråkig representation. | 174,798,142 | How multilingual is Multilingual BERT? | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 79,702 |
I Sydkorea byggs ett LTE-baserat nätverk för allmän säkerhet (PS)-LTE med 718 ~ 728 MHz för upplänk och 773 ~ 783 MHz för nedlänk. Samma band tilldelas dock också det LTE-baserade järnvägsnätet för höghastighetståg (LTE-R), vilket innebär att det är absolut nödvändigt med stora farhågor och praktiska undersökningar om förvaltningssystem för samkanalsinterferens (CCI). I detta dokument analyseras och utvärderas prestanda genom att man tar hänsyn till fall av icke-RAN (radioaccess network) delning och LTE-R RAN delning av PS-LTE användarutrustning (UE). Eftersom en tågstyrningssignal kräver hög tillförlitlighet och låg latens för att uppfylla sina uppdragskritiska servicekrav ger vi högre prioritet åt LTE-R UE under resurstilldelningen under LTE-R RAN-delningen av PS-LTE UE. Dessutom är interferenshanteringssystem effektivare när det gäller samexistensen mellan PS-LTE- och LTE-R-nätverk inom ramen för RAN-delningsmiljön. I detta dokument använder vi förbättrad intercellinterferenssamordning (eICIC) och ytterligare förbättrade ICIC-system (FeICIC) för att minska störningen från PS-LTE-nätverk till LTE-R-nätverk och samtidigt förbättra resursutnyttjandet av LTE-R eNodeB (eNB) genom att avlasta fler PS-LTE UEs till LTE-R-nätverk. Dessutom beaktas ett samordnat flerpunktsöverföringssystem (CoMP) bland LTE-R eNBs för att förbättra LTE-R-cellkantanvändarnas prestanda. Genom att använda FeICIC tillsammans med samordnad schemaläggning (CS) CoMP, kan den bästa genomströmningen uppnås när det gäller RAN-delning. | I vårt tidigare arbete REF använde vi förbättrad ICIC (eICIC) och ytterligare eICIC (FeICIC) tillsammans med CS CoMP under RAN-delningsfallet för avlastning av fler användare av allmän säkerhet till järnvägsnätet, men CS CoMP ansågs bara vara bland LTE-R eNBs. | 8,387,269 | Co-channel interference management using eICIC/FeICIC with coordinated scheduling for the coexistence of PS-LTE and LTE-R networks | {'venue': None, 'journal': 'EURASIP Journal on Wireless Communications and Networking', 'mag_field_of_study': ['Computer Science']} | 79,703 |
Gemensam morfologisk och syntaktisk analys har föreslagits som ett sätt att förbättra tolkningsnoggrannheten för rikt böjda språk. Med utgångspunkt från en övergångsbaserad modell för gemensam del-av-tal taggning och beroende tolkning, utforskar vi olika sätt att integrera morfologiska egenskaper i modellen. Vi undersöker också användningen av regelbaserade morfologiska analysatorer för att ge hårda eller mjuka lexiska begränsningar och användning av ordkluster för att ta itu med det glesa i lexiska funktioner. Utvärdering av fem morfologiskt rika språk (tjeckiska, finska, tyska, ungerska och ryska) visar konsekventa förbättringar i både morfologisk och syntaktisk noggrannhet för gemensam förutsägelse över en pipelinemodell, med ytterligare förbättringar tack vare lexiska begränsningar och ordkluster. De slutliga resultaten förbättrar den senaste tekniken när det gäller tolkning av beroendet för alla språk. | På senare tid presenterade Ref en arc-standard övergångsbaserad tolk som fungerar konkurrenskraftigt för gemensam morfologisk märkning och beroende tolkning för rikt böjda språk, såsom tjeckiska, finska, tyska, ungerska och ryska. | 1,992,679 | Joint Morphological and Syntactic Analysis for Richly Inflected Languages | {'venue': 'Transactions of the Association for Computational Linguistics', 'journal': 'Transactions of the Association for Computational Linguistics', 'mag_field_of_study': ['Computer Science']} | 79,704 |
Beroende på typade språk som Coq används för att specificera och bevisa funktionell korrekthet av källkodsprogram, men vad vi i slutändan behöver är garantier om korrekthet av sammanställd kod. Genom att bevara beroende typer genom varje kompilator pass, kunde vi bevara käll-nivå specifikationer och korrektur i de genererade mål-språkprogram. Tyvärr, typbevarande sammanställning av beroende typer är svårt. År 2002 visade Barthe och Uustalu att typbevarande CPS inte är möjligt för språk som Coq. Närmare bestämt visade de att för starka beroende par (en typ) är den standardtypade call-by-name CPS inte typbevarande. De bevisade vidare att det inte är möjligt med en kategori av CPS-översättningar, inklusive standardöversättningen, för en oberoende fallanalys av belopp. Under 2016 upptäckte Morrisett ett liknande problem med den standardiserade CPS-översättningen för beroende funktioner (II-typer). I huvudsak är problemet att den standardtypade CPS översättning genom dubbel-negation, där beräkningar tilldelas typer av blanketten (A → på) → och stör den term/typ ekvivalens som används under typkontroll på ett beroende skrivit språk. I detta dokument bevisar vi att det inte är möjligt att typbevarande CPS-översättning för språk som är beroende av maskinskrivning. Vi utvecklar både call-by-name och call-by- value CPS-översättningar från kalkylen av konstruktioner med både Π och på typ (CC) till ett beroende skrivit målspråk, och bevisar typbevarande och kompilator korrekthet av varje översättning. Vårt målspråk är CC utvidgas med en ytterligare likvärdighet regel och en ytterligare skrivregel, som vi visar sig konsekvent genom att ge en modell i förlängningskalkyl av konstruktioner. Vår viktigaste iakttagelse är att vi kan använda en CPS översättning som använder svar-typ polymorfism, där CPS-translaterade beräkningar har typ.(A → α) → α. Denna typ rättfärdigar, genom ett fritt teorem, den nya jämlikhetsregeln i vårt målspråk och tillåter oss att återställa den term/typ ekvivalens som CPS översättning stör. Slutligen antar vi att vår översättning sträcker sig till en beroende fallanalys av summor, trots det omöjliga resultatet, och ger en bevisskiss. CCS-koncept: · Programvara och dess teknik → Korrekthet; Funktionella språk; Polymorfism; Kontrollstrukturer; Compilers; · Teori för beräkning → Typteori; Ytterligare Key Words och fraser: Beroende typer, typteori, säker sammanställning, typbevarande sammanställning, parametricitet, CPS * Vi använder en icke-bold blå sans-serif typsnitt för att skriva in källspråket, och en fet röd serif typsnitt för målspråket. Språken kan urskiljas i svartvitt, men papperet är lättare att läsa när det visas eller trycks i färg. Författarens adress: William J. Bowman, Northeast University, USA, [email protected]; Youou Cong, Ochanomizu University, Japan, [email protected]; Nick Rioux, Northeast University, USA, [email protected]; Amal Ahmed, Northeast University, USA, [email protected]. Tillstånd att göra digitala eller papperskopior av delar eller allt detta arbete för personligt bruk eller klassrum beviljas utan avgift, förutsatt att kopiorna inte görs eller distribueras för vinst eller kommersiella fördelar och att kopiorna är försedda med detta meddelande och den fullständiga hänvisningen på första sidan. Upphovsrätt till tredje parts delar av detta arbete måste hedras. För all annan användning, kontakta ägaren/författaren(er) [Gu et al. 2015], och implementationer av kryptografiska protokoll [Appel 2015; Barthe et al. År 2009 ]. Men även om beroende skrivit språk gör det lättare att verifiera egenskaper hos källkod (Gallina) program, vad som slutligen behövs är en garanti för att samma egenskaper innehar kompilerade låg nivå kod. Detta kräver en verifierad kompilator för Gallina och det pågående arbetet med CertiCoq [Anand et al. 2017 ] är ett bra första steg. CertiCoq raderar dock Gallinatyper och utför sedan omvandlingar som CPS och stängningskonvertering på otypad kod. Problemet med radering typer alltför tidigt i sammanställning pipeline 1 är att det blir svårt att bygga en verifierad kompilator som stöder säker/säker länkning av kompilerad kod med kod från andra språk [Ahmed 2015; Patterson och Ahmed 2017]. Till exempel, betrakta en (ren) högre ordning Gallina funktion f som är sammanställd till C eller sammansättning (som i CertiCoq) och kopplad med ett mål sammanhang som passerar den sammanställda f en oren C eller sammansättning łfunktionž som indata. Denna orena funktion kan bryta Gallinas type-abstraktion eller säkerhetsgarantier eller ändra f's kontrollflöde. Att undersöka typbevarande sammanställning av beroende maskinskrivna språk är av avgörande betydelse eftersom nyckeln till att intuitivt skydda den sammanställda versionen av f från sammanhang som ger ouppfostrade indata är att se till att sammanställd kod endast kan kopplas till sammanhang på målnivå som motsvarar väldefinierade sammanhang på källnivå. Genom att översätta typer under sammanställning, kan vi koda denna korrespondens i typerna. Sedan, vid länktid, tillåter vi att länka en välskriven kompilerad komponent med andra välskrivna målspråkskomponenter. Med typbevarande sammanställning och tillräckligt rika typer på målnivå kan vi statiskt utesluta att länka till ouppfostrade/osäkra sammanhang. Således ger typbevarande sammanställning en väg till att bygga säkra (helt abstrakta) kompilatorer [Abadi 1998; Ahmed och Blume 2008, 2011; Bowman och Ahmed 2015; Fournet et al. 2013; Kennedy 2006; New et al. 2016; Patrignani m.fl. 2015] utan omkostnader för dynamiska kontroller. Genom att bevara beroende typer kan vi även bevara de fullständiga funktionella specifikationerna till målnivån, så att sammanställd kod kan verifieras självständigt genom typkontroll. Detta papper undersöker typbevarande CPS för beroende maskinskrivna språk. CPS översättning är en viktig kompilator pass som gör kontrollflöde och utvärderingsorder explicit 2. Men, det är en omvandling som presenterar icke-triviala problem i en beroende skrivit inställning, som diskuteras nästa. Tidigare arbete. Barthe m.fl. [1999] visade hur man skalar maskinskrivna call-by-name (CBN) CPS översättning till en stor klass av Pure Type Systems (PTS), inklusive analys av konstruktioner (CC) utan påslag. De använde standardöversättning med dubbel negation, d.v.s. den maskinskrivna varianten av Plotkins ursprungliga CPS-översättning, översättning av källberäkningar av typ A till CPS-translaterade (CPS'd) beräkningar av typ (A + → (där + betecknar värdeöversättning av typer, som förklaras i avsnitt 3). För att undvika vissa tekniska svårigheter (som vi diskuterar i Avsnitt 5), de anser endast domänfri 1 Här łtoo earlyž betyder ł innan vi har ett helt programž — dvs., innan scenen i sammanställning pipeline där vi länkar med låg nivå bibliotek och kod sammanställd från andra språk för att bilda ett helt program. 2 Vi diskuterar det populära alternativet, ANF översättning [Flanagan et al. 1993] Barthe och Uustalu [2002] försökte utvidga dessa resultat till analys av induktiva konstruktioner (CIC), men slutade med att rapportera ett negativt resultat, nämligen att den standardtypade CBN CPS översättningen inte är typbevarande för typer. De fortsätter att bevisa en allmän omöjlighet resultat: för summan typer med beroende fall analys, typ konservering är inte möjligt för klass av CPS översättningar som kan genomföra samtal / cc. Vi återgår till detta senare omöjlighet resultat, som inte gäller vår översättning, i Avsnitt 7. Problemet med CPS-översättningar för olika typer har setts över av andra under årens lopp, men utan positiva resultat. Under 2016 försökte Greg Morrisett skriva call-by- value (CBV) CPS översättning av en A-normaliserad variant av CC, återigen med hjälp av dubbel-negation översättning. 3 Han varnade oss för det faktum att skrivad CBV CPS översättning av ska verkar fungera när man översätter från A-normal form, men CBV CPS översättning av Π typer (särskilt, ansökan fall) misslyckas med att skriva kontroll. | En variant av denna översättning har nyligen utökats av Bowman et al. REF. till beroende belopp med hjälp av svar-typ polymorfism Πα :. | 3,909,257 | Type-preserving CPS translation of Σ and Π types is not not possible | {'venue': 'PACMPL', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 79,705 |
Abstract-Ett antal tillämpningar i sociala nätverk, telekommunikation och mobil databehandling skapar massiva strömmar av grafer. I många sådana applikationer är det användbart att upptäcka strukturella avvikelser som skiljer sig från det "typiska" beteendet hos det underliggande nätverket. I detta dokument kommer vi att ge de första resultaten när det gäller problemet med upptäckt av strukturella avvikelser i massiva nätflöden. Sådana problem är till sin natur utmanande, eftersom problemet med avvikande upptäckt är särskilt utmanande på grund av den höga volymen av den underliggande nätverksströmmen. Strömscenariot ökar också beräkningsutmaningarna för tillvägagångssättet. Vi använder en strukturell konnektivitetsmodell för att definiera avvikelser i grafströmmar. För att hantera det glesa problemet med massiva nätverk delar vi dynamiskt upp nätverket för att konstruera statistiskt robusta modeller av konnektivitetsbeteendet. Vi utformar en reservoar provtagningsmetod för att upprätthålla strukturella sammanfattningar av det underliggande nätverket. Dessa strukturella sammanfattningar är utformade för att skapa robusta, dynamiska och effektiva modeller för avvikande detektering i grafströmmar. Vi presenterar experimentella resultat som illustrerar effektiviteten och effektiviteten i vår strategi. | Aggarwal m.fl. REF använde en strukturell konnektivitetsmodell för att definiera avvikelser och utforma en reservoarprovtagningsmetod som på ett robust sätt upprätthåller strukturella sammanfattningar av homogena grafströmmar. | 13,356,834 | Outlier detection in graph streams | {'venue': '2011 IEEE 27th International Conference on Data Engineering', 'journal': '2011 IEEE 27th International Conference on Data Engineering', 'mag_field_of_study': ['Computer Science']} | 79,706 |
I moderna elektroniska journaler (EMR) mycket av de kliniskt viktiga data -tecken och symtom, symptom svårighetsgrad, sjukdomsstatus, etc. -finns inte i strukturerade datafält, utan är kodade i klinisk genererad berättande text. Behandling av naturligt språk (NLP) är ett sätt att "låsa upp" denna viktiga datakälla för ansökningar i kliniskt beslutsstöd, kvalitetssäkring och folkhälsa. Detta kapitel ger en översikt över representativa NLP-system inom biomedicin baserat på en enhetlig arkitektonisk vy. En allmän arkitektur i ett NLP-system består av två huvudkomponenter: bakgrundskunskap som inkluderar biomedicinska kunskapsresurser och ett ramverk som integrerar NLP-verktyg för att bearbeta text. Systemen skiljer sig åt i båda komponenterna, vilket vi kommer att granska kortfattat. De utmaningar som dagens forskning inom biomedicinsk NLP står inför omfattar dessutom bristen på stora, offentligt tillgängliga kommenterade corpora, även om initiativ som underlättar datadelning, systemutvärdering och samarbete mellan forskare inom klinisk NLP börjar dyka upp. I moderna elektroniska journaler (EMR) de flesta av de kliniskt viktiga data -tecken och symtom, symptom svårighetsgrad, sjukdomsstatus, etc. -finns inte i strukturerade datafält, utan är snarare kodade i klinisk-genererad berättande text. Behandling av naturligt språk (NLP) är ett sätt att "låsa upp" denna viktiga datakälla, omvandla ostrukturerad text till strukturerade, användbara data för användning i ansökningar om kliniskt beslutsstöd, kvalitetssäkring och folkhälsoövervakning. Det finns för närvarande många NLP-system som har varit 2 framgångsrikt tillämpas på biomedicinsk text. Det är inte vårt mål att granska dem alla i detta kapitel, utan snarare att ge en översikt över hur fältet utvecklats från att producera monolitisk programvara byggd på plattformar som var tillgängliga vid den tidpunkt då de utvecklades till moderna komponentbaserade system som byggdes ovanpå allmänna ramar. Viktigare är att prestandan hos dessa system är nära förknippad med deras "ingredienser" (dvs. moduler som används för att bilda bakgrundskunskap), och hur dessa moduler kombineras ovanpå den allmänna ramen. Vi lyfter fram vissa system som bygger på deras landmärkesstatus samt på mångfalden av komponenter och ramar som de bygger på. [7]............................................................... Granskningen i detta kapitel skiljer sig från tidigare arbete genom att den betonar den historiska utvecklingen av banbrytande kliniska NLP-system, och presenterar varje system i ljuset av en enhetlig systemarkitektur. Vi anser att varje NLP-system inom biomedicin innehåller två huvudkomponenter: biomedicinsk bakgrundskunskap och ett ramverk som integrerar NLP-verktyg. I resten av detta dokument kommer vi först att beskriva vår modellarkitektur för NLP-system inom biomedicin, innan vi går vidare med att granska och sammanfatta representativa NLP-system, börjar med ett tidigt NLP-system, LSP-MLP, och avslutar vår diskussion med presentationen av ett nyare system, cTAKES. Slutligen kommer vi att diskutera såväl utmaningar som trender i utvecklingen av nuvarande och framtida biomedicinska NLP-system. Material Vi utgår från en diskussion av Friedman och Elhadad [8] där NLP och dess olika komponenter illustreras, vilket återges i bild. 1................................................................ NLP-aspekter kan delas in i två delar: den vänstra delen innehåller utbildad korpora, domänmodell, domänkunskap och språkkunskap; den högra delen innehåller metoder, verktyg, system och tillämpningar. Ur systemarkitekturens synvinkel betraktar vi en allmän arkitektur där ett NLP-system innehåller två huvudkomponenter: bakgrundskunskap, som motsvarar den vänstra delen av figuren, och ett ramverk som integrerar NLP-verktyg och moduler, vilket motsvarar den högra delen av figuren. Vår syn på en allmän arkitektur skildras i bild. 2............................................................... Nedan beskriver vi de två huvudkomponenterna och deras roller i biomedicinska NLP-system. Rektanglarna på vänster sida representerar bakgrundskunskap, och komponenterna på höger sida representerar ramen (dvs algoritmer och verktyg). Bakgrundskunskap och ramverk är huvudkomponenterna i ett NLP-system. En allmän arkitektur av ett kliniskt NLP-system innehåller två huvudkomponenter: bakgrundskunskap och ramverk. Bakgrunden innehåller ontologier, en domänmodell, domänkunskap och utbildad korpora. Ramverk innehåller en låg nivå processor för uppgifter som tokenisering och del-av-tal taggning. En högnivåprocessor används för uppgifter som namngiven enhetsigenkänning och relationsextraktion. Uppgifter eller moduler i ramverket kan vara beroende eller oberoende och organiseras sekventiellt eller hierarkiskt. Som nämndes i inledningen är biomedicinsk kunskap en viktig komponent i uppbyggnaden av kliniska NLP-system. Domänkunskap och språklig kunskap är centrala delar. Tidigare system som LSP-MLP byggde sitt eget medicinska ordförråd och verktyg på grund av bristen på lättillgängliga resurser vid den tidpunkten. Skapandet av det enhetliga medicinska språksystemet (UMLS), som började utvecklas 1986, gynnade i hög grad kliniska NLP-system. UMLS innehåller tre huvudkomponenter: Metathesarus, det semantiska nätverket och specialistlexikonet. Av praktiska skäl kan UMLS anses vara som en ontologi av biomedicinska begrepp och deras relationer. Nedan sammanfattar vi kort varje komponent i UMLS. UMLS Metathesarus innehåller för närvarande över 1 miljon biomedicinska begrepp och 5 miljoner konceptnamn från över 150 kontrollerade ordförråd inom biomedicinska vetenskaper, såsom ICD-10, MeSH, SNOMED CT och RxNorm. UMLS Semantic Network ger en konsekvent kategorisering av alla begrepp som representeras i UMLS Metathesaurus. Det minskar komplexiteten i Metathesaurus genom att gruppera begrepp efter semantiska typer. För närvarande innehåller den 135 breda kategorier och 54 relationer mellan kategorier. Till exempel har kategorin "sjukdom eller syndrom" ett samband "associerad_med" med kategorin "finishing", och kategorin "Hormone" har ett samband "Affekter" med kategorin "sjukdom eller syndrom" i det semantiska nätverket. UMLS Specialist lexicon innehåller syntaktisk, morfologisk och stavningsinformation för biomedicinska termer [9]. För närvarande innehåller den över 200.000 termer och används av UMLS lexiska verktyg för NLP uppgifter. Bakgrundskunskap omfattar även domänmodeller och utbildade corpora, som används för att behandla specifika domäner som radiologirapporter, patologiska rapporter och utsläppssammanfattningar. Annoterade corpora är manuellt markerade-upp av mänskliga annoterare och används för att träna maskininlärning språkliga klassificerare, samt för att utvärdera regelbaserade system. Det finns två huvudstrategier för att bygga NLP-verktyg. Den första är regelbaserad, som främst använder ordlistan uppslagning och regler. Den andra använder sig av en maskininlärningsmetod som bygger på kommenterad korpora för att utbilda inlärningsalgoritmer. Tidiga system använde ofta regelbaserat tillvägagångssätt eftersom de var relativt lätta att utforma och genomföra. För närvarande, med utvecklingen av robusta statistiska 6 maskininlärningsmetoder och ett ökande antal kommenterade corpora, har många kliniska NLP-system flyttat bort från att enbart förlita sig på regelbaserade metoder, även om det fortfarande finns en hög kostnad för att generera nya kommenterade utbildningsdata, som fortfarande krävs för att redovisa skillnader i uppgifter, typer av dokument, samt deras ursprung. Som framgår av många kliniska NLP-utmaningar uppnår maskininlärningsmetoder ofta bättre resultat än regelbaserade metoder. Regelbaserade metoder är dock något lättare att anpassa och anpassa till en ny domän. De flesta moderna NLP-system är hybrida, dvs. byggda från en kombination av regelbaserade och maskininlärningsmetoder [8]. Bilda. 2 visar hur NLP-verktyg kan integreras i en rörledning som byggs ovanpå en viss ram. Med ramverk menar vi en mjukvaruplattform för kontroll och hantering av komponenter som lastning, lossning och hantering av rörledningar. Komponenter inom en ram kan inbäddas och kopplas ihop eller användas som plug-ins. För NLP-system inom biomedicin kan ramverket delas in i två nivåer: lågnivåprocessorer och högnivåprocessorer. Lågnivåprocessorer utför grundläggande uppgifter i NLP såsom detektering av meningsgränser, sektionsmärkning, del-av-tal taggning, och substantiv frasskärning. Högnivåprocessorer utför semantisk bearbetning såsom namngiven enhetsigenkänning (t.ex. sjukdomar/störningar, tecken/symtom, mediciner), relationsextraktion och tidslinjeextraktion. För att ge en enhetlig bild av systemarkitekturen valde vi representativa NLP-system i denna översyn. Vi valde system på grund av deras historiska betydelse och inflytande i det biomedicinska NLP samhället. Vi valde först två mycket inflytelserika kliniska NLP-system: LSP-MLP och MedLEE. LSP-MLP är ett banbrytande projekt och har i hög grad påverkat efterföljande NLP-system, och MedLEE är ett system som för närvarande används allmänt i kliniska NLP-samhällen. Vi valde sedan ett specialsystem som hette SymText, som var utformat för behandling av radiologirapporter. SymTex började utvecklas på 1990-talet och är fortfarande i aktiv användning idag. Vi går också kort igenom MetaMap, ett brett använt verktyg i den biomedicinska NLP-miljön. Vi valde två system baserade på GATE och UIMA: HITEX, och cTAKES, respektive. Sammanfattningar av karakteristiska egenskaper hos de kliniska NLP-system som granskats i detta kapitel presenteras i tabell 1. 14 http://uima.apache.org/doc-uima-varför. Metoder System Det lingvistiska Stringprojektet (LSP) 17 utvecklades 1965 vid New York University av Sager et al. [1, 12]. Det är ett av de tidigaste forsknings- och utvecklingsprojekten inom datorbearbetning av naturligt språk. Utvecklingen av LSP baserades på den språkliga teorin om Zellig Harris: språklig strängteori, transformationsanalys och sublingual grammatik [13] [14] [15]. Det fokuserade främst på medicinsk språkbehandling, inklusive underspråket klinisk rapportering, röntgenrapporter och sammanfattningar av sjukhusurladdning. LSP-metoden använde ett tolkningsprogram för att identifiera syntaktiska relationer mellan ord i en mening. Projektet påverkade starkt efterföljande kliniska NLP-projekt. LSP: s system kallades Medical Language Processor (MLP). Kärnkomponenten i MLP är en parser. Författarna utvecklade först en allmän NLP-tolk för den allmänna engelska språkdomänen, inklusive engelsk grammatik och lexikon, och sedan utökade de systemet till underspråket för biomedicin genom att lägga till en medicinsk lexikon och motsvarande grammatik. Nedan sammanfattar vi huvudkomponenterna i MLP. • Lexicons: MLP utvecklade lexikon för både allmänna engelska och medicinska kunskaper. I lexikonet har varje ord en tillhörande del av tal och grammatiska och medicinska "attributer" som kallas underklasser. Lexikonet har 60 möjliga verbobjekt och 50 medicinska underklasser. Den hade också listor över fördefinierade prepositioner, förkortningar och doser. Dessa attribut används under hela bearbetningen för att vägleda tolkningen och lösa tvetydigheter. Parsern går från vänster till höger genom meningen, och upp till botten genom BNF-definitionerna. När parsern associerar en terminalsymbol av parsträdet, kan ordets attribut testas genom en begränsning, till exempel samtycke av subjekt och verb. Följande steg är involverade i behandlingen av texten: • Urvalet godkänns eller förkastas en pars baserad på underträd. • Omvandling sönderdelar meningar i deras grundläggande kanoniska meningar. • Regularisering förbinder grundläggande kanoniska meningar genom associationer. • Informationsformat kartlägger syntaktiska parserträden i medicinska informationsstrukturer. MLP överväger 11 informationsstrukturer relaterade till patienter som patienter, familj, medicinering, behandlingar, labb/test, etc. Slutligen skrivs utdata in i två format: fliken avgränsad och XML-format. 18 http://mlp-xml.sourceforge.net/ 11 Bild 3............................................................... Arkitektur av MedLEE, där bakgrundskunskapen innehåller komponenter för lexikon, grammatik, kartläggningar och kodningstabeller. Den låga nivå processor är en preprocessor och hög nivå processor består av moduler för tolkning, felåterställning, fras legalisering och kodning. LSP-MLP användes för behandling av kliniska berättelser på engelska, och det utvidgades också till andra språk som franska, tyska och nederländska [1]. Det har använts för att kartlägga klinisk text i SNOMED-koder [17, 18]. LSP-MLP utformades för att hämta information från klinisk text, varför det inte fanns några rapporter som utvärderade kartläggningen. Prestandan i informationssökningen indikerade 92,5% återkallande och 98,6% precision [18]. Med sina kompletta strukturer gav LSP-MLP ett tidigt framgångsrikt exempel på utvecklingen av efterföljande NLP-system. | Studier om behandling av kliniska texter på andra alfabetiska språk än engelska, såsom franska, tyska och nederländska, har också genomförts, kartläggning kliniska beskrivningar till Systematiserade Nomenklaturen för medicinkoder REF. | 14,186,660 | Natural Language Processing in Biomedicine: A Unified System Architecture Overview | {'venue': 'Methods in molecular biology', 'journal': 'Methods in molecular biology', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 79,707 |
Maskintranslitterering är att transkribera ett ord skrivet i ett skript med ungefärlig fonetisk ekvivalens på ett annat språk. Det är användbart för maskinöversättning, flerspråkig information hämtning, flerspråkig text och talbehandling. Punjabi Machine Translitteration (PMT) är ett specialfall av maskintranslitterering och är en process för att konvertera ett ord från Shahmukhi (baserat på arabiska manus) till Gurmukhi (delivation av Landa, Shardha och Takri, gamla manus av indiska subkontinent), två manus av Punjabi, oavsett typ av ord. Punjabi Machine Transliteration System använder translittereringsregler (teckenkartläggningar och beroenderegler) för translitterering av Shahmukhi-ord till Gurmukhi. PMT-systemet kan translitterera varje ord skrivet i Shahmukhi. | REF har utvecklat punjabi Machine Translitteration System som används för att translitterera ord från Shahmukhi skript till Gurmukhi skript med hjälp av translittereringsregler. | 6,134,239 | Punjabi Machine Transliteration | {'venue': 'International Conference On Computational Linguistics And Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,708 |
Politiska sökmetoder baserade på förstärkande lärande och optimal kontroll kan göra det möjligt för robotar att automatiskt lära sig ett brett spektrum av uppgifter. Praktiska tillämpningar av policysökning tenderar dock att kräva att policyn stöds av handgjorda komponenter för perception, statsuppskattning och kontroll på låg nivå. Vi föreslår en metod för att lära sig policyer som kartlägger råa, låga observationer, bestående av gemensamma vinklar och kamerabilder, direkt till vridmomenten vid robotens leder. Politiken representeras som djupa konvolutionella neurala nätverk (CNN) med 92 000 parametrar. En sådan politiks höga dimension utgör en enorm utmaning för den politiska sökandet. För att möta denna utmaning utvecklar vi en sensorimotorstyrd policysökmetod som kan hantera högdimensionella policyer och delvis observerade uppgifter. Vi använder BADMM för att bryta ner policysökningen i en optimal kontrollfas och övervakad inlärningsfas, så att CNN-policyer kan utbildas med standardledda inlärningstekniker. Denna metod kan lära sig ett antal manipulationsuppgifter som kräver nära samordning mellan syn och kontroll, bland annat infoga ett block i en form sortering kub, skruva på en flasklock, montera klor av en leksak hammare under en spik med olika grepp, och placera en klädhängare på en klädhängare. | Vi ändrar BADMM-baserad styrd policysökmetod REF för att hantera kontinuerliga minnestillstånd. | 7,242,892 | End-to-End Training of Deep Visuomotor Policies | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 79,709 |
Sociala medier som t.ex. Twitter har blivit ett viktigt forum för kamratinteraktion. Förmågan att klassificera latenta användarattribut, inklusive kön, ålder, regionalt ursprung och politisk orientering enbart från Twitter-användarspråk eller liknande mycket informellt innehåll har viktiga tillämpningar i reklam, personalisering och rekommendationer. Detta papper innehåller en ny undersökning av staplade-SVM-baserade klassificeringsalgoritmer över en rik uppsättning av ursprungliga funktioner, tillämpas för att klassificera dessa fyra användarattribut. Den innehåller också omfattande analyser av funktioner och tillvägagångssätt som är effektiva och inte effektiva för att klassificera användarattribut i Twitter-stil informella skrivna genrer som skiljer sig från de andra främst talade genrer som tidigare studerats i userproperty klassificering litteratur. Våra modeller, var för sig och i ensemble, överträffar betydligt baslinjemodellerna i alla fall. En detaljerad analys av modellkomponenter och egenskaper ger en ofta underhållande inblick i distinkt språkanvändningsvariationer mellan kön, ålder, regionalt ursprung och politisk inriktning i modern informell kommunikation. | I deras studie, Rao et al. REF fann distinkta variationer i språkanvändningen av Twitter-användare mellan olika kön, ålder, regionalt ursprung och politisk inriktning. | 15,532,406 | Classifying latent user attributes in twitter | {'venue': "SMUC '10", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,710 |
Vi föreslår att använda en statistisk frasbaserad maskinöversättningssystem i en post-redigering uppgift: systemet tar som ingång rå maskin översättningsutmatning (från en kommersiell regel-baserade MT-system), och producerar post-redigerad mål-språklig text. Vi rapporterar om experiment som utfördes på data som samlats in i just en sådan inställning: par av rå MT utgång och deras manuellt efter-redigerade versioner. I vår utvärdering är resultatet av vårt automatiska efterredigeringssystem (APE) inte bara bättre kvalitet än det regelbaserade MT (både när det gäller BLEU- och TER-mått), det är också bättre än resultatet av ett toppmodernt frasbaserat MT-system som används i fristående översättningsläge. Dessa resultat visar att automatisk efterredigering är ett enkelt och effektivt sätt att kombinera regelbaserad och statistisk MT-teknik. | REF utvecklade även en statistisk frasbaserad MT-system i en postering uppgift, som tar ut ett regelbaserat MT-system och producerar post-redigerad målspråkstext. | 7,695,334 | Statistical Phrase-Based Post-Editing | {'venue': 'Human Language Technologies 2007: The Conference of the North American Chapter of the Association for Computational Linguistics; Proceedings of the Main Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,711 |
Vi presenterar en ny minimalt övervakad ram för att utföra domändriven Word Sense Disambiguation (WSD). Ordlistor för flera domäner är iterativt förvärvade från webben med hjälp av en bootstrappa teknik. De förvärvade glanserna används sedan som sense inventarium för helt oövervakad domän WSD. Våra experiment, på nya och guld-standard dataset, visar att vår breda täckning ram möjliggör högpresterande resultat på dussintals domäner på en grov och finkornig nivå. | REF föreslog en domändriven metod för ordförnimmelse (WSD) där de konstruerar ordlistor för flera domäner med hjälp av en mönsterbaserad bootstrappningsteknik. | 16,502,540 | A New Minimally-Supervised Framework for Domain Word Sense Disambiguation | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,712 |
Abstract-Ultra-wideband (UWB) överföring är en framväxande trådlös teknik för framtida kortdistans multimedieapplikationer inomhus och utomhus. För att samordna tillgången till det trådlösa mediet mellan de konkurrerande enheterna, IEEE 802.15. I detta dokument undersöker vi hur man konfigurerar ACK-mekanismens parametrar för att uppnå optimal genomströmningsprestanda. Vi formulerar först genomströmningsoptimering problem för en strid-fri kanal tid allokering under felkanal skick. Vi tillämpar sedan de tre ACK-mekanismerna i ämnesåtkomstperioden, för att optimera kanalgenomströmningen. Simuleringsresultat visar hur effektiv vår utredning är. Index Terms-bit-terror rate (Ber), felkanal, IEEE 802.15.3, medium access control (MAC), ultra-wideband (UWB). | På liknande sätt formulerade författarna i REF ett problem med genomströmningsoptimering under felkanalsförhållanden och härled en sluten formlösning för optimal genomströmning. | 17,027,768 | Optimal ACK mechanisms of the IEEE 802.15.3 MAC for ultra-wideband systems | {'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']} | 79,713 |
Webbarkiveringsinitiativ runt om i världen fångar upp efemeralt webbinnehåll för att bevara vårt kollektiva digitala minne. Att frigöra webbarkivens potential kräver dock verktyg som stöder prospektering och upptäckt av fångat innehåll. Dessa verktyg måste vara skalbara och lyhörda, och i detta syfte anser vi att modern "stordata"-infrastruktur kan ge en solid grund. Vi presenterar Warcbase, en öppen källkodsplattform för hantering av webbarkiv som bygger på det distribuerade datalager HBAse. Vårt system tillhandahåller en flexibel datamodell för lagring och hantering av råmaterial samt metadata och extraherad kunskap. Tät integration med Hadoop ger kraftfulla verktyg för analys och databehandling. Genom att förlita sig på HBase för lagringsinfrastruktur förenklas utvecklingen av skalbara och responsiva applikationer. Vi beskriver en tjänst som tillhandahåller tidsbläddring och en interaktiv visualisering baserad på ämnesmodeller som gör det möjligt för användare att utforska arkiverat innehåll. | Lin m.fl. REF föreslog Warcbase, en infrastruktur för prospektering och upptäckt av webbarkiv som bygger på HBase. | 6,492,271 | Infrastructure for supporting exploration and discovery in web archives | {'venue': "WWW '14 Companion", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,714 |
Abstrakt. Drivs av djupa neurala nätverk och storskaliga dataset, scentext detektionsmetoder har utvecklats avsevärt under de senaste åren, ständigt uppfriskande prestanda register på olika standard riktmärken. Men begränsad av representationerna (axeljusterade rektanglar, roterade rektanglar eller fyrhörningar) som används för att beskriva text, kan befintliga metoder bli korta när det gäller mycket mer friform text instanser, såsom böjd text, som faktiskt är mycket vanliga i verkliga scenarier. För att ta itu med detta problem föreslår vi en mer flexibel representation för scentext, kallad TextSnake, som på ett effektivt sätt kan representera textinstanser i horisontella, orienterade och böjda former. I TextSnake beskrivs en textinstans som en sekvens av beställda, överlappande diskar centrerade vid symmetriska axlar, av vilka var och en är associerad med potentiellt variabel radie och orientering. Sådana geometriska attribut uppskattas via en modell för Fully Convolutional Network (FCN). I experiment uppnår textdetektorn baserad på TextSnake toppmoderna eller jämförbara prestanda på Total-Text och SCUT-CTW1500, de två nypublicerade riktmärkena med särskild tonvikt på böjd text i naturliga bilder samt de allmänt använda datauppsättningarna IC-DAR 2015 och MSRA-TD500. TextSnake överträffar basvärdet för totaltext med mer än 40 % i F-åtgärd. | I TextSnake REF beskrivs en textinstans som en sekvens av beställda, överlappande diskar centrerade på symmetriska axlar i textregioner. | 49,570,059 | TextSnake: A Flexible Representation for Detecting Text of Arbitrary Shapes | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 79,715 |
Abstrakt. I detta dokument presenterar vi ett tillvägagångssätt för att modellera en befintlig webbapplikation med hjälp av att kommunicera finita automatiserade modeller baserade på de användardefinierade egenskaper som ska valideras. Vi utvecklar en metod för automatisk generering av en sådan modell från en inspelad surfning session. Den erhållna modellen kan sedan användas för att verifiera egenskaper med en modellkontroll, samt för regressionstestning och dokumentation. Till skillnad från tidigare försök är vårt tillvägagångssätt inriktat på komplexa multifönster/frame-applikationer. Vi presenterar en implementering av det tillvägagångssätt som använder modellen checker Spin och ge ett exempel. | I REF presenterar författarna ett formellt tillvägagångssätt för att modellera webbapplikationer med hjälp av kommunikationsautomata. | 18,798,028 | Formal Verification of Web Applications Modeled by Communicating Automata | {'venue': 'FORTE', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,716 |
ABSTRACT använder olika representationer. Till exempel, överväga flera sensornätverk som mäter samma typ av fysiska fenomen. Varje sensorutplacering kan ha sitt eget sätt att representera semantiskt identisk information, t.ex. "vindhastighet" jämfört med "genomsnittlig vindhastighet", eller "temperatur" jämfört med "termometer". Om en användare vill få de senaste värdena för vindhastighet eller temperaturdata över den region där alla sensornätverk är utplacerade, måste användaren använda en mekanism för att låta systemet förstå semantiskt likvärdiga men olika representationer av data, för att helt svara på frågan. En av lösningarna för att hantera heterogenitet är genom den semantiska annoteringen av sensordata (Sheth, Henson, & Sahoo, 2008), och tillhandahållandet av ontologi-baserad tillgång till det (Calbimonte, Corcho, & Gray, 2010; Taylor & Leidinger, 2011). Det saknas dock bevis för hur detta tillvägagångssätt skalas, särskilt med höga datahastigheter, och i push-baserad leverans av strömmande data. I den här artikeln fokuserar vi på två problem i detta sammanhang: (i) hur man hittar relevanta heterogena sensordatakällor baserade på deras metadata, och (ii) hur man frågar strömmande sensordata från dessa källor. Vi sammanfattar våra bidrag enligt följande: • Vårt huvudsakliga bidrag till det första problemet är användningen av SSN ontology (Compton et al., i press), tillsammans med domänspecifika ordförråd, för modellering av sensormetadata och observationer, förstärkt med kartläggningar till de ursprungliga sensorscheman. I detta syfte använder vi R2RML (Das, Sundara, & Cyganiak, 2012) (RDB-till-RDF-karteringsspråk) för att kartlägga relationsströmmar -istället för tabeller-till ontologier. Således använder vi ontologier som en gemensam modell för att representera sensordata och metadata, för att göra det möjligt att söka efter datakällor och få tillgång till dem genom ontologiska scheman. • För det andra problemet, föreslår vi en frågeskrivning och dataöversättning metod som gör det möjligt att fråga virtuella RDF-strömmar med SPARQL språk med streaming tillägg. Detta tillvägagångssätt utnyttjar R2RML-kartläggningarna för att ge tillgång till sensorns streamingdata, inte bara metadata. Dessutom visar vi att våra frågeskrivande och exekveringsmekanismer är tillämpliga för både pull och push leveranslägen, och även för olika state-of-theart stream processing motorer, såsom SNEE (Galpin, Brenninkmeijer, Jabeen,. Vi tillhandahåller empiriska belägg för prestanda med avseende på provtagningsfrekvens och leveranslatens i både pull- och push-baserade lägen. Som ett belysande exempel visar vi hur GSN-genomförandet av detta tillvägagångssätt användes i ett federerat sensornätverk i SwissExperiment (http://www.swiss-experiment.ch), en samarbetsplattform för att dela realtidssensordata mellan olika institutioner för att förbättra prognoser och varningar om miljörisker. Tidningen är organiserad enligt följande: först introducerar vi de grundläggande begreppen ontologi-baserad tillgång till strömmar. Därefter diskuterar vi modellering av sensordata, metadata och kartläggningar. Vi tillhandahåller också den teoretiska grunden för frågeöversättning och hur den kan implementeras. En experimentell utvärdering presenteras också, före våra slutsatser. Vår strategi bygger på de grundläggande begrepp som beskrivs nedan: streaming data questing, och semantic data access med hjälp av ontology-baserade frågor och kartläggningar. En dataström består av en obunden sekvens av värden som kontinuerligt bifogas, där var och en bär en tidsstämpel som normalt indikerar när den har producerats. | Corcho m.fl. I REF föreslås ett ontologibaserat tillvägagångssätt för att tillhandahålla dataåtkomst och sökmöjligheter till strömmande datakällor. | 3,903,915 | Enabling Query Technologies for the Semantic Sensor Web | {'venue': 'Int. J. Semantic Web Inf. Syst.', 'journal': 'Int. J. Semantic Web Inf. Syst.', 'mag_field_of_study': ['Computer Science']} | 79,717 |
Abstract-Skalbarheten av moderna datacenter har blivit en praktisk oro och har tilldragit sig betydande uppmärksamhet under de senaste åren. I motsats till befintliga lösningar som kräver ändringar i nätverksarkitekturen och routing protokollen, detta dokument föreslår att använda trafik-aware virtuell maskin (VM) placering för att förbättra nätverket skalbarhet. Genom att optimera placeringen av virtuella maskiner på värdmaskiner kan trafikmönster bland virtuella maskiner anpassas bättre till kommunikationsavståndet mellan dem, t.ex. VM med stor användning av ömsesidig bandbredd tilldelas värdmaskiner i närheten. Vi formulerar VM-placeringen som ett optimeringsproblem och bevisar dess hårdhet. Vi designar en tvådelad ungefärlig algoritm som effektivt löser problemet med VM-placering för mycket stora problemstorlekar. Med tanke på den betydande skillnaden i trafikmönstren i nuvarande datacenter och de strukturella skillnaderna i de nyligen föreslagna datacenterarkitekturerna, genomför vi ytterligare en jämförande analys av trafikmönstrens och nätverksarkitekturernas inverkan på den potentiella prestandavinsten av trafikmedveten VM-placering. Vi använder trafikspår som samlats in från produktionsdatacenter för att utvärdera vår föreslagna algoritm för placering av virtuella maskiner, och vi visar en betydande prestandaförbättring jämfört med befintliga generiska metoder som inte drar nytta av trafikmönster och datacenternätverksegenskaper. Moderna virtualiseringsbaserade datacenter håller på att bli värdplattformen för ett brett spektrum av kompositapplikationer. Med en ökande trend mot mer kommunikationsintensiva applikationer i datacenter, ökar bandbredden mellan virtuella maskiner (VM) snabbt. Detta väcker ett antal farhågor när det gäller skalbarheten hos den underliggande nätverksarkitekturen, en fråga som har väckt stor uppmärksamhet nyligen. Tekniker i dessa förslag inkluderar rik anslutning i utkanten av nätverket och dynamiska routing protokoll för att balansera trafikbelastning. I detta dokument tar vi itu med skalbarhetsfrågan ur ett annat perspektiv, genom att optimera placeringen av virtuella maskiner på värdmaskiner. Normalt är VM placering bestäms av olika kapacitetsplaneringsverktyg såsom VMware Capacity Planner [8], IBM WebSphere CloudBurst [9], Novell PlateSpin Recon [10] och Lanamark Suite [11]. Dessa verktyg försöker konsolidera virtuella maskiner för CPU, fysiskt minne och energiförbrukning besparingar, men utan att överväga förbrukning av nätverksresurser. Som ett resultat kan detta leda till situationer där VM parar sig med tung trafik bland dem placeras på värdmaskiner med stora nätverkskostnader mellan dem. För att förstå hur ofta detta händer i praktiken har vi genomfört en mätningsstudie i operationella datacenter och observerat tre uppenbara trender: | I REF behandlade författarna frågan om nätskalbarhet genom att använda traffic-aware virtual machine (VM) placering. | 5,969,778 | Improving the Scalability of Data Center Networks with Traffic-aware Virtual Machine Placement | {'venue': '2010 Proceedings IEEE INFOCOM', 'journal': '2010 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Computer Science']} | 79,718 |
Kognitiva radiometoder har potential att dramatiskt öka genomströmningen av trådlösa system. Häri utforskas kontrollstrategier som möjliggör superposition i tid och frekvens för primära och sekundära användartransmissioner i motsats till mer traditionella avkänningsmetoder som endast gör det möjligt för den sekundära användaren att överföra när den primära användaren är inaktiv. I detta arbete undersöks den optimala sändningspolicyn för den sekundära användaren när den primära användaren antar ett retransmissionsbaserat felkontrollsystem. Sekundäranvändarens policy avgör alltså hur ofta den överförs enligt återsändningstillståndet för det paket som den primära användaren betjänar. Den optimala strategin för sekundäranvändaren har visat sig ha en unik struktur. I synnerhet uppnås den optimala genomströmningen genom att sekundäranvändaren koncentrerar sin interferens till primäranvändaren i de första sändningarna av ett paket. | Levorato et al., REF föreslår att den optimala genomströmningen uppnås av sekundära nodanvändare i trådlösa nätverk när den primära nodanvändaren antar ett retransmissionsbaserat felkontrollsystem. | 14,712,331 | Cognitive interference management in retransmission-based wireless networks | {'venue': '2009 47th Annual Allerton Conference on Communication, Control, and Computing (Allerton)', 'journal': '2009 47th Annual Allerton Conference on Communication, Control, and Computing (Allerton)', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 79,719 |
Abstract-Android användare ständigt hotas av ett ökande antal skadliga program (appar), generiskt kallas malware. Malware utgör ett allvarligt hot mot användarens integritet, pengar, enhet och filintegritet. I den här artikeln kan vi notera att vi genom att studera deras handlingar kan klassificera skadlig kod i ett litet antal beteendeklasser, som var och en utför en begränsad uppsättning missuppfostraner som kännetecknar dem. Dessa missuppfostran kan definieras av övervakning funktioner som tillhör olika Android-nivåer. I detta papper presenterar vi MADAM, en ny värd-baserad malware detektionssystem för Android-enheter som samtidigt analyserar och korrelerar funktioner på fyra nivåer: kärna, program, användare och paket, för att upptäcka och stoppa skadliga beteenden. MADAM har utformats särskilt för att ta hänsyn till de beteenden som är egenskaper hos nästan varje riktig malware som kan hittas i det vilda. MADAM upptäcker och blockerar effektivt mer än 96 procent av skadliga appar, som kommer från tre stora datauppsättningar med cirka 2.800 appar, genom att utnyttja samarbetet mellan två parallella klassificeringar och en beteendesignaturbaserad detektor. Omfattande experiment, som också inkluderar analys av en testbädd av 9.904 äkta appar, har genomförts för att visa den låga falska larmhastigheten, den försumbara prestanda overhead och begränsad batteriförbrukning. | Madam REF föreslog ett värdbaserat malware detektionssystem som analyserade funktioner på fyra nivåer: kärna, program, användare och paket. | 20,955,630 | MADAM: Effective and Efficient Behavior-based Android Malware Detection and Prevention | {'venue': 'IEEE Transactions on Dependable and Secure Computing', 'journal': 'IEEE Transactions on Dependable and Secure Computing', 'mag_field_of_study': ['Computer Science']} | 79,720 |
Abstract-convolutional nätverk är kraftfulla visuella modeller som ger hierarkier av funktioner. Vi visar att convolutional nätverk av sig själva, utbildade end-to-end, pixlar-till-pixel, förbättra på det tidigare bästa resultatet i semantiska segmentering. Vår nyckelinsikt är att bygga "fullständigt konvolutionella" nätverk som tar input av godtycklig storlek och producerar motsvarande storlek utdata med effektiv slutledning och lärande. Vi definierar och specificerar utrymmet för helt konvolutionella nätverk, förklarar deras tillämpning på rumsligt täta förutsägelser uppgifter, och ritar anslutningar till tidigare modeller. Vi anpassar dagens klassificeringsnätverk (AlexNet, VGG-nätet och GoogLeNet) till helt konvolutionella nätverk och överför deras inlärda representationer genom finjustering till segmenteringsuppgiften. Vi definierar sedan en skippa arkitektur som kombinerar semantisk information från ett djupt, grovt lager med utseende information från ett grunt, fint lager för att producera exakta och detaljerade segmenteringar. Våra helt konvolutionella nätverk uppnår förbättrad segmentering av PASCAL VOC (30 % relativ förbättring till 67,2 % genomsnittlig IE 2012), NYUDv2, SIFT Flow och PASCAL-Context, medan slutsatsen tar en tiondels sekund för en typisk bild. | REF anpassade klassificeringsnätverken (Alexnet, GoogLeNet och VGG-nät) till helt konvolutionella neurala nätverk (FCN) för att utföra end-to-end, pixlar-till-pixels semantiska segmentering. | 1,629,541 | Fully Convolutional Networks for Semantic Segmentation | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 79,721 |
Vi studerar algoritmer för SUBMODULAR MUL-TIWAY PARTITION problem (SUB-MP). Ett exempel på SUB-MP består av en ändlig mark uppsättning V, en delmängd S = {s1, s2,. .., s k } på V k element kallas terminaler, och en icke-negativ submodulär uppsättning funktion f : 2 V → R+ på V tillhandahålls som ett värde oracle. Målet är att partitionen V i k uppsättningar A1,. .., A k för att minimera k i=1 f (Ai) sådan att för 1 ≤ i ≤ k, si till Ai. SUB-MP generaliserar några välkända problem som MULTIWAY CUT problem i grafer och hypergrafer, och NODE-WEGHED MULTIWAY CUT problem i grafer. SUB-MP för godtyckliga submodulära funktioner (i stället för symmetriska funktioner) övervägdes av Zhao, Nagamochi och Ibaraki [29]. Tidigare algoritmer baserades på girig uppdelning och uppdelning och erövra strategier. I det senaste arbetet [5] föreslog vi en konvex-programmering avkoppling för SUB-MP baserat på Lovász-utvidgningen av en submodulär funktion och visade dess tillämplighet i vissa specialfall. I detta dokument får vi följande resultat för godtyckliga submodulära funktioner via denna avkoppling. • En 2- approximation för SUB-MP. Detta förbättrar (k − 1) approximationen från [29]. • A (1,5‐ 1 k ) - approximation för SUB-MP när f är symmetrisk. Detta förbättrar 2( 1 − 1 k) - approximationen från [23], [29]. | Dessa problem övervägdes av Zhao, Nagamochi och Ibaraki [31] som analyserade giriga fragmenterande algoritmer, och mer nyligen av Chekuri och Ene REF som använde en Lovász-extension baserad konvex avkoppling. | 7,777,016 | Approximation Algorithms for Submodular Multiway Partition | {'venue': '2011 IEEE 52nd Annual Symposium on Foundations of Computer Science', 'journal': '2011 IEEE 52nd Annual Symposium on Foundations of Computer Science', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 79,722 |
Vi formulerar och studerar ett decentraliserat multi-armad bandit (MAB) problem. Det finns M distribuerade spelare som tävlar om N oberoende armar. Varje arm, när den spelas, erbjuder i.i.d. belöning enligt en fördelning med en okänd parameter. Varje gång väljer varje spelare en arm att spela utan att utbyta observationer eller information med andra spelare. Spelare som väljer samma arm kolliderar, och beroende på kollisionsmodellen, antingen får ingen belöning eller de kolliderande spelarna dela belöningen på ett godtyckligt sätt. Vi visar att det minsta systemet som beklagar den decentraliserade MAB växer med tiden i samma logaritmiska ordning som i den centraliserade motsvarigheten där spelarna agerar kollektivt som en enda enhet genom att utbyta observationer och fatta beslut gemensamt. En decentraliserad politik utformas för att uppnå denna optimala ordning samtidigt som man garanterar rättvisa mellan aktörerna och utan att anta några förhandsöverenskommelser eller informationsutbyte mellan aktörerna. Baserat på en Time Division Fair Sharing (TDFS) av M bästa vapen, är den föreslagna politiken konstruerad och dess ordning optimalitet bevisas under en allmän belöning modell. Dessutom kan den grundläggande strukturen för TDFS-politiken användas i all ordningsoptimal politik för en enda aktör för att uppnå ordningsoptimalitet i den decentraliserade miljön. Vi fastställer också en lägre gräns för systemet och beklagar tillväxten för en allmän klass av decentraliserade poliser, som den föreslagna politiken tillhör. Detta problem finner potentiella tillämpningar i kognitiva radionät, flerkanaliga kommunikationssystem, multiagentsystem, webbsökning och reklam samt sociala nätverk. Decentraliserad multi-armad bandit, system ångra, distribuerat lärande, kognitiv radio, webbsökning och reklam, multi-agent system. | Time Divisions Fair Sharing (TDFS) algoritm i REF kräver att spelarna kommer överens om en tidsdelning av slots före spelet. | 16,067,339 | Distributed Learning in Multi-Armed Bandit with Multiple Players | {'venue': None, 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 79,723 |
Den blinda tillämpningen av maskininlärning löper risken att förstärka fördomar som finns i data. En sådan fara står inför oss med ordet inbäddning, en populär ram för att representera textdata som vektorer som har använts i många maskininlärning och naturliga språkbehandlingsuppgifter. Vi visar att även ordinslag utbildade på Google News artiklar uppvisar kvinnliga/manliga könsstereotyper i en oroande utsträckning. Detta väcker oro eftersom deras utbredda användning, som vi beskriver, ofta tenderar att förstärka dessa fördomar. Geometriskt visar sig könsfördomar först fångas av en riktning i ordet inbäddning. För det andra visas könsneutrala ord vara linjärt åtskilda från könsdefinitionsord i ordet inbäddning. Med hjälp av dessa egenskaper tillhandahåller vi en metod för att modifiera en inbäddning för att ta bort könsstereotyper, såsom sambandet mellan orden receptionist och kvinna, samtidigt som man upprätthåller önskade associationer som mellan orden drottning och kvinna. Vi definierar mätvärden för att kvantifiera både direkta och indirekta könsfördomar i inbäddningar och utvecklar algoritmer för att "debiera" inbäddningen. Med hjälp av crowd-worker utvärdering samt standardriktmärken, visar vi empiriskt att våra algoritmer avsevärt minskar könsfördomar i inbäddningar samtidigt som de bevarar dess användbara egenskaper såsom förmågan att kluster relaterade begrepp och att lösa analoga uppgifter. De resulterande inbäddningarna kan användas i tillämpningar utan att förstärka könsfördomar. | Försåtliga ord inbäddade: Bolukbasi et al. REF utformar en metod för att ta bort könsfördomar från ordinslag. | 1,704,893 | Man is to Computer Programmer as Woman is to Homemaker? Debiasing Word Embeddings | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 79,724 |
Semantisk bildinmålning är en utmanande uppgift där stora saknade regioner måste fyllas utifrån tillgängliga visuella data. Befintliga metoder som endast tar fram information ur en enda bild ger i allmänhet otillfredsställande resultat på grund av bristen på sammanhang på hög nivå. I detta dokument föreslår vi en ny metod för semantisk bildinmålning, som genererar det saknade innehållet genom konditionering av tillgängliga data. Med tanke på en utbildad generativ modell söker vi efter den närmaste kodningen av den skadade bilden i det latenta bildgrenröret med hjälp av vårt sammanhang och tidigare förluster. Denna kodning skickas sedan genom den generativa modellen för att härleda det saknade innehållet. I vår metod är det möjligt att dra slutsatser oavsett hur det saknade innehållet är strukturerat, medan den senaste inlärningsbaserade metoden kräver specifik information om hålen i träningsfasen. Experiment på tre datauppsättningar visar att vår metod framgångsrikt förutspår information i stora saknade regioner och uppnår pixel-nivå fotorealism, avsevärt överträffar de state-of-the-art metoder. | I REF föreslås en metod för semantisk bildinmålning, som genererar det saknade innehållet genom konditionering av tillgängliga data med hjälp av en utbildad generativ modell. | 24,005,817 | Semantic Image Inpainting with Deep Generative Models | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 79,725 |
I detta dokument presenteras ett nytt tillvägagångssätt för att mäta semantisk likhet/avstånd mellan ord och begrepp. Den kombinerar en lexisk taxonomistruktur med corpus statistisk information så att det semantiska avståndet mellan noderna i det semantiska utrymme som konstruerats av taxonomin bättre kan kvantifieras med det beräkningsunderlag som härleds från en fördelningsanalys av corpusdata. I synnerhet är den föreslagna åtgärden ett kombinerat tillvägagångssätt som ärver det kantbaserade tillvägagångssättet i eggräkningssystemet, som sedan förstärks av den nodebaserade metoden för beräkning av informationsinnehåll. Den föreslagna metoden överträffar andra beräkningsmodeller när den testas på en gemensam datauppsättning av word pair-likvärdighetsbetyg. Det ger det högsta korrelationsvärdet (r = 0,828) med ett riktmärke baserat på bedömningar av mänsklig likhet, medan en övre gräns (r = 0,885) observeras när människor replikerar samma uppgift. | Jiang och Conraths likhetsmätning är ett kombinerat tillvägagångssätt som ärvde den kantbaserade metoden i kanträkningssystemet, som sedan förstärktes genom den nodebaserade metoden för beräkning av informationsinnehåll REF. | 1,359,050 | Semantic Similarity Based on Corpus Statistics and Lexical Taxonomy | {'venue': 'In the Proceedings of ROCLING X, Taiwan, 1997', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,726 |
Cloud Computing är en ny teknik som lovar nya affärsmöjligheter och enkel distribution av webbtjänster. Mycket har skrivits om riskerna och fördelarna med datormoln under de senaste åren. Litteraturen om moln pekar ofta på säkerhets- och integritetsutmaningar som de främsta hindren, och föreslår lösningar och riktlinjer för att undvika dem. Men de flesta av dessa verk handlar med antingen skadliga molnleverantörer eller kunder, men ignorera de allvarliga hot som orsakas av omedvetna användare. I detta dokument överväger vi säkerhet och integritet aspekter av verkliga moln distributioner, oberoende av skadliga molnleverantörer eller kunder. Vi fokuserar på den populära Amazon Elastic Compute Cloud (EC2) och ger en detaljerad och systematisk analys av olika viktiga sårbarheter i allmänt tillgängliga och allmänt använda Amazon Machine Images (AMI) och visar hur man eliminerar dem. Vår Amazon Image Attacks (AmazonIA) distribuerar ett automatiserat verktyg som använder endast offentligt tillgängliga gränssnitt och gör inga antaganden om den underliggande molninfrastrukturen. Vi kunde extrahera mycket känslig information (inklusive lösenord, nycklar och referenser) från en mängd allmänt tillgängliga AMI. Den extraherade informationen gör det möjligt att (i) starta (botnet) instanser värda tusentals dollar per dag, (ii) ge bakdörrar till de löpande maskinerna, (iii) starta imitation attacker, eller (iv) få tillgång till källkoden för hela webbtjänsten. Våra attacker kan användas för att helt och hållet äventyra flera verkliga webbtjänster som erbjuds av företag (inklusive IT-säkerhetsföretag), t.ex. för webbplatsstatistik/användarspårning, tvåfaktorsautentisering eller prisjämförelse. Dessutom visar vi mekanismer för att identifiera AMI för vissa löpande instanser. Efter maxim "säkerhet och integritet genom design" visar vi hur våra automatiserade verktyg tillsammans med ändringar i användargränssnittet kan användas för att mildra våra attacker. | Upphovsmän i REF tar upp säkerhets- och sekretessaspekterna av verkliga molndistributioner, samtidigt som de ignorerar skadliga molnleverantörer eller kunder. | 14,314,187 | AmazonIA: when elasticity snaps back | {'venue': "CCS '11", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,727 |
Villkorliga begränsade Boltzmann maskiner (CRBM) är rika probabilistiska modeller som nyligen har tillämpats på ett brett spektrum av problem, inklusive samarbetsfiltrering, klassificering och modellering rörelse fånga data. Även om stora framsteg har gjorts när det gäller att utbilda icke-villkorade ringpärmsmekanismer, är dessa algoritmer inte tillämpliga på villkorliga modeller och det har nästan inte gjorts något arbete med utbildning och generera förutsägelser från villkorade ringpärmsmekanismer för strukturerade utdataproblem. Vi hävdar först att standard Contrastive Diversity-baserat lärande kanske inte lämpar sig för utbildning av CRBM. Vi identifierar sedan två olika typer av strukturerade utdata förutsägelseproblem och föreslår en förbättrad inlärningsalgoritm för varje. Den första problemtypen är en där utdatautrymmet har godtycklig struktur men uppsättningen troliga utdatakonfigurationer är relativt liten, t.ex. i flermärkt klassificering. Det andra problemet är ett där utdatautrymmet är godtyckligt strukturerat men där utdatautrymmets variabilitet är mycket större, t.ex. i denoiserande bild eller pixelmärkning. Vi visar att de nya inlärningsalgoritmerna kan fungera mycket bättre än kontrasterande divergens på båda typerna av problem. | Villkorligt begränsade Boltzmann maskiner (CRBMs) REF utökar begränsade Boltzmann maskiner (RBM) från generativa till diskriminerande inställningar. | 6,153,957 | Conditional Restricted Boltzmann Machines for Structured Output Prediction | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 79,728 |
I detta dokument föreslår vi en ny universell maskinöversättningsstrategi som fokuserar på språk med en begränsad mängd parallella data. Vårt föreslagna tillvägagångssätt använder en transfer-learning metod för att dela lexiska och meningsnivå representationer över flera källspråk till ett målspråk. Den lexiska delen delas genom en universell Lexical Representation för att stödja flerspråkig ordnivådelning. Straffnivådelningen representeras av en modell av experter från alla källspråk som delar källkodare med alla andra språk. Detta gör det möjligt för språket med låga resurser att använda de lexiska och meningsrepresentationerna av de högre resursspråken. Vår strategi är att uppnå 23 BLEU på rumänskaengelska WMT2016 med hjälp av en liten parallell corpus av 6k meningar, jämfört med 18 BLEU av starka baslinjesystem som använder flerspråkig utbildning och back-translation. Dessutom visar vi att det föreslagna tillvägagångssättet kan uppnå nästan 20 BLEU på samma datauppsättning genom att finjustera ett förskolat flerspråkigt system i en nollställning. | För extremt små resursspråk föreslog REF att representationer på lexik- och meningsnivå skulle delas mellan flera källspråk med ett enda målspråk. | 3,295,641 | Universal Neural Machine Translation for Extremely Low Resource Languages | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 79,729 |
Blandad betong och symbolisk körning är en viktig teknik för att hitta och förstå mjukvarubuggar, inklusive säkerhetsrelevanta sådana. Befintliga symboliska utförandetekniker är dock begränsade till att undersöka en genomförandeväg i taget, där symboliska variabler endast återspeglar direkta databeroenden. Vi introducerar loop-extended symbolisk avrättning, en generalisering som breddar täckningen av symboliska resultat i program med loopar. Det introducerar symboliska variabler för antalet gånger varje loop körs, och länkar dessa med funktioner i en känd ingång grammatik såsom variabel längd eller upprepa fält. Detta möjliggör symboliska begränsningar för att täcka en klass av banor som inkluderar olika antal loop iterationer, uttrycker loop-beroende programvärden i termer av egenskaper hos inmatningen. Genom att utföra mer resonemang symboliskt, i stället för genom oriktad utforskning, tillämpningar av loop-extended symboliskt utförande kan uppnå bättre resultat och / eller kräver färre program exekveringar. För att demonstrera vår teknik, tillämpar vi den på problemet med att upptäcka och diagnostisera buffert-överflöde sårbarheter i programvara som endast ges i binär form. Vårt verktyg finner sårbarheter i både en standardriktmärkessvit och 3 verkliga applikationer, efter att ha genererat bara en handfull kandidatingångar, och även diagnostiserar allmänna sårbarhetsförhållanden. | LESE REF-metoden introducerar symboliska variabler för antalet gånger varje slinga utfördes. | 6,929,792 | Loop-extended symbolic execution on binary programs | {'venue': 'ISSTA', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,730 |
Abstract-Kombinationen av visuella och tröghetssensorer har visat sig vara mycket populär inom robotnavigering och i synnerhet, Micro Aerial Vehicle (MAV ) navigering på grund av flexibiliteten i vikt, strömförbrukning och låga kostnader det erbjuder. Samtidigt innebär hanteringen av den stora latensen mellan tröghet och visuella mätningar och bearbetning av bilder i realtid stora forskningsutmaningar. De flesta moderna MAV-navigeringssystem undviker att uttryckligen ta itu med detta genom att använda en markstation för bearbetning av T-board. I detta dokument föreslår vi en navigationsalgoritm för MAV s utrustad med en enda kamera och en tröghetsmätningsenhet (IMU) som kan köras ombord och i realtid. Huvudfokus här ligger på den föreslagna hastighetsberäkningsmodulen som omvandlar kameran till en metrisk kroppshastighetssensor med IMU-data inom ett EKF-ramverk. Vi visar hur denna modul kan användas för fullständig självkalibrering av sensorsviten i realtid. Modulen används sedan både under initiering och som en reservlösning vid spårningsfel på en nyckelframebaserad VSLAM-modul. Den senare är baserad på en befintlig högpresterande algoritm, utökad så att den uppnår skalbar 6DoF pose uppskattning vid konstant komplexitet. Snabb hastighetskontroll ombord säkerställs genom att man enbart förlitar sig på det optiska flödet av minst två funktioner i två på varandra följande kameraramar och motsvarande IMU-avläsningar. Vår ickelinjära observationsanalys och våra verkliga experiment visar att detta tillvägagångssätt kan användas för att styra en MAV i hastighet, medan vi också visar resultat av drift vid 40Hz på en ombord Atom dator 1,6 GHz. | Detta problem löses i REF genom att man beräknar skalan med data på en fordonsbaserad tröghetsmätningsenhet (IMU). | 1,238,175 | Real-time onboard visual-inertial state estimation and self-calibration of MAVs in unknown environments | {'venue': '2012 IEEE International Conference on Robotics and Automation', 'journal': '2012 IEEE International Conference on Robotics and Automation', 'mag_field_of_study': ['Computer Science', 'Engineering']} | 79,731 |
Abstract-Wireless innehåll caching i små cellnätverk (SCNs) har nyligen ansetts som ett effektivt sätt att minska datatrafiken och energiförbrukningen av backhaul i framväxande heterogena cellulära nätverk. I detta dokument överväger vi en klustercentrerad SCN med kombinerad design av kooperativ caching och överföringspolicy. Små basstationer (SBS) grupperas i separata kluster, där i-cluster cache utrymme används som en enhet. Vi föreslår ett kombinerat cachesystem, där en del av cacheutrymmet i varje kluster är reserverat för cachelagring av det mest populära innehållet i varje SBS, medan den återstående används för samarbetsmässig cachelagring av olika partitioner av det mindre populära innehållet i olika SBS, som ett sätt att öka den lokala innehållsmångfalden. Beroende på tillgängligheten och placeringen av det begärda innehållet används samordnad multipunktsteknik med antingen gemensam överföring eller parallell överföring för att leverera innehåll till den serverade användaren. Med hjälp av Poisson-punktprocessen för SBS-platsdistributionen och en hexagonal rutnätsmodell för klusteren ger vi analytiska resultat på den framgångsrika innehållsleveranssannolikheten för båda överföringssystemen för en användare som befinner sig i klustercentret. Vår analys visar en inneboende avvägning mellan överföringsmångfald och innehållsmångfald i vår samarbetsdesign. Vi studerar också det optimala cacheutrymmesuppdraget för två objektiva funktioner: maximering av cachetjänstens prestanda och energieffektivitet. Simuleringsresultat visar att det föreslagna systemet uppnår resultatvinster genom att utnyttja samarbetet på cache- och signalnivå och anpassa sig till nätverksmiljön och kraven på användarkvalitet. | I REF utvecklas ett kombinerat cachesystem, där en reserverad del av cacheutrymmet används för kooperativ cachelagring vid SBS. | 11,144,842 | Cooperative Caching and Transmission Design in Cluster-Centric Small Cell Networks | {'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 79,732 |
Varje dag måste en programvaruutvecklare svara på en mängd olika frågor som kräver integration av olika typer av projektinformation. För närvarande, besvara dessa frågor, såsom "Vad har mina medarbetare gjort?", är tröttsamt, och ibland omöjligt, eftersom det enda tillgängliga stödet kräver utvecklaren att manuellt länka och passera informationen steg-för-steg. Genom intervjuer med elva professionella utvecklare identifierade vi 78 frågor som utvecklarna vill ställa, men för vilka stöd saknas. Vi introducerar en informationsfragmentmodell (och prototypverktyg) som automatiserar sammansättningen av olika typer av information och som gör det möjligt för utvecklare att enkelt välja hur den sammansatta informationen ska visas. I en studie använde 18 professionella utvecklare prototypverktyget för att besvara åtta av de 78 frågorna. Alla utvecklare kunde enkelt använda prototypen för att framgångsrikt svara på 94% av frågorna i en genomsnittlig tid på 2,3 minuter per fråga. | Fritz m.fl. REF genomförde en studie för att specifikt identifiera de frågor som kräver flera typer av informationsföremål och som ofta är svåra eller omöjliga att besvara. | 7,920,273 | Using information fragments to answer the questions developers ask | {'venue': "ICSE '10", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,733 |
Vi bevisar att alla 3-anslutna 4-regelbundna planar grafer kan genereras från Octahedron Graph, med hjälp av tre operationer. Vi genererade dessa grafer upp till 15 hörn inklusive. Dessutom, genom att inkludera en fjärde operation vi få ett alternativ till en procedur av Lehel att generera alla anslutna 4-regelbundna plana grafer från Octahedron Graph. 0 1993 John Wiley & Sons, Inc. | al REF visade att alla 3-anslutna 4-regelbundna planara grafer också kan genereras från oktahedron, med endast tre operationer. | 4,581,593 | Generating all 3-connected 4-regular planar graphs from the Octahedron Graph | {'venue': 'Journal of Graph Theory', 'journal': 'Journal of Graph Theory', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 79,734 |
Abstract-The Internet of Things (IoT) är en del av Future Internet och kommer att omfatta många miljarder av Internet Connected Objects (ICO) eller "things" där saker kan känna, kommunicera, beräkna och potentiellt aktivera samt har intelligens, multimodala gränssnitt, fysiska / virtuella identiteter och attribut. Att samla in data från dessa objekt är en viktig uppgift eftersom det gör det möjligt för programvarusystem att förstå miljön bättre. Många olika hårdvaruenheter kan involvera i processen att samla in och ladda upp sensordata till molnet där komplex bearbetning kan ske. Dessutom kan vi inte förvänta oss att alla dessa objekt kopplas till datorerna av tekniska och ekonomiska skäl. Därför bör vi kunna använda resursbegränsade enheter för att samla in data från dessa ICOs. Å andra sidan är det viktigt att bearbeta insamlade sensordata innan de skickas till molnet för att säkerställa infrastrukturens hållbarhet på grund av energibegränsningar. Detta kräver att sensorns databehandlingsuppgifter flyttas mot resursbegränsade beräkningsenheter (t.ex. Mobiltelefoner). I detta dokument föreslår vi Mobile Sensor Data Processing Engine (MOSDEN), en plug-in-based IoT middleware för mobila enheter, som gör det möjligt att samla in och bearbeta sensordata utan programmering. Vår arkitektur stöder även sensation som servicemodell. Vi presenterar resultaten av utvärderingarna som visar att de är lämpliga för verkliga insatser i världen. Vår föreslagna middleware är byggd på Android-plattform. | I REF rapporterar författarna om Mobile Sensor Data Processing Engine (MOSDEN), en plugin-baserad IoT middleware för mobila enheter, som gör det möjligt att samla in och bearbeta sensordata utan programmering och integrera plugins så att MOSDEN kan kommunicera med sensor hårdvara. | 13,447,772 | MOSDEN: An Internet of Things Middleware for Resource Constrained Mobile Devices | {'venue': 'Proceedings of the 47th Hawaii International Conference on System Sciences (HICSS), Kona, Hawaii, USA, January, 2014', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,735 |
På senare tid har inlärningsbaserade hashingtekniker lockat till sig breda forskningsintressen eftersom de kan stödja effektiv lagring och hämtning för högdimensionella data som bilder, videor, dokument, etc. En stor svårighet när det gäller att lära sig hasch ligger dock i att hantera de diskreta begränsningar som åläggs de eftersträvade haschkoderna, vilket vanligtvis gör haschoptimering mycket utmanande (NPhard i allmänhet). I detta arbete föreslår vi en ny övervakad hashing ram, där inlärningsmålet är att generera optimala binära hash koder för linjär klassificering. Genom att införa en hjälpvariabel omformulerar vi målet så att det kan lösas betydligt effektivt genom att använda en legaliseringsalgoritm. Ett av de viktigaste stegen i denna algoritm är att lösa en legalisering sub-problem i samband med NP-hård binär optimering. Vi visar att underproblemet medger en analytisk lösning via cyklisk koordinat nedstigning. Som sådan kan en diskret lösning av hög kvalitet så småningom erhållas på ett effektivt datoriserat sätt, vilket gör det möjligt att hantera massiva datamängder. Vi utvärderar det föreslagna tillvägagångssättet, dubbade Supervised Discrete Hashing (SDH), på fyra stora bilddatauppsättningar och visar sin överlägsenhet mot de senaste hashmetoderna i storskalig bildsökning. | Supervised diskret hashing (SDH) REF, där inlärningsmålet är att generera optimal binär hash kod för linjär klassificering, direkt löst motsvarande diskret optimering utan några avkopplingar. | 11,307,479 | Supervised Discrete Hashing | {'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 79,736 |
Tidigare arbete med dialogakt (DA) klassificering har undersökt olika metoder, såsom dolda Markov modeller, maximal entropi, villkorliga slumpmässiga fält, grafiska modeller och stöd vektor maskiner. Några färska studier utforskas med hjälp av djupt lärande neurala nätverk för DA klassificering, är det dock inte klart ännu vad som är den bästa metoden för att använda dialog sammanhang eller DA sekventiell information, och hur mycket vinst det ger. I detta dokument föreslås flera sätt att använda kontextinformation för DA-klassificering, allt inom ramen för det djupgående lärandet. Baslinjesystemet klassificerar varje uttalande med hjälp av de konvolutionella neurala nätverken (CNN). Våra föreslagna metoder inkluderar att använda hierarkiska modeller (recurrent neural networks (RNN) eller CNN) för DA-sekvensmärkning där det nedre skiktet tar meningen CNN representation som ingång, concretenating förutsägelser från tidigare uttalanden med CNN vektor för klassificering, och utför sekvens avkodning baserat på förutsägelserna från meningen CNN modell. Vi utför noggranna experiment och jämförelser på Telefonkortus, visar att införandet av kontextinformation avsevärt förbättrar DA-klassificeringen och visar att vi uppnår nya toppmoderna prestationer för denna uppgift. | REF använde en com-bination av CNN (konvolution neural network) och RNN (recurrent neural network) för att automatiskt extrahera kontextinformation vid klassificering av dialogakter. | 7,212,585 | Using Context Information for Dialog Act Classification in DNN Framework | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,737 |
Moderna processoroptimeringar som t.ex. förutsägelse av filialer och exekvering utanför ordningen är avgörande för prestandan. Nyligen forskning om övergående avrättning attacker inklusive Spectre och Härdsmälta visade dock att undantag eller gren felprediction händelser kan lämna hemliga-beroende spår i CPU: s mikroarchitectural tillstånd. Denna observation ledde till en spridning av nya Spectre och Meltdown attackvarianter och ännu mer ad-hoc försvar (t.ex., mikrokod och program patchar). Tyvärr fokuserar både industrin och den akademiska världen nu på att hitta effektiva försvar som oftast bara tar upp en specifik variant eller exploateringsmetod. Detta är mycket problematiskt eftersom hjärtats tillstånd endast ger begränsad insikt om kvarvarande attackyta och fullständigheten av de föreslagna försvaren. I detta dokument presenterar vi en sund och extensibel systematisering av tillfälliga avrättningsattacker. Vår systematisering avslöjar 7 (nya) tillfälliga avrättningsattacker som har förbisetts och inte undersökts hittills. Detta inkluderar 2 nya Härdsmälta varianter: Härdsmälta-PK på Intel, och Härdsmälta-BR på Intel och AMD. Den innehåller också 5 nya Spectre felutbildningsstrategier. Vi utvärderar alla 7 attacker i proof-of-concept implementeringar på 3 stora processorleverantörer (Intel, AMD, ARM). Vår systematisering ger inte bara en fullständig bild av anfallsytan, utan möjliggör också en systematisk utvärdering av försvar. Genom denna systematiska utvärdering upptäcker vi att vi fortfarande kan montera tillfälliga avrättningsattacker som ska mildras av utrullningsbara fläckar. | Övergående avrättningsattacker utnyttjar instruktioner som utförs, men inte nödvändigtvis pensionerade och täcker därmed både attacker baserade på spekulativt utförande och exekvering utanför ordningen REF. | 53,290,977 | A Systematic Evaluation of Transient Execution Attacks and Defenses | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 79,738 |
Till skillnad från traditionella distribuerade system, där resurser / behov av beräkning och kommunikation dominerar prestandaekvationen, sensorbaserade system (SBS) höja nya mätvärden och krav för sensorer samt för beräkning och kommunikation. Detta inkluderar sensorisk latens och energiförbrukning. I det här dokumentet presenterar vi en prestandamodell för SBS baserad på en tredelad arkitektur som använder kantenheter för att ansluta storskaliga nätverk av sensorer till molnet. I denna arkitektur, som vi kallar Cloud, Edge och Beneath (CEB), sker inledande bearbetning av sensordata i och nära nätverk, för att uppnå systemsynlighet och energieffektivitet. För att optimera CEB-prestandan föreslår vi konceptet optimal push/pull-kuvert (PPE). Personlig skyddsutrustning justerar dynamiskt och minimalt basens tryck- och draghastigheter för varje sensor, beroende på de relativa egenskaperna hos sensorförfrågningar (efterfrågans sida från molnet) och sensordatabyte (försörjningssidan från Beneath). Vi demonstrerar CEB-arkitekturen och dess optimeringsalgoritm för push/pull-kuvert i en experimentell utvärdering som mäter energibesparingar och känslighetseffektivitet över ett brett spektrum av praktiska begränsningar. Dessutom visar vi från experimenten att vi genom att kombinera PPE-optimeringsalgoritm med lata samplingsalgoritm kan uppnå ytterligare energibesparing. | Xu och al. föreslå en tredelad arkitektur som kallas CEB (Cloud, Edge och Beneath), som liknar SC-iPaaS, och optimera dataöverföringshastigheter mellan lager REF. | 9,031,569 | Optimizing push/pull envelopes for energy-efficient cloud-sensor systems | {'venue': "MSWiM '11", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,739 |
: Multi operatörsalgoritmen använder dynamisk programmering för att hitta den optimala kombinationen av retargeting operatörer. Här visar vi en jämförelse av flera metoder. Den ursprungliga bilden (vänster) återmålas med hjälp av: enkel beskärning, enhetlig skalning, sömsnideri [Rubinstein et al. 2008], icke-uniform warpning [Wang et al. 2008] och vår multioperatoralgoritm. I det här exemplet kombinerar multioperatoralgoritmen beskärning, skalning och snideri för att optimera vårt nya bild-till-bild-mått, benämnt dubbelriktad warping (BDW). Algoritmen kan använda andra omriktande operatörer och liknande åtgärder. Innehåll medveten storleksändring vunnit popularitet nyligen och användare kan nu välja från ett batteri av metoder för att omrikta sina medier. Men ingen enda retargeting operatör presterar bra på alla bilder och alla målstorlekar. I en användarstudie som vi genomförde fann vi att användarna föredrar att kombinera sömsnidning med beskärning och skalning för att producera resultat som de är nöjda med. Detta inspirerar oss att föreslå en algoritm som kombinerar olika operatörer på ett optimalt sätt. Vi definierar en storleksändring av rymden som ett konceptuellt flerdimensionellt utrymme som kombinerar flera storleksändringsoperatörer, och visar hur en väg i detta utrymme definierar en sekvens av operationer för att återmåla media. Vi definierar ett nytt bildliknande mått, som vi kallar Bi-Directional Warping (BDW), och använder det med en dynamisk programmeringsalgoritm för att hitta en optimal väg i storleken utrymme. Dessutom visar vi ett enkelt och intuitivt användargränssnitt som gör det möjligt för användare att utforska storleken på olika bildstorlekar interaktivt. Med hjälp av nyckelramar och interpolering utökar vi också vår teknik för att remåla video, vilket ger flexibiliteten att använda den bästa kombinationen av operatörer vid olika tidpunkter i sekvensen. | Rubinstein m.fl. Ref kombinerade olika omriktande operatörer genom att hitta vägar i ett flerdimensionellt utrymme som dikterar sekvensen av omriktande operationer på inmatningsmedierna. | 18,009,907 | Multi-operator media retargeting | {'venue': 'SIGGRAPH 2009', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,740 |
Samstämmighetstekniker har studerats i stor utsträckning tidigare som ett sätt o f t a cling restrict tillfredsställelse problem (CSP). I synnerhet har olika arc-consistency algoritmer föreslagits, med ursprung från Waltz ltering algoritm 27] och kulminerar i den optimala algoritmen AC-4 av Mohr och Henderson 16]. AC-4 kör i O(ed 2 ) i n t h e w orst fall, där e är antalet bågar (eller begränsningar) och d är storleken på den största domänen. Eftersom dessa algoritmer är tillämpliga på hela klassen av (binär) CSP, tar dessa algoritmer inte i n för att ta hänsyn till t h e semantics av begränsningar. I detta dokument presenterar vi en ny generisk arc-consistency algoritm AC-5. Denna algoritm parametriseras på två specificerade procedurer och kan omedelbart reduceras till AC-3 och AC-4. Viktigare, AC-5 kan omedelbart producera en O(ed) algoritm för ett antal viktiga klasser av begränsningar: funktionella, anti-funktionella, monotona och deras generalisering till (funktionella, anti-funktionella, och monotona) bitvisa begränsningar. Vi visar också t h a t A C-5 har en viktig tillämpning i begränsning logik programmering över nite domäner 24]. Kärnan i begränsningen s o l v er för ett sådant programmeringsspråk är en arc-consistency algoritm för en uppsättning grundläggande begränsningar. Ett beslutsförfarande för dessa begränsningar pågår i tid O(ed). 1 Detta dokument är en utökad version av 3]. | Exempelvis uppnår den generiska AC-5-algoritmen REF bättre tidseffektivitet för funktionella, monotona och antifunktionella begränsningar. | 13,511,598 | A generic arc-consistency algorithm and its specializations | {'venue': 'Artificial Intelligence', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 79,741 |
Detta dokument beskriver InfoGAN, en informations-teoretisk förlängning till Generative Adversarial Network som kan lära sig disentrangerade representationer på ett helt oövervakat sätt. InfoGAN är ett generativt kontradiktoriskt nätverk som också maximerar den ömsesidiga informationen mellan en liten delmängd av de latenta variablerna och observationen. Vi får en lägre gräns för det ömsesidiga informationsmålet som kan optimeras effektivt. Specifikt, InfoGAN framgångsrikt löses skriva stilar från siffror former på MNIST dataset, posera från belysning av 3D renderade bilder, och bakgrundssiffror från den centrala siffran på SVHN datasetet. Den upptäcker också visuella begrepp som inkluderar frisyrer, närvaro / frånvaro av glasögon, och känslor på CelebA ansikte dataset. Experiment visar att InfoGAN lär sig tolkningsbara representationer som är konkurrenskraftiga med representationer som lärts av befintliga övervakade metoder. | Infogan REF lär sig att reda ut latenta representationer genom att maximera den ömsesidiga informationen mellan en liten delmängd av de latenta variablerna och observationen. | 5,002,792 | InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 79,742 |
Detta dokument beskriver två tekniker som förbättrar genomströmningen i ett ad hoc-nätverk i närvaro av noder som går med på att vidarebefordra paket men misslyckas med att göra det. För att lindra detta problem, föreslår vi kategorisering noder baserat på deras dynamiskt uppmätta beteende. Vi använder en watchdog som identifierar fel uppförande noder och en patl~rater som hjälper routing protokoll undvika dessa noder. Genom simulering utvärderar vi vakthund och patolog med hjälp av paketgenomströmning, procentandel av overhead (routing) överföringar, och noggrannheten av felhavande nod upptäckt. När de används tillsammans i ett nätverk med måttlig rörlighet, de två teknikerna ökar genomströmningen med 17% i närvaro av 40% fel uppförande noder, samtidigt som andelen overhead-överföringar från standard routing protokollet är 9% till 17%. Under extrem rörlighet, vakthund och patrater kan öka nätverksgenomströmningen med 27%, samtidigt öka overhead överföringarna från standard routing protokollet är 12% till 24%. | I REF, författare föreslår en watchdog metod för att identifiera fel uppförande noder och en väg rater teknik som hjälper routing protokoll för att undvika att välja dessa noder för att vidarebefordra alla paket. | 314,926 | Mitigating routing misbehavior in mobile ad hoc networks | {'venue': "MobiCom '00", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,743 |
Abstract-Processing den insamlade informationen effektivt är en nyckelfunktion för trådlösa sensornätverk. I detta dokument studerar vi tids komplexitet, meddelande komplexitet (antal meddelanden som används av alla noder), och energikostnad komplexitet (total energi som används av alla noder för att överföra meddelanden) av vissa uppgifter, såsom datainsamling (insamling av rådata från alla noder till en diskbänk), dataaggregation (som beräknar det aggregerade värdet av data för alla noder), och frågor om en multihop trådlös sensor nätverk av n noder. Vi presenterar först en lägre gräns på komplexiteten för de optimala metoderna, och sedan, för de flesta av de uppgifter som studeras i denna uppsats, vi ger en (asymptotiskt matchande) övre gräns på komplexiteten genom att presentera effektiva distribuerade algoritmer för att lösa dessa problem. | Referens Ref studerar tids komplexitet, meddelande komplexitet, och energikostnad komplexiteten i vissa datainsamling, dataaggregation, och frågor för en multihop trådlös sensor nätverk av noder. | 6,215,471 | Complexity of Data Collection, Aggregation, and Selection for Wireless Sensor Networks | {'venue': 'IEEE Transactions on Computers', 'journal': 'IEEE Transactions on Computers', 'mag_field_of_study': ['Computer Science']} | 79,744 |
Vi härleder nya gränser för ett begrepp av kontradiktorisk risk, som karakteriserar robustheten av binära klassificerare. Specifikt studerar vi fall av linjära klassificeringar och neurala nätverksklassificeringar, och introducerar transformationer med egenskapen att risken för de transformerade funktionerna är högre än den kontrariska risken för de ursprungliga funktionerna. Detta minskar problemet med att härleda kontradiktoriska riskbegränsningar till problemet med att härleda riskgränser med hjälp av vanliga inlärnings-teoretiska tekniker. Vi härleder sedan gränser på Rademacher komplex av de omvandlade funktionsklasserna, erhålla felfrekvenser i samma ordning som generalisering fel av de ursprungliga funktionsklasserna. Slutligen tillhandahåller vi två algoritmer för optimering av de kontradiktoriska riskgränserna i det linjära fallet, och diskuterar kopplingar till legalisering och distributionsstabilitet. | • För binära klassificeringsproblem, den kontrariska Rademacher komplexitet övre gräns i REF liknar vår. | 126,164,576 | Adversarial Risk Bounds for Binary Classification via Function Transformation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 79,745 |
Abstrakt. Körtidskontroll är en kraftfull teknik för att säkerställa att ett körsystem respekterar vissa önskade egenskaper. Med hjälp av en övervakare ändras en (otillförlitlig) inmatningsutförande (i form av en sekvens av händelser) till en utdatasekvens som överensstämmer med en egenskap. Verkställigheten av Runtime har studerats ingående under det senaste årtiondet i samband med otidsenliga egenskaper. Genom detta dokument införs kontroll av att tidsenliga egenskaper efterlevs. Vi ser över grunderna för regelefterlevnad när tiden mellan händelserna är inne. Vi visar hur runtime enforcers kan syntetiseras för alla säkerhet eller co-safety timed egendom. Föreslagna körtidsindrivare är tidsdämpande: för att producera en utdatasekvens införs ytterligare fördröjningar mellan händelserna i indatasekvensen för att korrigera den. Körtidsindrivare har prototyperats och våra simuleringsexperiment validerar deras effektivitet. | I tidigare arbete i REF introducerade vi problemet med runtime exekutionstitel för tidsinställda fastigheter. | 2,425,676 | Runtime Enforcement of Timed Properties | {'venue': 'RV', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,746 |
Många komponenter i ett beroende-typat programmeringsspråk är vid det här laget välförståeliga, till exempel den underliggande typteorin, typkontroll, enande och utvärdering. Hur man kombinerar dessa komponenter till ett realistiskt och användbart språk på hög nivå är dock folklore, upptäckt på nytt av på varandra följande språkimplementatörer. I detta dokument beskriver jag genomförandet av IDRIS, ett nytt beroendeutformat funktionellt programmeringsspråk. IRIS är avsett att vara ett allmänt programmeringsspråk och tillhandahåller därför koncept på hög nivå såsom implicit syntax, typklasser och notation. Jag beskriver språket på hög nivå och den underliggande typteorin, och presenterar en taktikbaserad metod för att utveckla konkret syntax på hög nivå med implicita argument och typklasser i en helt explicit typteori. Dessutom visar jag hur denna metod underlättar genomförandet av nya språkkonstruktioner på hög nivå. | Idris REF ] är ett beroendeframkallande språk med unika typer. | 19,895,964 | Idris, a general-purpose dependently typed programming language: Design and implementation | {'venue': 'J. Funct. Program.', 'journal': 'J. Funct. Program.', 'mag_field_of_study': ['Computer Science']} | 79,747 |
Lärande graf representationer via lågdimensionella inbäddningar som bevarar relevanta nätverksegenskaper är en viktig klass av problem i maskininlärning. Vi presenterar här en ny metod för att bädda in riktade acykliska grafer. Efter tidigare arbete förespråkar vi först att använda hyperboliska utrymmen som bevisligen modellerar trädliknande strukturer bättre än Euclideans geometri. För det andra ser vi hierarkiska relationer som partiella klasser som definieras med hjälp av en familj av bosatta geodetiskt koner. Vi bevisar att dessa koner medger en optimal form med en sluten form uttryck både i Euclidean och hyperbola utrymmen, och de kanoniskt definiera inbäddande inlärningsprocessen. Experiment visar på betydande förbättringar av vår metod jämfört med starka nya baslinjer både vad gäller representationsförmåga och generalisering. | Ganea m.fl. REF diskuterar problemet med att inbädda riktade acykliska grafer (DAG) med en familj av inbäddade geodetiskt koner. | 4,789,131 | Hyperbolic Entailment Cones for Learning Hierarchical Embeddings | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 79,748 |
Abstract-This paper undersöker två grundläggande problem i datorseende: konturdetektering och bildsegmentering. Vi presenterar toppmoderna algoritmer för båda dessa uppgifter. Vår konturdetektor kombinerar flera lokala signaler till en globaliseringsram baserad på spektralkluster. Vår segmenteringsalgoritm består av generiska maskiner för att omvandla utdata från alla konturdetektorer till ett hierarkiskt regionträd. På så sätt minskar vi problemet med bildsegmentering till problemet med konturdetektering. Omfattande experimentell utvärdering visar att både våra konturdetekterings- och segmenteringsmetoder avsevärt överträffar konkurrerande algoritmer. De automatiskt genererade hierarkiska segmenteringarna kan interaktivt förfinas genom användarspecificerade annoteringar. Beräkning vid flera bildupplösningar ger ett sätt att koppla vårt system till igenkänningsprogram. | Denna metod är inbyggd i toppmodern segmenteringsalgoritm REF. | 206,764,694 | Contour Detection and Hierarchical Image Segmentation | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 79,749 |
Abstract-Security management handlar om beräknad risk och kräver kontinuerlig utvärdering för att säkerställa kostnader, tid och resurseffektivitet. En del av detta är att göra framtidsinriktade, kostnads-nyttoinvesteringar i säkerhet. Säkerhetsinvesteringar måste följa sunda affärsprinciper där både säkerhetsaspekter och finansiella aspekter spelar en viktig roll. Information om den nuvarande och potentiella risknivån är av avgörande betydelse för en framgångsrik avvägning av säkerhetsaspekter och finansiella aspekter. Risknivån är kombinationen av frekvensen och effekterna av en potentiell oönskad händelse, som ofta kallas ett säkerhetshot eller missbruk. I dokumentet presenteras en modell för risknivåuppskattning som härleder risknivån som en villkorad sannolikhet över frekvens- och effektuppskattningar. Frekvens- och kollisionsestimaten härleds från en uppsättning attribut som specificeras i det gemensamma systemet för Sårbarhetsscoring (CVSS). Modellen fungerar på sårbarhetsnivå (precis som CVSS) och kan komponera sårbarheter till servicenivåer. Tjänstenivåerna definierar de potentiella risknivåerna och modelleras som en Markovprocess, som sedan används för att förutsäga risknivån vid en viss tidpunkt. | Ref diskuterade en modell för kvantitativ uppskattning av ett systems risknivå genom att kombinera frekvensen och effekterna av en eventuell oönskad händelse och modelleras som en Markovprocess. | 16,838,856 | Estimating ToE Risk Level Using CVSS | {'venue': '2009 International Conference on Availability, Reliability and Security', 'journal': '2009 International Conference on Availability, Reliability and Security', 'mag_field_of_study': ['Computer Science']} | 79,750 |
Till vänster är ett foto av huvudet på Michelangelos David. Till höger är en återges 3D-modell av en del av hans hår (motsvarande kvadraten på fotografiet). Stycket är 75 mm brett på statyn och avståndet mellan triangelns hörn är 1,0 mm. Även om denna yta genomsöktes dussintals gånger (från många olika vinklar), förhindrade ocklusioner tillgång till de djupaste sprickorna. Hålet som markeras i denna återgivning har en komplex form och flera gränskomponenter, dvs. öar som flyter i hålet. Den största gränskomponenten innehåller 905 kanter. (Hidna delar av denna gräns indikeras med brutna linjer.) Vi tar itu med problemet med att bygga vattentäta 3D-modeller från ytor som innehåller hål – till exempel uppsättningar av avståndsskanningar som observerar de flesta men inte alla av en yta. Vi tar specifikt upp situationer där hålen är för geometriskt och topologiskt komplexa för att fyllas med trianguleringsalgoritmer. Vår lösning börjar med att konstruera en signerad distansfunktion, vars nolluppsättning definierar ytan. Inledningsvis definieras denna funktion endast i närheten av observerade ytor. Vi tillämpar sedan en diffusion process för att förlänga denna funktion genom volymen tills dess noll inställda broar oavsett hål kan vara närvarande. Om ytterligare information finns tillgänglig, t.ex. kända områden i rymden som kan härledas från siktlinjerna till en 3D-scanner, kan den integreras i diffusionsprocessen. Vår algoritm är enkel att implementera, är garanterad att producera många olika icke-interpenetrerande ytor, och är effektiv att köra på stora datauppsättningar eftersom beräkningen är begränsad till områden nära hål. | REF tillämpar en volymetrisk diffusionsprocess för att förlänga en signerad avståndsfunktion genom denna volymetriska representation tills dess noll ställa broar oavsett hål kan vara närvarande. | 1,351,850 | Filling holes in complex surfaces using volumetric diffusion | {'venue': 'Proceedings. First International Symposium on 3D Data Processing Visualization and Transmission', 'journal': 'Proceedings. First International Symposium on 3D Data Processing Visualization and Transmission', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 79,751 |
Uppifrån-och-ned visuell uppmärksamhet mekanismer har använts i stor utsträckning i bildtextning och visuell frågesvar (VQA) för att möjliggöra djupare bildförståelse genom finkornig analys och även flera steg av resonemang. I detta arbete föreslår vi en kombinerad nedifrån-och-upp-övervakningsmekanism som gör det möjligt att beräkna uppmärksamheten på objektnivå och andra framträdande bildregioner. Detta är den naturliga grunden för att man skall kunna ta hänsyn till uppmärksamheten. Inom vår strategi föreslår bottom-up-mekanismen (baserad på Snabbare R-CNN) bildregioner, var och en med en tillhörande vektor, medan top-down-mekanismen bestämmer funktionsviktningar. Genom att tillämpa denna metod för bildtextning skapar våra resultat på MSCOCO:s testserver ett nytt toppmodernt resultat för uppgiften, vilket förbättrar det bäst publicerade resultatet när det gäller CIDER-poäng från 114.7 till 117.9 och BLEU-4 från 35,2 till 36,9. Påvisar den breda tillämpligheten av metoden, tillämpa samma strategi för VQA vi får första plats i 2017 VQA Challenge. | Lower-up och top-down uppmärksamhet REF använder också en liknande kodare struktur. | 3,753,452 | Bottom-Up and Top-Down Attention for Image Captioning and Visual Question Answering | {'venue': None, 'journal': 'arXiv: Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 79,752 |
Abstract-This paper presenterar en biometrisk användarautentisering baserad på en persons gång. Till skillnad från de flesta tidigare gång igenkänning tillvägagångssätt, som är baserade på maskinseende tekniker, i vår metod gångmönster extraheras från en fysisk anordning fäst vid underbenet. Från utgången av anordningen accelerationer i tre riktningar: vertikal, framåt-bakåt, och sidled rörelse av underbenet erhålls. En kombination av dessa accelerationer används för autentisering. Genom att tillämpa två olika metoder, histogramlikhet och cykellängd, uppnåddes lika felfrekvenser (EER) på 5 % respektive 9 %. | Gafurov m.fl. REF utför autentisering baserat på en användares gång, som kännetecknas av registrerade accelerationer från en hip-worn enhet. | 13,968,094 | Biometric Gait Authentication Using Accelerometer Sensor | {'venue': 'JCP', 'journal': 'JCP', 'mag_field_of_study': ['Computer Science']} | 79,753 |
Med hjälp av epidemiologiska metoder för att testa smittan av sjukdomar har man nyligen funnit att risken för ett inbrott i hemmet tillfälligt är förhöjd. Detta dokument visar hur vanligt detta fenomen är genom att analysera rumstidsmönster för inbrott i tio områden, belägna i fem olika länder. Även om de exakta mönster varierar, för alla områden, hus inom 200 meter från en burgled hem var med en förhöjd risk för inbrott under en period av minst två veckor. För tre av de fem länderna kan skillnaderna i dessa mönster delvis förklaras med enkla skillnader i måltäthet. Resultaten ligger till grund för teorier om brottskoncentration och lagöverträdare som inriktar sig på strategier, och har implikationer för brottsprognoser och brottsminskning i allmänhet. | Arbetet i REF undersöker 10 städer i fem länder och konstaterar att risken för inbrott i bostäder tillfälligt ökar under minst två veckor inom en radie av 200 meter runt bofasta bostäder. | 52,249,854 | Space–Time Patterns of Risk: A Cross National Assessment of Residential Burglary Victimization | {'venue': None, 'journal': 'Journal of Quantitative Criminology', 'mag_field_of_study': ['Psychology']} | 79,754 |
Vi visar att det finns betydande redundans i parameteriseringen av flera djupt lärande modeller. Med bara ett fåtal viktvärden för varje funktion är det möjligt att exakt förutsäga de återstående värdena. Dessutom visar vi att parametervärdena inte bara kan förutsägas, utan många av dem behöver inte läras alls. Vi tränar flera olika arkitekturer genom att lära oss bara ett litet antal vikter och förutsäga resten. I bästa fall kan vi förutsäga mer än 95% av vikterna i ett nätverk utan någon nedgång i noggrannhet. | Studier visar att det finns betydande redundans i parametriseringen av flera djupt lärande metoder och många av dem behöver inte ens läras alls REF. | 1,639,981 | Predicting Parameters in Deep Learning | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 79,755 |
Genom detta dokument införs och dokumenteras en ny bilddatabas som är särskilt byggd för utveckling och benchmarking av kamerabaserad digital rättsmedicinsk teknik. Mer än 14 000 bilder av olika inomhus- och utomhusscener har förvärvats under kontrollerade och därmed mycket jämförbara förhållanden från sammanlagt 73 digitala kameror. Kamerorna drogs från endast 25 olika modeller för att säkerställa att enhetsspecifika och modellspecifika egenskaper kan löses upp och studeras separat, vilket valideras med resultat i detta dokument. Dessutom samlades extrabilder för uppskattning av den anordningsspecifika sensorns bullermönster in för varje kamera. En annan delmängd av bilder för att studera modellspecifika JPEG-komprimeringsalgoritmer har sammanställts för varje modell. "Dresden Image Database" kommer att göras fritt tillgänglig för vetenskapliga ändamål när detta åtföljande dokument presenteras. Databasen är avsedd att bli en användbar resurs för forskare och rättsmedicinska utredare. Att använda en standarddatabas som riktmärke gör inte bara resultaten mer jämförbara och reproducerbara, utan det är också mer ekonomiskt och undviker potentiella upphovsrätts- och integritetsfrågor som går hand i hand med självprovade referensuppsättningar från offentliga fotogemenskaper på Internet. | Framför allt består "Dresden image databas" av 14 000 bilder från 73 kameror, och används främst för kamera fingeravtryck Ref. | 3,094,482 | The 'Dresden Image Database' for benchmarking digital image forensics | {'venue': "SAC '10", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,756 |
Miljarder länkade data tredubblar finns i tusentals RDF kunskapsgrafer på webben, men få av dessa grafer kan frågas live från webbapplikationer. Endast ett begränsat antal kunskapsgrafer finns tillgängliga i ett sökbart gränssnitt, och befintliga gränssnitt kan vara dyra att vara värd för vid hög tillgänglighet. För att minska denna brist på levande frågeställbara länkade data, utformade vi en billig Triple Mönster Fragment gränssnitt för servrar, och en klient sida algoritm som utvärderar SPARQL frågor mot detta gränssnitt. Den här artikeln beskriver ramverket för länkade datafragment för att analysera webbgränssnitt till länkade data och använder detta ramverk som grund för att definiera Triple Mönsterfragment. Vi beskriver klient-side förfrågan för enstaka kunskap grafer och federationer därav. Vår utvärdering verifierar att denna teknik minskar serverbelastningen och ökar cachingeffektiviteten, vilket leder till lägre kostnader för att upprätthålla hög servertillgänglighet. Dessa fördelar kommer på bekostnad av ökad bandbredd och långsammare, men stabilare frågeutförandetider. Dessa resultat styrker påståendet att lätta gränssnitt kan sänka kostnaderna för kunskapsförlag jämfört med mer uttrycksfulla endpoints, samtidigt som det gör det möjligt för ansökningar att fråga ut förlagens data med nödvändig tillförlitlighet. | Triple Mönster Fragments (TPF) REF föreslogs för att förbättra serverns tillgänglighet under belastning. | 13,867,745 | Triple Pattern Fragments : a Low-cost Knowledge Graph Interface for the Web | {'venue': 'J. Web Semant.', 'journal': 'J. Web Semant.', 'mag_field_of_study': ['Computer Science']} | 79,757 |
Att räkna frekvenserna av k-mers i läsbibliotek är ofta ett första steg i analysen av hög-genomströmning sekvensering experiment. Sällan förekommande kilometerkilometer antas vara ett resultat av sekvenseringsfel. De vanliga k-mers utgör en reducerad men felfri representation av experimentet, som kan informera läsa felkorrigering eller fungera som indata till de novo monteringsmetoder. I idealfallet bör kravet på minne för att räkna vara linjärt i antalet frekventa k-mers och inte i det, typiskt mycket större, totala antalet k-mers i läsbiblioteket. Vi presenterar en ny metod som balanserar tid, rum och noggrannhet krav för att effektivt extrahera frekventa k-mers även för hög täckning bibliotek och stora genom såsom människa. Vår metod är utformad för att minimera cache-missar på ett cache-effektivt sätt genom att använda ett Mönsterblockerat Bloom filter för att ta bort sällan förekommande k-mers från övervägande i kombination med en ny typ-och-kompakt schema, i stället för en Hash, för den faktiska räkningen. Detta ökar den teoretiska komplexiteten, men besparingarna i cache missar att minska de empiriska körtiderna. En variant kan ta till ett räkna Bloom filter för ännu större besparingar i minnet på bekostnad av falska negativa utöver de falska positiva som är gemensamma för alla Bloom filter baserade metoder. En jämförelse med state-of-the-art visar minskade minneskrav och körtider. Observera att vi också tillhandahåller den första tävlingsmetoden för att räkna k-mers upp till storlek 64. Verktygen är fritt tillgängliga för nedladdning på | Turtle REF ersätter ett standard Bloom-filter med en cacheeffektiv motsvarighet. | 6,650,157 | Turtle: Identifying frequent k-mers with cache-efficient algorithms | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Biology', 'Computer Science', 'Medicine']} | 79,758 |
Det vetenskapliga samfundet undersöker molninfrastrukturens lämplighet för att hantera applikationer med hög prestanda (HPC). Målet med Magellan, ett projekt som finansieras genom DOE ASCR, är att undersöka den potentiella rollen av molntjänster för att tillgodose databehoven vid Institutionen för energis Office of Science, särskilt för medelstora datorer och dataintensiva applikationer som inte betjänas genom befintliga DOE-center idag. Tidigare arbete har visat att applikationer med betydande kommunikation eller I/O tenderar att prestera dåligt i virtualiserade molnmiljöer. Det finns dock en begränsad förståelse av I/O-egenskaperna i virtualiserade molnmiljöer. Detta dokument kommer att presentera våra resultat i benchmarking av I/O-prestanda över olika moln- och HPC-plattformar för att identifiera de stora flaskhalsarna i befintlig infrastruktur. Vi jämför I/O-prestandan med IOR-riktmärke på två molnplattformar -Amazon och Magellan. Vi analyserar prestandan hos olika lagringsalternativ, olika exempeltyper i flera tillgänglighetszoner. Slutligen utför vi storskaliga tester för att analysera variabiliteten i I/O-mönstren över tid och region. Våra resultat belyser omkostnaderna och variationen i I/O-prestanda på både offentliga och privata molnlösningar. Våra resultat kommer att hjälpa applikationer att välja mellan olika lagringsalternativ som gör det möjligt för applikationer att göra effektiva val. | Ghoshal m.fl. REF angav att noggrann granskning av I/O-prestanda är avgörande för virtualiserade molnmiljöer. | 17,439,479 | I/O performance of virtualized cloud environments | {'venue': "DataCloud-SC '11", 'journal': None, 'mag_field_of_study': ['Engineering']} | 79,759 |
Under de senaste åren har ramen MapReduce vuxit fram som en av de mest använda parallella datorplattformarna för behandling av data på terabyte- och petabyteskalor. Används dagligen på företag som Yahoo!, Google, Amazon och Facebook, och antagits på senare tid av flera universitet, möjliggör det enkel parallellisering av dataintensiva beräkningar över många maskiner. En viktig egenskap hos MapReduce som skiljer den från tidigare modeller av parallell beräkning är att den interleaves sekventiell och parallell beräkning. Vi föreslår en modell för effektiv beräkning med hjälp av MapReduce paradigm. Eftersom MapReduce är utformad för beräkningar över massiva datamängder, begränsar vår modell antalet maskiner och minnet per maskin till att i huvudsak vara sublinjära i storleken på inmatningen. Å andra sidan sätter vi mycket lösa restriktioner på beräkningskraften hos varje enskild maskin vår modell gör att varje maskin att utföra sekventiella beräkningar i tid polynom i storleken på den ursprungliga inmatningen. Vi jämför MapReduce med PRAM-modellen för beräkning. Vi visar en simuleringslemma som visar att en stor klass av PRAM-algoritmer effektivt kan simuleras via MapReduce. Styrkan i MapReduce ligger dock i det faktum att den använder både sekventiell och parallell beräkning. Vi demonstrerar hur algoritmer kan dra nytta av detta faktum för att beräkna en MST av en tät graf i endast två rundor, i motsats till på (log(n)) rundor som behövs i standard PRAM-modellen. Vi visar hur man utvärderar en bred klass av funktioner med MapReduce-ramverket. Vi avslutar med att tillämpa detta resultat för att visa hur man beräknar några grundläggande algoritmiska problem såsom oriktad s-t-anslutning i MapReduce-ramverket. | Författare i REF föreslog en teoretisk studie om MapReduce-programmeringsmodellen som karakteriserar funktionerna för blandad sekventiell och parallell bearbetning i MapReduce. | 2,130,374 | A model of computation for MapReduce | {'venue': "SODA '10", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,760 |
Varial inferens har blivit en allmänt använd metod för att approximera posteriors i komplexa latent variabler modeller. Men att härleda en variationell inferensalgoritm kräver i allmänhet en betydande modellspecifik analys, och dessa ansträngningar kan hindra och avskräcka oss från att snabbt utveckla och utforska en mängd olika modeller för ett problem som finns. I den här artikeln presenterar vi en "svart låda" variationell inferencealgoritm, en algoritm som snabbt kan appliceras på många modeller med lite ytterligare härledning. Vår metod är baserad på en stokastisk optimering av variationsmålet där den bullriga lutningen beräknas från Monte Carlo prover från variationsfördelningen. Vi utvecklar ett antal metoder för att minska variansen av lutningen, alltid upprätthålla kriteriet att vi vill undvika svåra modellbaserade härledningar. Vi utvärderar vår metod mot motsvarande svart box provtagning baserade metoder. Vi finner att vår metod når bättre prediktiva sannolikheter mycket snabbare än provtagningsmetoder. Slutligen visar vi att Black Box Variational Inference lätt kan utforska ett brett utrymme av modeller genom att snabbt konstruera och utvärdera flera modeller av longitudinella hälsodata. | REF föreslog en stokastisk optimeringsmetod med hjälp av bullriga lutningar som beräknats på proverna från variationsfördelningen. | 1,580,089 | Black Box Variational Inference | {'venue': 'AISTATS 2014', 'journal': 'arXiv: Machine Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 79,761 |
ABSTRACT Intrusion upptäckt spelar en viktig roll för att säkerställa informationssäkerhet, och den viktigaste tekniken är att korrekt identifiera olika attacker i nätverket. I detta dokument undersöker vi hur man kan modellera ett intrångsdetekteringssystem baserat på djupt lärande, och vi föreslår ett djupt lärande för att upptäcka intrång med hjälp av återkommande neurala nätverk (RNN-IDS). Dessutom studerar vi prestandan hos modellen i binär klassificering och multiklass klassificering, och antalet neuroner och olika inlärningshastighet påverkar prestandan för den föreslagna modellen. Vi jämför det med de av J48, artificiella neurala nätverk, slumpmässig skog, stöd vektor maskin, och andra maskininlärningsmetoder som föreslagits av tidigare forskare på referensdatauppsättningen. De experimentella resultaten visar att RNN-IDS är mycket lämplig för modellering av en klassificeringsmodell med hög noggrannhet och att dess prestanda är överlägsen den hos traditionella maskininlärningsmetoder i både binär och multiklass klassificering. RNN-IDS-modellen förbättrar noggrannheten i intrångsdetekteringen och ger en ny forskningsmetod för intrångsdetektering. Återkommande neurala nätverk, RNN-IDS, intrångsdetektering, djupinlärning, maskininlärning. | I REF utformades och modellerades ett intrångsdetekteringssystem (IDS) baserat på DL med hjälp av Recurrent Neural Networks (RNN). | 1,946,600 | A Deep Learning Approach for Intrusion Detection Using Recurrent Neural Networks | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 79,762 |
Ett populärt sätt att svara på öppna frågor är att först söka efter frågerelaterade avsnitt och sedan använda läsförståelsemodeller för att ta fram svar. Befintliga metoder tar vanligtvis fram svar från enskilda passager oberoende av varandra. Men vissa frågor kräver en kombination av bevis från olika källor för att kunna svara korrekt. I detta dokument föreslår vi två modeller som använder sig av flera passager för att generera sina svar. Båda använder sig av en svarssorteringsmetod som omställer de svarskandidater som genereras av en befintlig toppmodern QA-modell. Vi föreslår två metoder, nämligen styrkebaserad omplacering och täckningsbaserad omplacering, för att använda de samlade bevisen från olika avsnitt för att bättre fastställa svaret. | Nyligen, Wang et al. föreslagna svar om-ranking metoder som omordning svarskandidater som genereras av RC-modulen i ett MRS-system REF. | 13,764,176 | Evidence Aggregation for Answer Re-Ranking in Open-Domain Question Answering | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 79,763 |
Induktiv överföringsutbildning har i hög grad påverkat datorseendet, men befintliga metoder i NLP kräver fortfarande uppgiftsspecifika modifieringar och utbildning från grunden. Vi föreslår Universal Language Model Fine-tuning (ULMFiT), en effektiv överföring inlärningsmetod som kan tillämpas på alla uppgifter i NLP, och införa tekniker som är viktiga för finjustering av en språkmodell. Vår metod är betydligt bättre än den senaste tekniken när det gäller sex textklassificeringsuppgifter, vilket minskar felet med 18-24 % på de flesta datauppsättningar. Dessutom, med bara 100 märkta exempel, matchar det prestanda av träning från grunden på 100× mer data. Vi öppnar våra förtränade modeller och kod 1. | Dessutom är ULMFiT (Universal Language Model Fine-tuning) algoritmen REF en effektiv överföring inlärningsmetod som kan tillämpas på en mängd olika klassificeringsproblem i NLP, som introducerar tekniker som är viktiga för finjustering av en språkmodell. | 40,100,965 | Universal Language Model Fine-tuning for Text Classification | {'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,764 |
Abstrakt. På senare tid har det gjorts betydande ansträngningar för att datorisera Clinical Practice Guidelines (CPG) så att de kan utföras via Clinical Decision Support Systems (CDSS) på vårdplatsen. Vi presenterar en semantisk webbram för både modellera och exekvera kunskapen inom en CPG för att utveckla kunskapscentrerad CDSS. Vårt tillvägagångssätt innebär kunskapsmodellering genom en synergi mellan flera ontologier-d.v.s. en domän ontologi, CPG ontologi och patient ontologi. Vi utvecklar beslutsregler baserade på ontologierna, och kör dem med en korrekt motor för att härleda CPG-baserade patientspecifika rekommendationer. Vi presenterar en prototyp av vår CPG-baserade CDSS för att utföra CPG för uppföljning efter behandling för bröstcancer. | REF introducerar till exempel en semantisk webbram som effektivt modellerar kunskapen inom Clinical Practice Guidelines (CPG) för att utveckla ett kunskapscentrerat system för stöd till kliniska beslut (CDSS). | 3,026,628 | Semantic Web Framework for Knowledge-Centric Clinical Decision Support Systems | {'venue': 'AIME', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,765 |
Programutvecklare konfronterar ofta frågor som "Varför implementerades koden på detta sätt"? För att svara på sådana frågor använder sig utvecklarna av information i ett programvarusystems fel- och källarkiv. I det här dokumentet överväger vi två användargränssnitt för att hjälpa en utvecklare att utforska information från sådana databaser. Ett användargränssnitt, från Holmes och Begels Deep Intellisense-verktyg, avslöjar historisk information över flera integrerade vyer, vilket gynnar prospektering från ett enda kodelement till all detta elements historiska information. Det andra användargränssnittet, i ett verktyg som kallas Rationalizer som vi introducerar i detta dokument, integrerar historisk information i källkodseditorn, gynnar prospektering från en viss kodlinje till dess omedelbara historia. Vi introducerar en modell för att uttrycka hur programvaruförrådet information är ansluten och använda denna modell för att jämföra de två gränssnitten. Genom ett labbexperiment fann vi att vår modell kan hjälpa till att förutsäga vilket gränssnitt som är till hjälp för en viss typ av historisk fråga. Vi fann också brister i gränssnitten som hindrade användarna från att utforska historisk information. Dessa resultat kan hjälpa till att informera verktygsutvecklare som presenterar historisk information antingen direkt från eller minerade från programvaruarkiv. | Bradley och Murphy presenterar Rationalizer REF, ett verktyg som integrerar historisk information i källkodseditorn, ger utvecklare information om vad som ändrades av vem, och varför. | 18,999,153 | Supporting software history exploration | {'venue': "MSR '11", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,766 |
Abstrakt. Förmågan att lokalisera en kamera som rör sig i en tidigare okänd miljö är önskvärd för ett brett spektrum av tillämpningar. I datorseende studeras detta problem som monokulär SLAM. De senaste åren har man sett förbättringar av användbarheten och skalbarheten hos monokulära SLAM-system till den grad att de snart kan finna användningar utanför laboratorieförhållanden. Men robustheten hos dessa system för snabba kamerarörelser (vi hänvisar till denna kvalitet som smidighet) släpar fortfarande efter den hos spårningssystem som använder kända objektmodeller. I detta dokument försöker vi råda bot på detta. Vi presenterar två metoder för att förbättra smidigheten i ett nyckelframe-baserat SLAM-system: För det första lägger vi till egg-funktioner på kartan och utnyttjar deras motståndskraft mot oskärpa i rörelse för att förbättra spårningen under snabb rörelse. För det andra genomför vi en mycket enkel rotationsskattning mellan ramar för att underlätta spårningen när kameran snabbt panorerar - och visar att denna metod också möjliggör en trivialt enkel men effektiv omlokaliseringsmetod. Resultaten visar att ett SLAM-system som kombinerar punkter, eggfunktioner och rörelseinitiering möjliggör mycket smidig spårning med en måttlig ökning av bearbetningstiden. | De egg funktioner läggs till på kartan och deras motståndskraft mot rörelse oskärpa utnyttjas för att förbättra spårning under snabb rörelse genom att använda BA REF. | 9,158,502 | Improving the agility of keyframe-based SLAM | {'venue': 'In Proceedings of the European Conference on Computer Vision (ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,767 |
Nya studier visar att ett djupt neuralt nätverk kan lära överförbara funktioner som generaliserar väl till nya uppgifter för domänanpassning. Eftersom djupa funktioner så småningom övergår från allmän till specifik längs nätverket, sjunker funktionen överförbarhet avsevärt i högre lager med ökande domänavvikelse. Därför är det viktigt att formellt minska domänfördelen och förbättra överförbarheten i uppgiftsspecifika skikt. I detta dokument föreslår vi en ny Deep Adaptation Network (DAN) arkitektur, som generaliserar djupa konvolutionella neurala nätverk till domänanpassning scenariot. I DAN är dolda representationer av alla aktivitetsspecifika lager inbäddade i ett reproducerande kärna Hilbert-utrymme där de genomsnittliga inbäddningarna av olika domändistributioner uttryckligen kan matchas. Avvikelsen i domänen minskas ytterligare med hjälp av en optimal urvalsmetod med flera kernlar för genomsnittlig inbäddning av matchningar. DAN kan lära sig invarianta funktioner med förbättrad överförbarhet, och kan skala linjärt genom en opartisk uppskattning av kärnans inbäddning. Omfattande empiriska belägg visar att den föreslagna arkitekturen avsevärt överträffar de senaste resultaten på standardriktmärken för domänanpassning. | Lång et al. REF föreslog ett djupt adaptivt nätverk (DAN) för att förbättra funktionen överförbarheten av specifika skikt i neurala nätverk. | 556,999 | Learning Transferable Features with Deep Adaptation Networks | {'venue': 'ICML', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 79,768 |
Den stokastiska lutning nedstigning (SGD) metod och dess varianter är algoritmer av val för många Deep Learning uppgifter. Dessa metoder fungerar i en liten batch regim där en bråkdel av träningsdata, t.ex. 32-512 datapunkter, provtas för att beräkna en approximation till lutningen. Det har observerats i praktiken att när man använder en större sats det finns en försämring i kvaliteten på modellen, mätt genom dess förmåga att generalisera. Vi undersöker orsaken till denna generalisering nedgång i stor-batch regim och presenterar numeriska bevis som stöder uppfattningen att stor-batch metoder tenderar att konvergera till skarpa minimerare av utbildning och testa funktioner-och som är välkänt, skarpa minima leder till sämre generalisering. Däremot, små partier metoder konsekvent konvergera till platt minimerare, och våra experiment stöder en allmänt hållen uppfattning om att detta beror på den inneboende buller i lutningsberäkningen. Vi diskuterar flera strategier för att försöka hjälpa stora partier metoder eliminera denna generalisering gap. | Till exempel föreslog REF att stora partier SGD hittar skarpa minima, vilket leder till dålig generalisering. | 5,834,589 | On Large-Batch Training for Deep Learning: Generalization Gap and Sharp Minima | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 79,769 |
Medan Deep Neural Networks (DNN) har uppnått enorm framgång för stora ordförråd kontinuerlig taligenkänning (LVCSR) uppgifter, utbildning av dessa nätverk är långsam. Ett skäl är att DNN utbildas med ett stort antal träningsparametrar (dvs. 10–50 miljoner). Eftersom nätverk är utbildade med ett stort antal outputmål för att uppnå bra prestanda, är de flesta av dessa parametrar i det slutliga viktskiktet. I detta dokument föreslår vi en låggradig matrisfaktorisering av det slutliga viktskiktet. Vi tillämpar denna lågvärdiga teknik på DNNs för både akustisk modellering och språkmodellering. Vi visar på tre olika LVCSR uppgifter som sträcker sig mellan 50-400 timmar, att en låg-rank factorization minskar antalet parametrar i nätverket med 30-50%. Detta resulterar i ungefär en motsvarande minskning av träningstiden, utan en betydande förlust av den slutliga igenkänningsnoggrannheten, jämfört med en helrankad representation. | Sainath m.fl. REF minskar antalet parametrar i det sista skiktet av en DNN med hjälp av matrisfaktorisering med låg rankning. | 3,334,366 | Low-rank matrix factorization for Deep Neural Network training with high-dimensional output targets | {'venue': '2013 IEEE International Conference on Acoustics, Speech and Signal Processing', 'journal': '2013 IEEE International Conference on Acoustics, Speech and Signal Processing', 'mag_field_of_study': ['Computer Science']} | 79,770 |
Självmord är en av de främsta dödsorsakerna i Kina. Men tekniska metoder för att förebygga självmord är utmanande och fortfarande under utveckling. Nyligen, flera faktiska självmordsfall föregicks av användare som postade mikrobloggar med självmordstankar till Sina Weibo, en kinesisk social media nätverk liknar Twitter. Det vore därför önskvärt att upptäcka självmordstankar från mikrobloggar i realtid och omedelbart varna lämpliga stödgrupper, vilket kan leda till ett framgångsrikt förebyggande. I detta dokument föreslår vi ett system för att upptäcka självmord i realtid över Weibo, med hjälp av maskininlärning och kända psykologiska tekniker. För närvarande har vi identifierat 53 kända självmordsfall som postade självmordsbrev på Weibo innan de dog. Vi utforskar språkliga drag i dessa kända fall med hjälp av en psykologisk lexikon, och träna en effektiv självmord Weibo post detektion modell. 6714 taggade inlägg och flera klassificeringar används för att verifiera modellen. Genom att kombinera både maskininlärning och psykologisk kunskap, har SVM classifier den bästa prestandan för olika clasfiers, vilket ger en F-mått på 68,3%, en precision på 78,9%, och en recall på 60,3%. • Tredje, tvärvetenskaplig forskning mellan maskiner | Under 2014 använde REF regelbaserade metoder med en handgjord oövervakad klassificering för att utveckla ett system för att upptäcka självmord i realtid via Weibo 1, en mikrobloggningsplattform. | 16,179,465 | Detecting Suicidal Ideation in Chinese Microblogs with Psychological Lexicons | {'venue': '2014 IEEE 11th Intl Conf on Ubiquitous Intelligence and Computing and 2014 IEEE 11th Intl Conf on Autonomic and Trusted Computing and 2014 IEEE 14th Intl Conf on Scalable Computing and Communications and Its Associated Workshops', 'journal': '2014 IEEE 11th Intl Conf on Ubiquitous Intelligence and Computing and 2014 IEEE 11th Intl Conf on Autonomic and Trusted Computing and 2014 IEEE 14th Intl Conf on Scalable Computing and Communications and Its Associated Workshops', 'mag_field_of_study': ['Computer Science']} | 79,771 |
Abstrakt. Den orangea utmaningen "Data for Development" (D4D) är en öppen datautmaning om anonyma samtalsmönster hos Oranges mobiltelefonanvändare i Elfenbenskusten. Målet med utmaningen är att hjälpa till att lösa samhällsutvecklingsfrågor på nya sätt genom att bidra till den socioekonomiska utvecklingen och välfärden för Elfenbenskustens befolkning. Deltagarna i utmaningen får tillgång till fyra mobiltelefondataset och syftet med detta dokument är att beskriva de fyra dataseten. Webbplatsen http://www.d4d.orange.com innehåller mer information om reglerna för deltagande. Dataseten är baserade på anonymiserade Call Detail Records (CDR) för telefonsamtal och SMS-utbyten mellan fem miljoner av Oranges kunder i Elfenbenskusten mellan den 1 december 2011 och den 28 april 2012. Datauppsättningarna är: a) antenn-till-antenntrafik per timme, b) individuella banor för 50.000 kunder för två veckors tidsfönster med antennplatsinformation, (3) enskilda banor för 500.000 kunder under hela observationsperioden med information om sub-prefekturens plats, och (4) 1. Inledning. Tillgången till detaljerade spår av rörlighet och mobilkommunikationsdata för stora befolkningsgrupper har redan haft en betydande inverkan på forskning inom beteendevetenskap. Vissa forskare anser sådana dataset som en möjlighet att förfina analysen av mänskligt beteende [5], medan andra ifrågasätter nyttan av sådana dataset för att dra slutsatser om kollektivt mänskligt beteende [1, 2, 5]. Digitala spår kvar av mobiltelefonanvändare avslöjar ofta känslig privat information. Det är därför naturligt att begränsa tillgången till sådana uppgifter. Begränsad tillgång till vetenskapliga data är dock en potentiell källa till en "ny digital klyfta" i forskarsamhället, såsom beskrivs i [2]. För att förbättra tillgången till stora mobiltelefondata och främja forskning inom detta område beslutade Orange Group att tillhandahålla anonymiserade dataset från Elfenbenskusten för vetenskaplig forskning. Med cirka fem miljoner kunder har Orange en betydande marknadsandel i Elfenbenskusten, vars totala befolkning uppskattas till 20 miljoner personer. Utöver den vetenskapliga nyttan avser projektet att främja utvecklingen i Elfenbenskusten genom att etablera nya samarbeten med afrikanska forskare och genom att tillhandahålla beteendedata som ännu inte har samlats in av den nationella statistikbyrån [3]. | Ett undantag representeras av Data for Development dataset av Orange REF, inklusive mobilitetsinformation för 50 000 användare i Elfenbenskusten, samt CDR (call-detail record) information för telefonsamtal och SMS-meddelanden. | 6,210,110 | Data for Development: the D4D Challenge on Mobile Phone Data | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Physics', 'Mathematics']} | 79,772 |
Click through rate (CTR) förutsägelse av bildannonser är kärnan i online-display reklamsystem, och logistisk regression (LR) har ofta tillämpats som förutsägelsemodell. LR-modellen saknar dock förmågan att extrahera komplexa och inneboende ickelinjära funktioner från handgjorda högdimensionella bildfunktioner, vilket begränsar dess effektivitet. För att lösa detta problem, i detta papper, introducerar vi en ny djup neurala nätverk (DNN) baserad modell som direkt förutsäger CTR av en bild annons baserad på rå bild pixlar och andra grundläggande funktioner i ett steg. DNN-modellen använder konvolutionslager för att automatiskt extrahera representativa visuella funktioner från bilder, och icke-linjära CTR-funktioner lärs sedan av visuella funktioner och andra kontextuella funktioner genom att använda fullt anslutna lager. Empiriska utvärderingar av en verklig värld dataset med över 50 miljoner poster visar effektiviteten och effektiviteten av denna metod. | I Deep CTR system REF, ett djupt neuralt nätverk föreslås där använder convolution lager för att automatiskt extrahera representativa visuella funktioner från bilder, och icke-linjära CTR funktioner sedan läras från visuella funktioner och andra kontextuella funktioner genom att använda fullt anslutna lager. | 14,617,126 | Deep CTR Prediction in Display Advertising | {'venue': "MM '16", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,773 |
Detta dokument granskar nyligen studier i att förstå neurala-nätverk representationer och lärande neurala nätverk med tolknings- / disentangled mellanlager representationer. Även om djupa neurala nätverk har uppvisat överlägsen prestanda i olika uppgifter, är tolkningsbarhet alltid Achilles häl av djupa neurala nätverk. För närvarande får djupa neurala nätverk hög diskriminering makt på bekostnad av en låg tolkningsbarhet av deras svart-box representationer. Vi tror att hög tolkningsbarhet kan hjälpa människor att bryta flera flaskhalsar i djupt lärande, t.ex. lära sig av några kommentarer, lära sig via kommunikation mellan människor och datorer på semantisk nivå och semantiskt debugging nätverk representationer. Vi fokuserar på konvolutionella neurala nätverk (CNN), och se över visualiseringen av CNN representationer, metoder för att diagnostisera representationer av förtränade CNNs, metoder för disentangling pre-tränade CNN representationer, lärande av CNNs med disentrangerade representationer, och mellan-till-slut lärande baserat på modell tolkningsbarhet. Slutligen diskuterar vi framtida trender i förklarande artificiell intelligens. I detta dokument genomför vi en undersökning av aktuella studier i att förstå neurala-nätverk representationer och lära neurala nätverk med tolknings- / disentangled representationer. Vi kan grovt definiera omfattningen av översynen i följande fem forskningsinriktningar: | REF genomför en fördjupad undersökning om tolkningsbarhet med Convolutional Neural Networks (CNN). | 4,110,304 | Visual interpretability for deep learning: a survey | {'venue': 'Frontiers of Information Technology & Electronic Engineering', 'journal': 'Frontiers of Information Technology & Electronic Engineering', 'mag_field_of_study': ['Computer Science']} | 79,774 |
Abstrakt. I den här artikeln föreslår och analyserar vi en klass av aktörskritiska algoritmer. Dessa är två-tids-skal algoritmer där kritikern använder temporal skillnad lärande med en linjärt parameteriserad approximation arkitektur, och skådespelaren uppdateras i en ungefärlig gradient riktning, baserat på information som tillhandahålls av kritikern. Vi visar att kännetecknen för kritikern helst bör spänna över en subrymd som föreskrivs av valet av parameterisering av skådespelaren. Vi studerar aktörskritiska algoritmer för Markovs beslutsprocesser med polska tillstånds- och aktionsutrymmen. Vi anger och bevisar två resultat när det gäller deras konvergens. Nyckelord. Förstärkningslärande, Markov beslutsprocesser, skådespelare-kritiska algoritmer, stokastisk approximation AMS ämnesklassificeringar. 93E35, 68T05, 62L20 DOI. 10.1137/S0363012901385691 1. Inledning. Många problem inom finans, kommunikationsnät, verksamhetsforskning och andra områden kan formuleras som dynamiska programmeringsproblem. Men dimensionen av tillståndsrymden i dessa formuleringar är ofta för stor för att problemet ska vara lättåtkomligt. Dessutom är den underliggande dynamiken sällan känd och ofta svår att identifiera. Förstärkning av inlärning och neurodynamisk programmering [5, 19] metoder försöker övervinna dessa svårigheter genom att kombinera simuleringsbaserat lärande och kompakta representationer av policyer och värdefunktioner. Den stora majoriteten av dessa metoder faller in i en av följande två kategorier: a) Actor-only metoder fungerar med en parameteriserad familj av politik. Gradienten av prestanda, med avseende på aktörsparametrarna, beräknas direkt genom simulering, och parametrarna uppdateras i en förbättringsriktning [8, 10, 16, 23]. En möjlig nackdel av sådana metoder är att gradienten estimatorer kan ha en stor varians. I takt med att politiken ändras beräknas dessutom en ny gradient oberoende av tidigare uppskattningar. Därför finns det inget "inlärning" i betydelsen ackumulering och konsolidering av äldre information. (b) Kritiska-endast metoder bygger uteslutande på approximation av värdefunktion och syftar till att lära sig en ungefärlig lösning till Bellman ekvationen, som sedan förhoppningsvis kommer att föreskriva en nästan optimal politik. Sådana metoder är indirekta i den meningen att de inte försöker optimera direkt över ett politikområde. En sådan metod kan lyckas skapa en "god" approximation av värdefunktionen men saknar tillförlitliga garantier när det gäller den politik som blir följden. Aktörskritiska metoder [2] syftar till att kombinera de starka punkterna endast för skådespelare och kritiker. Kritikern använder en approximationsarkitektur och simulering för att lära sig en värdefunktion, som sedan används för att uppdatera skådespelarens policyparametrar i en | • Aktör-Kritisk ram REF, som är en klass av tekniker för att stärka lärandet. | 207,079,270 | Actor-critic algorithms | {'venue': 'SIAM Journal on Control and Optimization', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 79,775 |
Vi föreslår en icke-iterativ lösning på PnP-problemet-uppskattningen av pose av en kalibrerad kamera från n 3D-till-2D-punktkorrespondenser-vars beräkning komplexitet växer linjärt med n. Detta är i motsats till state-of-the-art metoder som är O(n 5 ) eller ens O(n 8 ), utan att vara mer exakt. Vår metod är tillämplig för alla n ≥ 4 och hanterar korrekt både plana och icke-planära konfigurationer. Vår centrala idé är att uttrycka n 3D-punkter som en viktad summa av fyra virtuella styrpunkter. Problemet minskar sedan för att uppskatta koordinaterna för dessa styrpunkter i kameran referens, som kan göras i O(n) tid genom att uttrycka dessa koordinater som viktad summa av eigenvectors av en 12 × 12 matris och lösa ett litet konstant antal kvadratiska ekvationer för att välja rätt vikter. Dessutom, om maximal precision krävs, kan utgången av den slutna formen lösning användas för att initiera en Gauss-Newton schema, vilket förbättrar noggrannheten med försumbar mängd extra tid. Fördelarna med vår metod visas genom noggranna tester på både syntetiska och verkliga data. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. | Nyligen introducerade Lepetit på el REF algoritmen Efficient PnP (EPnP), vars beräkningskomplex endast växer linjärt med antalet korrespondenspunkter. | 207,252,029 | EPnP: An Accurate O(n) Solution to the PnP Problem | {'venue': 'International Journal of Computer Vision', 'journal': 'International Journal of Computer Vision', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 79,777 |
En vanlig form av sarkasm på Twitter består av en positiv känsla som kontrasteras med en negativ situation. Till exempel, många sarkastiska tweets inkluderar en positiv känsla, såsom "kärlek" eller "glädje", följt av ett uttryck som beskriver en oönskad aktivitet eller stat (t.ex., "ta examen" eller "bli ignorerad"). Vi har utvecklat en sarkasmkännare för att identifiera denna typ av sarkasm i tweets. Vi presenterar en ny bootstrapp algoritm som automatiskt lär sig listor över positiva känslofraser och negativa situation fraser från sarkastiska tweets. Vi visar att identifiera kontrasterande sammanhang med hjälp av de fraser som lärts genom bootstrappning ger bättre återkallande för sarkasm erkännande. | Upptäckten av en viss typ av sarkasm som får positiva känslor med en negativ situation genom att analysera meningsmönstret med ett bootstrappat lärande diskuterades också REF. | 10,168,779 | Sarcasm as Contrast between a Positive Sentiment and Negative Situation | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,778 |
Vi modellerar ekonomin för att stimulera högkvalitativt användargenererat innehåll (UGC), motiverat av inställningar som online översyn forum, frågesvar webbplatser, och kommentarer på nyheter och bloggar. Vi tillhandahåller en spel-teoretisk modell inom vilken man kan studera problemet med att stimulera högkvalitativa PGC, där bidragsgivarna är strategiska och motiverade av exponering. Vår modell har det särdraget att både kvaliteten på bidrag och graden av deltagande bestäms endogent i en fri-entry Nash jämvikt. Modellen förutspår, som i praktiken observerats, att om exponeringen är oberoende av kvaliteten, kommer det att bli en flod av låg kvalitet bidrag i jämvikt. En idealisk mekanism i detta sammanhang skulle leda till både hög kvalitet och ett högt deltagande i jämvikt, med nära optimal kvalitet som den tillgängliga uppmärksamheten skiljer sig åt, och bör vara lätt att genomföra i praktiken. Vi anser att det är en mycket enkel elimineringsmekanism, som innebär att varje bidrag till betygsättningen görs av ett antal A-tittare, och eliminerar alla bidrag som inte bedöms på ett enhetligt sätt på ett positivt sätt. Vi konstruerar och analyserar free-entry Nash equilibria för denna mekanism, och visar att A kan väljas för att uppnå kvalitet som tenderar att optimera, tillsammans med olika deltagande, som antalet tittare skiljer sig. | REF ) utformar en enkel omröstningsregel enligt sekventiell och samtidig modell, där både kvaliteten på bidragen och antalet bidragslämnare är endogen fastställda. | 11,576,410 | Incentivizing high-quality user-generated content | {'venue': 'In International World Wide Web Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,779 |
Fuzzy Intrusion Recognition Engine (FIRE) är ett system för att upptäcka intrång i nätet som använder luddiga system för att bedöma skadlig aktivitet mot datornätverk. Systemet använder ett agentbaserat tillvägagångssätt för att separera övervakningsuppgifter. Enskilda agenter utför sin egen fuzzification av indatakällor. Alla agenter kommunicerar med en fuzzy utvärdering motor som kombinerar resultaten av enskilda agenter med hjälp av fuzzy regler för att producera varningar som är sant i viss mån. Flera intrångsscenarier presenteras tillsammans med de suddiga systemen för att upptäcka intrången. De luddiga systemen testas med hjälp av data från nätverk under simulerade attacker. Resultaten visar att luddiga system enkelt kan identifiera portskanning och överbelastning. Systemet kan vara effektivt på att upptäcka vissa typer av bakdörrar och trojanska häst attacker. | REF beskriver en distribuerad fuzzy clasfier, där distribuerade agenter utför fuzzification av lokala datakällor. | 9,162,523 | Fuzzy intrusion detection | {'venue': 'Proceedings Joint 9th IFSA World Congress and 20th NAFIPS International Conference (Cat. No. 01TH8569)', 'journal': 'Proceedings Joint 9th IFSA World Congress and 20th NAFIPS International Conference (Cat. No. 01TH8569)', 'mag_field_of_study': ['Computer Science']} | 79,780 |
Sammanfattning — I detta dokument överväger vi en ny, sessionsbaserad arbetsbörda för att mäta webbserverprestanda. Vi definierar en session som en sekvens av kundens individuella önskemål. Med hjälp av en simuleringsmodell visar vi att en överbelastad webbserver kan uppleva en allvarlig förlust av dataflöde mätt som ett antal avslutade sessioner jämfört med serverns dataflöde mätt i förfrågningar per sekund. Dessutom visar statistisk analys av avslutade sessioner att den överbelastade webbservern diskriminerar mot längre sessioner. För webbplatser för e-handel är längre sessioner typiskt de som skulle resultera i inköp, så de är just de för vilka företagen vill garantera slutförandet. För att förbättra webb-QoS för kommersiella webbservrar introducerar vi en sessionsbaserad behörighetskontroll (SBAC) för att förhindra att en webbserver blir överbelastad och för att säkerställa att längre sessioner kan slutföras. Vi visar att en webbserver förstärkt med inträdeskontrollmekanismen kan ge en rättvis garanti för slutförande, för varje accepterad session, oberoende av en sessionslängd. Detta ger en förutsägbar och kontrollerbar plattform för webbapplikationer och är ett kritiskt krav för alla e-affärer. Dessutom föreslår vi två nya adaptiva strategier för tillträdeskontroll, hybrida och prediktiva, som syftar till att optimera SBAC-mekanismens prestanda. Dessa nya adaptiva strategier bygger på en självgående funktion för inträdeskontroll, som anpassar sig i enlighet med variationer i trafikbelastningen. | Cherkasova m.fl. I REF föreslogs den sessionsbaserade inresekontrollen, som övervakade webbtjänsternas prestanda genom att räkna de avslutade sessionerna. | 615,309 | Session-based admission control: A mechanism for peak load management of commercial web sites | {'venue': 'IEEE Transactions on Computers', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,781 |
Abstract-I detta dokument föreslår vi en opportunistisk nedlänk störningsjustering (ODIA) för interferensbegränsad cellulär nedlänk, som intelligent kombinerar användaren schemaläggning och nedlänk IA-tekniker. Den föreslagna ODIA minskar inte bara effektivt effekten av intercellinterferens från andra cellbasstationer (BS) utan eliminerar också intracellinterferens mellan rumsliga strömmar i samma cell. Vi visar att det minsta antal användare som krävs för att uppnå ett mål i grad av frihet i grunden kan minskas, dvs. att den grundläggande lagen om användarskalning kan förbättras genom att använda ODIA, jämfört med de befintliga IA-systemen med nedlänk. Dessutom antar vi en begränsad återkopplingsstrategi i ODIA-ramverket, och sedan analysera antalet feedbackbitar som krävs för systemet med begränsad feedback för att uppnå samma användarskalningslag i ODIA som systemet med perfekt kanaltillståndsinformation. Vi ändrar också den ursprungliga ODIA för att ytterligare förbättra summan, som uppnår den optimala multianvändarmångfald vinst, dvs log log N, per rumslig ström även i närvaro av downlink intercellinterferens, där N betecknar antalet användare i en cell. Simuleringsresultat visar att ODIA avsevärt överträffar befintliga interferenshanteringstekniker i termer av totalhastighet i realistiska cellulära miljöer. Observera att ODIA fungerar på ett icke-samarbetande och frikopplat sätt, dvs. det kräver inget informationsutbyte mellan BS och ingen iterativ strålformare optimering mellan BS och användare, vilket leder till ett enklare genomförande. Index Terms-Intercell interferens, störningsjustering, grad av frihet (DoF), överföra & ta emot strålformning, begränsad feedback, mångfald av användare, användarschemaläggning. | Dessutom Yang et al. REF antog en begränsad återkopplingsstrategi för att ytterligare minska mängden overhead i OIA-systemet och analyserade det antal feedbackbitar som krävs för att uppnå samma prestanda. | 12,196,580 | Opportunistic Downlink Interference Alignment for Multi-Cell MIMO Networks | {'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 79,782 |
Vi betraktar problemet med djupuppskattning från en enda monokulär bild i detta arbete. Det är en utmanande uppgift eftersom det inte finns några tillförlitliga djupsignaler, t.ex. stereokorrespondenser, rörelser etc. Tidigare insatser har varit inriktade på att utnyttja geometriska föregångare eller ytterligare informationskällor, med alla handgjorda funktioner. Nyligen finns det ökande bevis för att funktioner från djupa konvolutionella neurala nätverk (CNN) sätter nya rekord för olika synapplikationer. Å andra sidan, med tanke på den kontinuerliga egenskapen hos djupvärden, djupuppskattningar kan naturligt formuleras till en kontinuerlig villkorlig slumpmässig fält (CRF) lärande problem. Därför presenterar vi i detta dokument en djup konvolutionell neural fältmodell för att uppskatta djup från en enda bild, syftar till att gemensamt utforska kapaciteten hos djup CNN och kontinuerlig CRF. I synnerhet föreslår vi ett djupgående strukturerat utbildningsprogram som lär sig de oföränderliga och parvisa potentialerna i kontinuerlig CRF inom en enhetlig djup CNN-ram. Den föreslagna metoden kan användas för djupuppskattningar av allmänna scener utan geometriska föregångare eller någon ytterligare information som injiceras. I vårt fall kan integralen av partitionsfunktionen beräknas analytiskt, så vi kan exakt lösa log-likelihood optimering. Dessutom är det mycket effektivt att lösa MAP-problemet för att förutsäga djupet av en ny bild eftersom det finns slutna lösningar. Vi visar experimentellt att den föreslagna metoden överträffar toppmoderna djupuppskattningsmetoder på både inomhus- och utomhusscensdata. | Liu m.fl. REF kombinerar en CNN med en kontinuerlig villkorlig Random Field som kodar scen jämnhet tidigare. | 13,153 | Deep convolutional neural fields for depth estimation from a single image | {'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 79,783 |
Abstract-Recently, SPARQL frågespråk för RDF har nått W3C rekommendation status. Som svar på denna framväxande standard undersöker databasgemenskapen för närvarande effektiva lagringsmetoder för RDF-data och utvärderingsstrategier för SPARQL-frågor. En meningsfull analys och jämförelse av dessa metoder kräver en omfattande och universell referensplattform. I detta syfte har vi utvecklat SP 2 Bench, ett offentligt tillgängligt språkspecifikt prestandariktmärke för SPARQL. SP 2 Bench regleras i DBLP-scenariot och omfattar både en datagenerator för att skapa godtyckligt stora DBLP-liknande dokument och en uppsättning noggrant utformade referensfrågor. De genererade dokumenten speglar viktiga egenskaper och distributioner i sociala världen i den ursprungliga DBLP-datauppsättningen, medan frågorna implementerar meningsfulla förfrågningar utöver dessa data, som omfattar en mängd olika SPARQL-operatörskonstellationer och RDF-åtkomstmönster. Som ett bevis på konceptet tillämpar vi SP 2 Bench på befintliga motorer och diskuterar deras styrkor och svagheter som följer omedelbart från referensresultaten. | SP2Bench REF är ett prestandariktmärke för SPARQL baserat på DBLP-data. | 15,178,715 | SP2Bench: A SPARQL Performance Benchmark | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 79,784 |
Vi beskriver en tillämpning av en kodare-dekoder återkommande neurala nätverk med LSTM enheter och uppmärksamhet för att generera rubriker från texten i nyhetsartiklar. Vi finner att modellen är ganska effektiv på att kortfattat parafrasera nyhetsartiklar. Dessutom studerar vi hur det neurala nätverket bestämmer vilka inmatningsord som ska uppmärksammas, och specifikt identifierar vi funktionen hos de olika nervcellerna i en förenklad uppmärksamhetsmekanism. Det är intressant att lägga märke till att vår förenklade uppmärksamhetsmekanism fungerar bättre än den mer komplicerade uppmärksamhetsmekanismen på en rad artiklar. Återkommande neurala nätverk har nyligen visat sig vara mycket effektiva för många transduktionsuppgifter - som omvandlar text från en form till en annan. Exempel på sådana tillämpningar är maskinöversättning [1,2] och taligenkänning [3]. Dessa modeller tränas på stora mängder indata och förväntade utdatasekvenser, och kan sedan generera utdatasekvenser som ges ingångar aldrig tidigare presenteras för modellen under utbildningen. Återkommande neurala nätverk har också tillämpats nyligen för att läsa förståelse [4]. Där tränas modellerna för att komma ihåg fakta eller uttalanden från indatatext. Vårt arbete är nära relaterat till [5] som också använder ett neuralt nätverk för att generera nyhetsrubriker med samma datauppsättning som detta arbete. Den största skillnaden till detta arbete är att de inte använder ett återkommande neuralt nätverk för kodning, istället med hjälp av en enklare uppmärksamhet-baserad modell. Vi använder encoder-dekoder arkitektur beskrivs i [1] och [2], och visas i figur 1. Arkitekturen består av två delar - en kodare och en dekoder - båda av sig själva återkommande neurala nätverk. | REF använde kodare med uppmärksamhetsmetod för att generera nyhetsrubriker. | 9,816,245 | Generating News Headlines with Recurrent Neural Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 79,785 |
Medan minnet av de flesta maskiner är organiserat som en hierarki, programdata läggs ut i ett enhetligt adressutrymme. I detta dokument definieras en modell för referensaffinitet, som mäter hur nära en grupp av data nås tillsammans i ett referensspår. Det bevisar att modellen ger en hierarkisk partition av programdata. Högst upp är uppsättningen av alla data med den svagaste affiniteten. Längst ner finns varje dataelement med den starkaste affiniteten. Baserat på den teoretiska modellen presenterar tidningen k-distansanalys, ett praktiskt test för den hierarkiska affiniteten hos källnivådata. Vid användning för matrisomgruppering och strukturdelning överträffar k-distansanalys konsekvent dataorganisationer som ges av programmeraren, kompilatoranalys, frekvensprofilering, statistisk klusterbildning och alla andra metoder som vi har provat. | Zhong m.fl. använda en utbildning kör för array omgruppering och struktur uppdelning REF. | 6,253,791 | Array regrouping and structure splitting using whole-program reference affinity | {'venue': "PLDI '04", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,786 |
Abstrakt. Finkornig visuell igenkänning är utmanande eftersom den i hög grad bygger på modellering av olika semantiska delar och finkornig funktionsinlärning. Tvålinjära pooling baserade modeller har visat sig vara effektiva vid finkornig igenkänning, medan de flesta tidigare metoder bortser från det faktum att inter-lager del interaktion och finkornigt funktionsinlärning är ömsesidigt korrelerade och kan förstärka varandra. I detta dokument presenterar vi en ny modell för att ta itu med dessa frågor. För det första föreslås en crosslayer bilinear pooling metod för att fånga den inter-layer delar förhållanden, vilket resulterar i överlägsen prestanda jämfört med andra bilinear pooling baserade metoder. För det andra föreslår vi en ny hierarkisk bilinjär pooling ram för att integrera flera cross-layer bilinear funktioner för att förbättra deras representationsförmåga. Vår formulering är intuitiv, effektiv och uppnår toppmoderna resultat på de allmänt använda finkorniga igenkänningsdataseten. | Dessutom föreslår Ref en dubbellinjär pooling mellan skikt för att fånga förhållandet mellan skiktets delar. | 50,788,959 | Hierarchical Bilinear Pooling for Fine-Grained Visual Recognition | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 79,787 |
FlexRay-bussen är det framtida kommunikationssystemet för fordon. För en hög flexibilitet innehåller protokollet ett statiskt tidsutlöst och ett dynamiskt händelseutlöst segment. Detta dokument är avsett för schemaläggning av det statiska segmentet i enlighet med den fordonsspecifika AUTOSAR-standarden. För att bestämma ett optimalt schema i fråga om antalet använda slots, en snabb girig heuristisk samt en komplett strategi baserad på Integer Linear Programmering presenteras. I detta syfte föreslås ett system för omvandling av schemaläggningsproblemet till ett förpackningsproblem. Dessutom införs en metrisk och optimeringsmetod för extensibilitet av delvis använda slots. Slutligen ger de experimentella resultaten belägg för fördelarna med de föreslagna metoderna. I en realistisk fallstudie kan de föreslagna metoderna ge bättre resultat på betydligt kortare tid jämfört med ett kommersiellt verktyg. Dessutom ger de experimentella resultaten en fallstudie om inkrementell schemaläggning, en skalbarhetsanalys, ett prospekteringsfall och ytterligare ett testfall för att betona de föreslagna metodernas robusthet och flexibilitet. | Lukasiewycz et al föreslår en omvandling av Flexray schemaläggning till en bin-packning problem och lösa det senare med hjälp av ILP REF. | 14,060,326 | FlexRay schedule optimization of the static segment | {'venue': "CODES+ISSS '09", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,788 |
Abstract-This paper undersöker två grundläggande problem i datorseende: konturdetektering och bildsegmentering. Vi presenterar toppmoderna algoritmer för båda dessa uppgifter. Vår konturdetektor kombinerar flera lokala signaler till en globaliseringsram baserad på spektralkluster. Vår segmenteringsalgoritm består av generiska maskiner för att omvandla utdata från alla konturdetektorer till ett hierarkiskt regionträd. På så sätt minskar vi problemet med bildsegmentering till problemet med konturdetektering. Omfattande experimentell utvärdering visar att både våra konturdetekterings- och segmenteringsmetoder avsevärt överträffar konkurrerande algoritmer. De automatiskt genererade hierarkiska segmenteringarna kan interaktivt förfinas genom användarspecificerade annoteringar. Beräkning vid flera bildupplösningar ger ett sätt att koppla vårt system till igenkänningsprogram. | Arbeláez m.fl. REF kombinerade flera lokala signaler i en globaliseringsram baserad på spektralkluster för konturdetektering, kallad gPb. | 206,764,694 | Contour Detection and Hierarchical Image Segmentation | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 79,789 |
Plattformen för integritetsinställningar (P3P), som utvecklats av World Wide Web Consortium (W3C), ger en standard datorläsbar format för sekretesspolicyer och ett protokoll som gör det möjligt för webbläsare att läsa och behandla sekretesspolicyer automatiskt. P3P möjliggör maskinläsbara sekretesspolicyer som kan hämtas automatiskt av webbläsare och andra användaragentverktyg som kan visa symboler, snabba användare eller vidta andra lämpliga åtgärder. Vi utvecklade AT&T Privacy Bird som en P3P-användaragent som kan jämföra P3P-policy med en användares sekretessinställningar. Sedan P3P antogs som en W3C-rekommendation i april 2002 har det inte gjorts mycket arbete för att studera hur den används och i synnerhet hur den påverkar användarna. Många frågor har ställts om huruvida och hur Internetanvändare kommer att använda P3P, och hur man bygger P3P-användaragenter som kommer att visa sig vara mest användbara för slutanvändare. I detta dokument ger vi först en kort introduktion till P3P och AT&T Privacy Bird. Sedan diskuterar vi en undersökning av AT&T Privacy Bird-användare som vi genomförde i augusti 2002. Vi fann att en stor del av AT&T Privacy Bird användare började läsa sekretesspolicy oftare och att vara mer proaktiv om att skydda sin integritet som ett resultat av att använda denna programvara. Tyvärr är nyttan av P3P-användaragenter starkt begränsad av antalet webbplatser som har implementerat P3P. Våra undersökningsresultat tyder också på att om det blir lättare att jämföra sekretesspolicyn på e-handelswebbplatser, skulle en betydande grupp konsumenter sannolikt använda denna information i sina köpbeslut. | Privacy Bird REF 1 som utvecklats av AT&T var en av de första implementeringarna av användaragenter baserade på P3P. | 18,459,548 | Use of a P3P user agent by early adopters | {'venue': "WPES '02", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 79,790 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.