src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
Figur 1: Vår metod utnyttjar heterogeniteten hos fotosamlingar för att automatiskt bryta ner fotografier av en scen i reflektions- och belysningslager. De extraherade reflexskikten är sammanhängande över alla vyer, medan belysningen fångar de skuggande och skuggande variationer som är korrekta för varje bild. Här visar vi nedbrytningen av tre bilder i samlingen. En inre bild är en sönderdelning av ett foto till ett belysningsskikt och ett återspeglingsskikt, vilket möjliggör kraftfull redigering såsom ändring av ett objekts material oberoende av dess belysning. Men sönderdelning av ett enda foto är mycket underkonstruerad och befintliga metoder kräver användarassistans eller bara hantera enkla scener. I detta papper beräknar vi inneboende nedbrytningar med hjälp av flera bilder av samma scen under olika perspektiv och ljusförhållanden. Vi använder multi-view stereo för att automatiskt rekonstruera 3D-punkter och normaler som vi härleder samband mellan reflektionsvärden på olika platser, över flera vyer och därmed olika ljusförhållanden. Vi använder robust uppskattning för att på ett tillförlitligt sätt identifiera reflektansförhållandet mellan par av punkter. Av dessa kan vi dra slutsatsen att det finns begränsningar för vår optimering och se till att det finns en sammanhängande lösning över flera vyer och belysningar. Våra resultat visar att denna begränsade optimering ger högkvalitativa och sammanhängande inneboende nedbrytningar av komplexa scener. Vi illustrerar hur dessa nedbrytningar kan användas för bildbaserad ljusöverföring och övergångar mellan vyer med konsekvent belysning. | REF visar att den egenbild som härletts från en bildsamling av samma scen gör det möjligt att åter tända en bild. | 2,410,692 | Coherent intrinsic images from photo collections | {'venue': 'TOGS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 11,607 |
Denna uppsats visar hur vi kan kombinera konsten att skriva grammatik med kraften i statistik genom att bootstrappa statistiska språkmodeller (SLMs) för dialogsystem från grammatik skrivna med hjälp av den grammatiska ramen (GF) (Ranta, 2004). Dessutom, för att ta hänsyn till att sannolikheten för att en användares dialog rör sig inte är statisk under en dialog visar vi hur samma metod kan användas för att generera dialog flytta specifika SLM där vissa dialogsteg är mer sannolika än andra. Dessa modeller kan användas vid olika tidpunkter i en dialog beroende på kontextuella begränsningar. Genom att använda grammatikgenererade SLM kan vi förbättra både igenkännandet och förståelsen av prestanda avsevärt jämfört med den ursprungliga grammatiken. Med dialog flytta specifika SLMs skulle vi kunna få en ytterligare förbättring om vi hade ett optimalt sätt att förutsäga rätt språkmodell. | I REF, används en tolkning grammatik för att bootstrap statistiska språkmodeller (SLM) för dialogsystem. | 1,276,528 | Grammar-based context-specific statistical language modelling | {'venue': 'Workshop on Grammar-Based Approaches to Spoken Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 11,608 |
I detta dokument introducerar vi en ny ytrepresentation, den förskjutna indelningsytan. Den representerar en detaljerad ytmodell som en skalarvärderad förskjutning över en slät domänyta. Vår representation definierar både domänytan och förskjutningsfunktionen med hjälp av en enhetlig indelningsram, vilket möjliggör enkel och effektiv utvärdering av analytiska ytegenskaper. Vi presenterar en enkel, automatisk plan för att omvandla detaljerade geometriska modeller till en sådan representation. Utmaningen i denna omvandlingsprocess är att hitta en enkel indelningsyta som fortfarande troget uttrycker den detaljerade modellen som dess motvikt. Vi visar att förskjutna indelningsytor erbjuder ett antal fördelar, inklusive geometrikompression, redigering, animering, skalbarhet och adaptiv rendering. I synnerhet kodning av fin detalj som en skalär funktion gör representationen extremt kompakt. | Till exempel Lee et al. REF presenterar en enhetlig indelningsram för att tillnärma en godtycklig yta genom en förskjuten indelningsyta. | 14,152,982 | Displaced subdivision surfaces | {'venue': "SIGGRAPH '00", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 11,609 |
Nätdata i stor skala, såsom sociala nät och informationsnät, är allmänt förekommande. Studiet av sådana sociala nätverk och informationsnätverk syftar till att hitta mönster och förklara deras uppkomst genom hanterbara modeller. I de flesta nätverk, och särskilt i sociala nätverk, noder har en rik uppsättning attribut (t.ex. ålder, kön) i samband med dem. Här presenterar vi en modell som vi kallar Multiplicative Attribute Graphs (MAG), som naturligt fångar interaktioner mellan nätverksstruktur och nodattribut. Vi betraktar en modell där varje nod har en vektor av kategoriska latenta attribut associerade med den. Sannolikheten för en kant mellan ett par noder beror sedan på produkten av individuella attribut-attribut affiniteter. Modellen ger sig själv till matematisk analys och vi härleder trösklar för anslutning och uppkomsten av den gigantiska anslutna komponenten, och visar att modellen ger upphov till nätverk med konstant diameter. Vi analyserar examensfördelningen för att visa att MAG-modellen kan producera nätverk med antingen log-normala eller power-law grad fördelningar beroende på vissa villkor. | Modellen Multiplicativt Attributdiagram (MAG) bygger på båda ovannämnda forskningsområden. | 3,167,447 | Multiplicative Attribute Graph Model of Real-World Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Physics']} | 11,610 |
Abstract-Robust streaming av video över 802.11 trådlösa LANs (WLANs) innebär många utmaningar, inklusive att hantera paketförluster orsakade av nätverksbuffertspill eller länkraderingar. I detta dokument föreslår vi en ny felskyddsmetod som kan ge adaptive quality-of-service (QoS) till skiktad kodad video genom att använda prioritet köning på nätverkslagret och försök-limit anpassning på länkskiktet. Utformningen av vår metod motiveras av observationen att de nya begränsningsinställningarna för MAC-skiktet kan optimeras på ett sådant sätt att de totala paketförlusterna som orsakas av antingen länkradering eller buffertspill minimeras. Vi utvecklade en realtidsbegränsningsanpassningsalgoritm för att spåra den optimala försöksgränsen för både enqueue (eller enskikts) och multiqueue (eller flerskikts) fall. Videolagren är ojämlikt skyddade över den trådlösa länken av MAC med olika försöksgränser. I vårt föreslagna ramverk anpassas dessa begränsningar dynamiskt beroende på de trådlösa kanalförhållandena och trafikegenskaperna. Dessutom förstärks den föreslagna prioriteringen av köningsdisciplinen med paketfiltrerings- och rensningsfunktioner som avsevärt kan spara bandbredd genom att kassera föråldrade eller odecodable paket från bufferten. Simuleringar visar att den föreslagna skyddsmekanismen mellan lager avsevärt kan förbättra den mottagna videokvaliteten. | I REF för IEEE 802.11b balanseras förlusthastigheten för paket över den trådlösa länken med förlustfrekvensen från buffertspill genom inkrementella justeringar av försöksgränsen. | 2,544,353 | Providing adaptive QoS to layered video over wireless local area networks through real-time retry limit adaptation | {'venue': 'IEEE Transactions on Multimedia', 'journal': 'IEEE Transactions on Multimedia', 'mag_field_of_study': ['Computer Science']} | 11,611 |
Syntetisering av högkvalitativa bilder från textbeskrivningar är ett utmanande problem i datorseendet och har många praktiska tillämpningar. Prover som genereras av befintliga text-till-bild-metoder kan grovt återspegla betydelsen av de givna beskrivningarna, men de misslyckas med att innehålla nödvändiga detaljer och levande objektdelar. I detta dokument föreslår vi Stacked Generative Adversarial Networks (StackGAN) att generera 256×256 fotorealistiska bilder konditionerade på textbeskrivningar. Vi delar upp det svåra problemet i mer hanterbara delproblem genom en skissrefinieringsprocess. Stage-I GAN skisserar objektets primitiva form och färger baserat på den givna textbeskrivningen, vilket ger Stage-I lågupplösta bilder. Steg II GAN tar Stage-I resultat och textbeskrivningar som ingångar, och genererar högupplösta bilder med fotorealistiska detaljer. Den kan rätta till brister i steg I-resultaten och lägga till övertygande detaljer i förfiningsprocessen. För att förbättra mångfalden av de syntetiserade bilderna och stabilisera utbildningen av den villkorliga-Gan, introducerar vi en ny Conditioning Augmentation teknik som uppmuntrar jämnhet i latent konditioneringsgrenröret. Omfattande experiment och jämförelser med state-of-the-arts på referensdatauppsättningar visar att den föreslagna metoden uppnår betydande förbättringar när det gäller att generera fotorealistiska bilder som är betingade av textbeskrivningar. | Zhang m.fl. I Ref föreslås en tvåstegsstrategi för utbildning som kan generera 256 2 övertygande bilder. | 1,277,217 | StackGAN: Text to Photo-Realistic Image Synthesis with Stacked Generative Adversarial Networks | {'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 11,612 |
Vi överväger användningen av energiskördare, i stället för konventionella batterier med fast energilagring, för punkt-till-punkt trådlös kommunikation. Förutom utmaningen att sända i en kanal med tidselektiv blekning, energi skördare ger en evig men opålitlig energikälla. I detta dokument överväger vi problemet med energiallokering över en ändlig horisont, med hänsyn till kanalförhållanden och energikällor som är tidsvariationer, för att maximera genomströmningen. Två typer av sidoinformation (SI) om kanalförhållanden och skördad energi antas vara tillgängliga: orsakssamband SI (av tidigare och nuvarande ankomst- och avgångstider) eller fullständig SI (av tidigare, nuvarande och framtida ankomst- och avgångstider). Vi får strukturella resultat för optimal energiallokering, genom användning av dynamisk programmering och konvex optimeringsteknik. I synnerhet, om obegränsad energi kan lagras i batteriet med avverkad energi och hela SI finns tillgänglig, visar vi optimalheten av en vattenfyllande energiallokering lösning där de så kallade vattennivåerna följer en trappa funktion. | I REF studeras policyer för maktfördelning över en ändlig tidshorisont med känd kanalvinst och skördad energidistribution. | 326,150 | Optimal Energy Allocation for Wireless Communications With Energy Harvesting Constraints | {'venue': 'IEEE Transactions on Signal Processing', 'journal': 'IEEE Transactions on Signal Processing', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 11,613 |
I detta arbete föreslår vi en generaliserad produkt av experter (gPoE) ram för att kombinera förutsägelser av flera probabilistiska modeller. Vi identifierar fyra önskvärda egenskaper som är viktiga för skalbarhet, uttrycksfullhet och robusthet, vid inlärning och slutledning med en kombination av flera modeller. Genom analyser och experiment visar vi att gPoE av Gaussian processer (GP) har dessa egenskaper, medan inga andra befintliga kombinationsprogram uppfyller dem alla på samma gång. Den resulterande GP-gPoE är mycket skalbar eftersom enskilda GP experter kan lära sig självständigt parallellt; mycket uttrycksfullt eftersom sättet experter kombineras beror på input snarare än fast; den kombinerade förutsägelsen är fortfarande en giltig probabilistisk modell med naturlig tolkning; och slutligen robust till opålitliga förutsägelser från enskilda experter. | Dessa modeller kombineras med produkten av GP experter modell REF. | 9,224,182 | Generalized Product of Experts for Automatic and Principled Fusion of Gaussian Process Predictions | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 11,614 |
Papperet presenterar trådlös sensorarkitektur baserad mänskliga falldetekteringssystem särskilt för äldre människor. Det mänskliga falldetekteringssystemet implementeras med hjälp av två trådlösa nätverksarkitekturer, nämligen det trådlösa sensornodsystemet korsbåge och den trådlösa PIC18LF4620-modulen PIC18LF4620. Falldetekteringsmekanismen är utformad med två sensorer inklusive treaxlig accelerometer och Passiv infraröd (PIR) sensor som är gränssnitt för att övervaka äldre människors aktivitet. De resulterande spänningsförändringarna på grund av mänsklig verksamhet är det riktade intresse som detekteras av båda sensorerna. Realtidsutgången jämförs med lagrade mallar och beräkningsanalysen görs inom mikrokontroller på plats. All abnormitet från lagrade mallar informeras till vaktmästaren via trådlös arkitektur. | Selvabalab m.fl. REF implementerade det mänskliga falldetekteringssystemet med hjälp av två trådlösa nätverksarkitekturer, med namnet cross boug trådlös sensornodsystem och den trådlösa PIC18LF4620-modulen PIC18LF4620. | 108,750,154 | Implementation of wireless sensor network based human fall detection system | {'venue': None, 'journal': 'Procedia Engineering', 'mag_field_of_study': ['Engineering']} | 11,615 |
Sammanfattning av denna webbsida: I detta brev analyseras metadistributionen av sannolikheten för överföringsframgångar (TSP) för fordonsnätverk baserat på en endimensionell Poisson-punktprocess (PPP). Vi föreslår också en metod för att maximera genomströmningen över fordonsnätet. Jämfört med den konventionella rumsliga genomsnittliga prestandabedömningen, avslöjar meta-distributionen andelen fordon som kör med en målhastighet för att nå framgång över motorvägen. I detta syfte föreslår vi ett system för val av taxa per fordon för att hålla en målnivå för tjänstekvalitet (QoS) för alla fordon. Resultaten visar att drift vid den rumsligt genomsnittliga maximala genomströmningen kan leda till alltför stora variationer i prestanda hos enskilda fordon. I och med det föreslagna systemet för urval av meta-distributionsvärden kan dock genomströmningsvariationen mellan fordonen minskas avsevärt (t.ex. upp till 60 % minskning). | Författarna i REF analyserade överföringsframgångsannolikheten (TSP) för IEEE802.11p och uttryckte distributionen av TSP percentiler över nätverket. | 201,240,172 | Network-Wide Throughput Optimization for Highway Vehicle-To-Vehicle Communications | {'venue': None, 'journal': 'Electronics', 'mag_field_of_study': ['Engineering']} | 11,616 |
Till skillnad från mänskligt lärande misslyckas maskininlärning ofta med att hantera förändringar mellan utbildning (källa) och test (mål) ingångsdistributioner. Sådana domänskiften, vanliga i praktiska scenarier, allvarligt skadar prestandan hos konventionella maskininlärningsmetoder. Övervakade metoder för domänanpassning har föreslagits för fallet när måldata har etiketter, inklusive några som fungerar mycket bra trots att de är "frustratingly lätt" att genomföra. I praktiken är dock måldomänen ofta omärkt, vilket kräver en oövervakad anpassning. Vi föreslår en enkel, effektiv och effektiv metod för oövervakad domänanpassning som kallas KORRELATION (CORAL). CORAL minimerar domänbytet genom att anpassa den andra ordningens statistik över käll- och målfördelningar, utan att kräva några målmärkningar. Även om det är utomordentligt enkelt-det kan genomföras i fyra rader av Matlab code-CORAL presterar anmärkningsvärt bra i omfattande utvärderingar på standardriktvärden dataset. "Allt ska göras så enkelt som möjligt, men inte enklare." | Korrelationsanpassningen (CORAL) REF-tekniken överför andra ordningens statistik över måldomänen till vitnade källdata. | 16,439,870 | Return of Frustratingly Easy Domain Adaptation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 11,617 |
Vi anser att problemet med mänsklig-assisterad grafsökning: med tanke på en riktad acyklisk graf med några (okända) målnod(er), anser vi problemet med att hitta målnod(er) genom att ställa en allvetande mänskliga frågor av formen "Finns det en målnod som kan nås från den nuvarande noden?". Detta generella problem har applikationer inom många områden som kan utnyttja mänsklig intelligens, inklusive kuration av hierarkier, debugging arbetsflöden, bildsegmentering och kategorisering, interaktiv sökning och filtersyntes. Till vår kännedom ger detta arbete den första formella algoritmiska studien av optimeringen av mänsklig beräkning för detta problem. Vi studerar olika dimensioner av problemet utrymme, ger algoritmer och komplexa resultat. Vi jämför också prestandan av vår algoritm mot andra algoritmer, för problemet med webbplats kategorisering på en verklig taxonomi. Vårt ramverk och algoritmer kan användas i designen av en optimizer för crowdsourcing plattformar såsom Mechanical Turk. | I REF studerar författarna människostödd grafsökning och föreslår algoritmer för att generera den optimala uppsättningen frågor. | 15,856,517 | Human-Assisted Graph Search: It's Okay to Ask Questions | {'venue': 'Proceedings of the VLDB Endowment (PVLDB), Vol. 4, No. 5, pp. 267-278 (2011)', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 11,618 |
Abstract-Det finns relativt lite arbete med att undersöka storskaliga mänskliga data när det gäller multimodalitet för upptäckt av mänsklig aktivitet. I detta dokument föreslår vi att människainteraktionsdata, eller mänsklig närhet, som erhålls genom mobiltelefon Bluetooth-sensordata, kan integreras med mänskliga lokaliseringsdata, som erhålls genom mobila mobilcellstorn anslutningar, för att mina meningsfulla detaljer om mänskliga aktiviteter från stora och bullriga datauppsättningar. Vi föreslår en modell, kallad påse multimodalt beteende, som integrerar modellering av variationer av plats över flera tidsskalor, och modellering av interaktionstyper från närheten. Vår representation är enkel men ändå robust att karakterisera verkliga mänskliga beteende avkänns från mobiltelefoner, som är enheter som kan fånga storskaliga data som är kända för att vara bullriga och ofullständiga. Vi använder en oövervakad strategi, baserad på probabilistiska ämnesmodeller, för att upptäcka latenta mänskliga aktiviteter i termer av den gemensamma interaktionen och platsen beteenden 97 individer under loppet av ungefär en 10-månadersperiod med hjälp av data från MIT Reality Mining projekt. Några av de mänskliga aktiviteter som upptäckts med vår multimodala data representation inkluderar "gå ut från 7 pm-midnatt ensam" och "arbeta från 11 am-5 pm med 3-5 andra människor," ytterligare konstatera att denna aktivitet dominerar på specifika dagar i veckan. Vår metodologi finner också dominanta arbetsmönster som förekommer på andra dagar i veckan. Vi visar vidare genomförbarheten av ämnesmodellering ram för mänsklig rutin upptäckt genom att förutsäga saknade multimodala telefondata vid specifika tider på dagen. | Farrahi m.fl. REF tar hänsyn till problemet med mänsklig aktivitet data mining baserat på probabilistiska ämnesmodeller till gruva interaktionsmönster baserat på både plats och fysiska närhet egenskaper. | 15,522,314 | Probabilistic Mining of Socio-Geographic Routines From Mobile Phone Data | {'venue': 'IEEE Journal of Selected Topics in Signal Processing', 'journal': 'IEEE Journal of Selected Topics in Signal Processing', 'mag_field_of_study': ['Computer Science']} | 11,619 |
Sammanfattning — Memorisk bandbredd håller snabbt på att bli den begränsande prestandafaktorn för många tillämpningar, särskilt för streamingberäkningar såsom vetenskaplig vektorbehandling eller multimediakompression (de)kompression. Även om dessa beräkningar saknar den tidsmässiga lokaliseringen av referens som gör traditionella cachesystem effektiva, de har förutsägbara tillträdesmönster. Eftersom de flesta moderna DRAM-komponenter stöder lägen som gör det möjligt att utföra vissa åtkomstsekvenser snabbare än andra, gör förutsägbarheten i strömåtkomsterna det möjligt att beställa om dem för att få bättre minnesprestanda. Vi beskriver ett system med Stream Memory Controller (SMC) som kombinerar kompileringstidsdetektering av strömmar med exekveringstidsval av åtkomstorder och problem. SMC prefetcherar effektivt läsströmmar, buffertar skrivströmmar och omorganiserar åtkomsten för att utnyttja den befintliga minnesbandbredden så mycket som möjligt. Till skillnad från de flesta andra hårdvara prefetching eller ström buffert design, ökar detta system inte bandbreddskrav. SMC är praktiskt att genomföra, med hjälp av befintlig kompilatorteknik och kräver endast en liten mängd specialhårdvara. Vi presenterar simuleringsresultat för snabbt sidläge och Rambus DRAM-minnessystem och vi beskriver ett prototypsystem med vilket vi har observerat prestandaförbättringar för innerslingor genom faktorer av 13 över traditionella åtkomstmetoder. Indexvillkor — Memory systems arkitektur, minneslatens, minnesbandbredd, beställning av minnesåtkomst, schemaläggning av minnesåtkomst. | McKee REF [17] använder en körtidsstrategi för att beställa åtkomst till strömmar i en strömminneskontroll. | 7,447,545 | Dynamic Access Ordering for Streamed Computations | {'venue': 'IEEE Transactions on Computers', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 11,620 |
De flesta tekniker för att relatera textinformation bygger på intellektuellt skapade länkar som författare-valda sökord och titlar, myndighet indexering termer, eller bibliografiska citeringar. Likheten i det semantiska innehållet i hela dokument, snarare än bara titlar, abstrakter eller överlappningar av nyckelord, erbjuder ett attraktivt alternativ. Latent semantisk analys ger en effektiv dimensionsreduktionsmetod för det ändamål som speglar synonymer och känslan av godtyckliga ordkombinationer. Emellertid, latent semantisk analys korrelationer med mänsklig text-till-text likhet bedömningar är ofta empiriskt högsta vid 300 dimensioner. Således, två-eller tredimensionella visualiseringar är starkt begränsade i vad de kan visa, och den första och en andra automatiskt upptäckte huvudkomponenten, eller tre sådana för den delen, sällan fånga alla de relationer som kan vara av intresse. Det är vår gissning att språklig betydelse är i sig och oåterkalleligen mycket dimensionell. Därför behövs en viss metod för att utforska en högdimensionell likhet utrymme. Men 2.7 10 7 projektioner och oändliga rotationer av till exempel ett 300-dimensionellt mönster är omöjliga att undersöka. Vi föreslår dock att användningen av en högdimensionell dynamisk tittare med en effektiv projektion jakt rutin och användarkontroll, tillsammans med de utsökta förmågorna hos det mänskliga visuella systemet för att extrahera information om objekt och från rörliga mönster, kan ofta lyckas upptäcka flera avslöjande vyer som missas av nuvarande beräkningsalgoritmer. Vi visar några exempel på användning av latent semantisk analys för att stödja sådana visualiseringar och erbjuda åsikter om framtida behov. M ost tekniker för att relatera textinformation bygger på intellektuellt skapade länkar såsom författaren valda sökord och titlar, auktoritet indexering termer, eller bibliografiska citeringar (1). Likheten i det semantiska innehållet i hela dokument, snarare än bara titlar, abstrakter eller en överlappning av nyckelord, erbjuder ett attraktivt alternativ. Latent semantisk analys (LSA) ger en effektiv dimensionsreduktionsmetod för det ändamål som speglar synonymer och känslan av godtyckliga ordkombinationer (2, 3). LSA är en av ett växande antal corpus-baserade tekniker som använder statistisk maskininlärning i textanalys. Andra tekniker inkluderar generativa modeller av Griffiths och Steyvers (4) och Erosheva et al. (5) och den strängeditbaserade metoden av S. Dennis (6) och flera nya beräkningsförverkliganden av LSA. Tyvärr ska ingen av de andra metoderna skalas till textdatabaser av den storlek som ofta önskas för visualisering av domänkunskap. Den linjära singular value decomposition (SVD) teknik som beskrivs här har tillämpats på samlingar av så många som en halv miljard dokument som innehåller 750.000 unika ordtyper, som alla används för att mäta likheten av två dokument. LSA förutsätter att det övergripande semantiska innehållet i en passage, såsom en punkt, abstrakt, eller fullständig sammanhängande dokument, kan med fördel approximeras som en summa av innebörden av dess ord, enligt följande: betydelse av punkt med betydelsen av ord 1 på betydelsen av ord 2 på.. på betydelsen av ord n. Ömsesidigt konsekvent betydelse representationer för ord och passager kan alltså härledas från en stor text corpus genom att behandla varje passage som en linjär ekvation och corpus som ett system av samtidiga ekvationer. I standard LSA uppnås lösningen av ett sådant system genom SVD (3). SVD definieras som X på WSP. Eftersom SVD tillämpas på en textkorpus för LSA, X är en matris av ord av punkter, med celler som innehåller log av frekvensen av ett ord i en punkt viktas omvänt med entropi av ordet över alla punkter. Matrisen bryts ned av ett iterativt sparse-matris SVD-program (3) i tre matriser, två med ortonormala singular vektorer, W och P, som står för ord respektive stycken, respektive en diagonal S-matris av singular värden (kvadratrötter av eigenvärden). SVD ger en lösning som är unik upp till linjär omvandling. För mycket stora corpora, metoderna finner endast ungefärliga lösningar i dimensionaliteter långt under matrisens rang och, i praktiken, är vanligtvis begränsade till 200-400 dimensioner, av skäl som ska anges inom kort. Likheter mellan ord eller dokument mäts vanligen med deras cosinus (cos) i den resulterande högdimensionella semantiska rymden. Vektorer för nya stycken kan beräknas dynamiskt genom att helt enkelt lägga till vektorerna i deras ord, även om det efter stora tillägg eller ändringar i domänen kan vara nödvändigt att omkomputera det semantiska utrymmet, en process som tar flera timmar till dagar beroende på corpus storlek och datorkraft. Även om matematiskt påvisbara, formella egenskaper som upplösning, kompaktitet och separation av kluster inte är vad som är viktigast för visualisering (eller andra mänskliga användningsområden såsom informationshämtning) om de inte gav upphov till användbara mänskliga uppfattningar (eller förståelser). Därför har vi testat den underliggande textanalysens effektivitet genom att simulera mänskliga bedömningar av texternas likheter och jämföra dem med människors. Detta har gjorts på många sätt med goda resultat, enighet mellan maskin och människa så bra eller nästan lika bra som mellan två människor. Till exempel, efter utbildning på korpora som människor lärt sig eller kan ha, LSA-baserade simuleringar har klarat flera val vokabulär tester och läroboksbaserade slutprov på studentnivå (7). Den ofta påträffade effekten av dimensionalitet och förekomsten av en hög och starkt toppade optimal visades dramatiskt av prestanda på flera val objekt från Test av engelska som ett främmande språk. LSA valde det mest likartade alternativa ordet som det med den största cos till frågeordet. Bilda. 1 visar att dess prestanda vid 250-400 dimensioner var mycket bättre än vid två eller tre, Detta papper är resultatet av Arthur M. Sackler | Att förstå strukturen av en 300-plus dimensionell abstraktion är fortfarande en utmaning för textanalys samt visualisering REF. | 23,046,460 | From paragraph to graph: Latent semantic analysis for information visualization | {'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 11,621 |
Multi-layered nätverk har nyligen vuxit fram som en ny nätverksmodell, som naturligtvis befinner sig i många högeffektiva tillämpningsområden, allt från kritiska inter-beroende infrastrukturnätverk, biologiska system, organisation-nivå samarbeten, till plattformsoberoende e-handel, etc. Tvärskiktsberoende, som beskriver beroenden eller associationer mellan noder över olika skikt/nätverk, spelar ofta en central roll i många datautvinningsuppgifter på sådana flerskiktsnätverk. Ändå är det fortfarande en skrämmande uppgift att exakt veta det gränsöverskridande beroendet en tidigare. I detta dokument tar vi upp problemet med att dra slutsatsen att det saknas överskridande beroenden av flerskiktsnätverk. Nyckelidén bakom vår metod är att betrakta den som ett kollektivt problem med samverkande filtrering. Genom att formulera problemet till en legaliserad optimeringsmodell föreslår vi en effektiv algoritm för att hitta den lokala optiman med linjär komplexitet. Dessutom härleder vi en online-algoritm för att rymma nya noder, vars komplexitet är bara linjär wrt storleken på grannskapet av den nya noden. Vi utför omfattande empiriska utvärderingar för att visa de föreslagna metodernas effektivitet och ändamålsenlighet. | I REF föreslås en samarbetsbaserad filtreringsbaserad metod för att dra slutsatsen att beroenden mellan olika lager saknas i flerskiktsnätverk. | 14,169,799 | FASCINATE: Fast Cross-Layer Dependency Inference on Multi-layered Networks | {'venue': "KDD '16", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 11,622 |
En exakt karakterisering av dessa säkerhetsprinciper som kan verkställas genom program omskrivning ges. Detta avslöjar och korrigerar också problem i tidigare arbete, vilket ger en bättre karakterisering av dessa säkerhetsstrategier som kan verkställas av exekutionsövervakare samt en taxonomi av verkställbara säkerhetsstrategier. Vissa men inte alla klasser kan identifieras med kända klasser från beräkningskomplex teori. Tillstånd att göra digitala eller hårda kopior av delar eller allt detta arbete för personligt bruk eller klassrum beviljas utan avgift under förutsättning att kopior inte görs eller distribueras för vinst eller direkt kommersiell fördel och att kopior visar detta meddelande på första sidan eller första skärmen av en skärm tillsammans med den fullständiga citering. Upphovsrätt till delar av detta verk som ägs av andra än ACM måste hedras. Abstraktering med kredit är tillåten. För att kopiera på annat sätt, för att återpublicera, för att posta på servrar, för att omfördela till listor, eller för att använda någon komponent i detta verk i andra verk krävs förhandsgodkännande och/eller avgift. Tillstånd kan begäras från publikationsavdelningen, ACM, Inc., 1515 Broadway, New York, NY 10036 USA, fax: +1 (212) 869-0481, eller behö[email protected]. Omfattande system, såsom webbläsare, som laddar ner och kör applet-program, eller operativsystem, som innehåller drivrutiner för nya enheter, måste se till att deras förlängningar beter sig på ett sätt som överensstämmer med avsikterna hos systemdesignern och dess användare. När oacceptabla beteende går okontrollerat, skador kan resultera-inte bara till systemet själv utan också till anslutna system. Mekanismer för säkerhetstillsyn används för att förhindra oacceptabelt beteende. På senare tid har uppmärksamheten riktats mot att formellt karakterisera olika typer av tillsynsmekanismer och identifiera de klasser av säkerhetspolitik som de kan tillämpa [Ligatti et al. 2003; Schneider 2000; Viswanathan 2000 ]. Detta arbete gör det möjligt för oss att bedöma kraften hos olika mekanismer, välja mekanismer som är väl lämpade för särskilda säkerhetsbehov, identifiera typer av attacker som fortfarande kan lyckas även efter det att en viss mekanism har införts, och få meningsfulla fullständighetsresultat för nyligen utvecklade mekanismer. Den abstrakta modell för säkerhetspolitik som utarbetats av Schneider [2000] och förfinats av Viswanathan [2000] kännetecknar en kategori av politik som syftar till att fånga upp vad som effektivt skulle kunna genomdrivas genom övervakning av genomförandet. Avrättning övervakare är verkställighetsmekanismer som arbetar genom att övervaka de beräkningssteg av opålitliga program och ingripa när genomförandet är på väg att bryta säkerhetspolicyn som upprätthålls. Avrättningskontroll kan dock ses som ett exempel på den mer allmänna tekniken med programredigering, där verkställighetsmekanismen omvandlar opålitliga program innan de utförs för att göra dem oförmögna att bryta mot den säkerhetspolitik som ska verkställas. Så vitt vi vet har ingen karakterisering av den klass av säkerhetspolicyer som kan verkställas genom programredigering utvecklats. Sedan många system [Deutsch and Grant 1971; Small 1997; Wahbe et al. 1993; Schneider 2000a, 2000b; Evans och Twynman 1999] använder programredigering på sätt som går utöver vad som kan modelleras som en exekveringsövervakare, en karakterisering av den kategori av policyer som kan verkställas av programreskrivare skulle vara användbar. Så vi här utökar Schneiders och Viswanathans modell för att karakterisera denna nya klass av policys, RWenforceable policys, som motsvarar vad som effektivt kan genomdrivas genom program-rewriting. Avrättning övervakning kan ses som en instans av program-rewriting, så man skulle förvänta sig klass EM orig av politik som kännetecknas av Schneider och Viswanathan att vara en underklass av RW-genomförbar politik. Vi visar dock att detta förvånansvärt nog inte är fallet. Det finns vissa policyer i EM orig som inte är verkställbara av någon programredigerare. Vår analys av denna politik visar att de faktiskt inte kan verkställas av en avrättningsövervakare heller, och avslöjar att EM orig faktiskt utgör en övre gräns för den policyklass som kan verkställas av exekutionsövervakare i stället för en exakt gräns, som man tidigare trott. Vi visar sedan att det faktum att EM-orig skärs samman med RW-genomförbar politik ger exakt den politik som faktiskt kan genomföras av en verkställande övervakare, den EM-genomförbara politiken. Vi fortsätter på följande sätt. Vi fastställer en formell modell för säkerhetstillsyn i avsnitt 2. Nästa, i Avsnitt 3 använder vi den modellen för att karakterisera och relatera | I REF ges en karakterisering av de policyer som kan genomdrivas genom program omskrivning tekniker. | 15,456,713 | Computability classes for enforcement mechanisms | {'venue': 'TOPL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 11,623 |
Abstrakt. Prestandan hos parallella applikationer som körs på stora kluster är känd för att degraderas på grund av störningar i kärnans och demonens aktiviteter på enskilda noder, ofta kallade buller. I detta dokument fokuserar vi på en viktig klass av parallella applikationer, som upprepade gånger utför beräkningar, följt av en kollektiv operation såsom en barriär. Vi modellerar detta teoretiskt och visar på ett rigoröst sätt hur buller påverkar skalbarheten av sådana tillämpningar. Vi studerar tre naturliga och viktiga klasser av bullerfördelning: den exponentiella fördelningen, den tunga detaljfördelningen och Bernoulli-distributionen. Vi visar att systemen skalas väl i närvaro av exponentiellt buller, men prestandan går ner drastiskt i närvaro av tung-tailed eller Bernoulli buller. | I REF presenteras ett forskningsarbete som modellerar effekten av OS Jitter över skalbarheten av parallella tillämpningar, vilket visar att i närvaro av OS Jitter med exponentiell distribution visade systemet under studie den förväntade skalbarheten. | 11,723,993 | The Impact of Noise on the Scaling of Collectives: A Theoretical Approach | {'venue': 'HiPC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 11,624 |
När forskarnas karriärer utvecklas kan rörlighet göra det möjligt för forskare att hitta miljöer där de är mer produktiva och mer effektivt bidrar till att skapa ny kunskap. I detta dokument undersöker vi de avgörande faktorerna för rörligheten för elitakademiker inom life sciences, inklusive individuella produktivitetsåtgärder och för första gången, mått på kamratmiljön och familjefaktorer. Med hjälp av en unik data som sammanställts från karriären historia av 10,004 elitliv forskare i USA, målar vi en nyanserad bild av rörlighet. Prolific forskare är mer benägna att flytta, men denna impuls begränsas av nyligen NIH finansiering. Kvaliteten på kamratmiljöer både nära och långt är ytterligare en faktor som påverkar mobilitetsbeslut. Det är intressant att lägga märke till att vi också identifierar en viktig roll för familjens struktur. Forskare verkar vara ovilliga att flytta när deras barn är mellan 14-17 år, vilket är när amerikanska barn vanligtvis är inskrivna i mellanstadiet eller gymnasiet. Detta tyder på att även elitforskare tycker att det är kostsamt att störa sina barns sociala nätverk och ta hänsyn till dessa kostnader när de fattar karriärbeslut. | Azoulay m.fl. REF undersöker de yrkesmässiga och personliga bestämningsfaktorerna för beslutet att flytta till en ny institution och konstaterar att forskare löper större risk att flytta när de är mycket produktiva och när deras lokala medarbetare är allt färre och mindre skickliga än deras avlägsna medarbetare, samtidigt som de finner det kostsamt att störa sina barns sociala nätverk. | 4,522,430 | The mobility of elite life scientists: Professional and personal determinants | {'venue': 'Research policy', 'journal': 'Research policy', 'mag_field_of_study': ['Economics', 'Sociology', 'Medicine']} | 11,625 |
Naturkatastrofer och terroristhandlingar har stor potential att störa kommunikationssystemen vid nödsituationer. Dessa nätverk för nödkommunikation omfattar förstahandssvar, mobil, fast telefoni och räddningstjänster som t.ex. 911, 112 eller 999. Utan dessa nödvändiga resurser för nödkommunikation kommer sök-, räddnings- och återhämtningsinsatser under en katastrofal händelse att allvarligt försvagas. Plattformar med hög höjd skulle kunna utrustas med telekommunikationsutrustning och användas för att stödja dessa kritiska kommunikationsuppdrag när den katastrofala händelsen inträffar. Med förmågan att kontinuerligt vara på stationen, HAPs ger utmärkta alternativ för att ge akut täckning över högriskområden innan katastrofala händelser inträffar. HAP kan också ge förbättrad 911 kapacitet med hjälp av antingen GPS eller referensstationer. I detta dokument föreslås en potentiell infrastruktur för nödkommunikation och en metod för att uppskatta trafikmönster för nödkommunikationssystem för en katastrofal händelse. | Författaren till REF undersökte hur förstahandssvar och larmtjänster som t.ex. 911 eller 112 kunde stödjas av HAP. | 28,529,456 | High Altitude Platforms for Disaster Recovery: Capabilities, Strategies, and Techniques for Emergency Telecommunications | {'venue': None, 'journal': 'EURASIP Journal on Wireless Communications and Networking', 'mag_field_of_study': ['Computer Science']} | 11,626 |
Djupa konvolutionella neurala nätverk (CNN) har blivit den mest lovande metoden för objektigenkänning, upprepade gånger visar rekord bryta resultat för bildklassificering och objektdetektering under de senaste åren. Ett mycket djupt CNN omfattar dock i allmänhet många lager med miljontals parametrar, vilket gör lagringen av nätverksmodellen till extremt stor. Detta förbjuder användning av djupa CNNs på resurs begränsad hårdvara, särskilt mobiltelefoner eller andra inbyggda enheter. I detta dokument tar vi itu med denna modelllagringsfråga genom att undersöka informationsteoretiska vektorkvantiseringsmetoder för att komprimera CNN:s parametrar. I synnerhet har vi funnit i termer av komprimera de mest lagring krävande täta anslutna lager, vektorquantization metoder har en tydlig vinst över befintliga matris factorization metoder. Att helt enkelt applicera k-medelskluster på vikterna eller genomföra produktquantization kan leda till en mycket bra balans mellan modellstorlek och igenkänningsnoggrannhet. För den 1000-kategori klassificering uppgift i ImageNet utmaning, kan vi uppnå 16-24 gånger kompression av nätverket med endast 1% förlust av klassificering noggrannhet med hjälp av den senaste CNN. | REF ) tillämpa k-means klusterering på vikterna och använda kvantisering för att uppnå en balans mellan modellstorlek och igenkänning noggrannhet. | 6,251,653 | Compressing Deep Convolutional Networks using Vector Quantization | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 11,627 |
Abstract-Architecting mjukvarusystem enligt service-orienterade paradigm och design runtime själv-anpassningsbara system är två relevanta forskningsområden i dagens programvaruteknik. I detta dokument tar vi upp frågor som ligger i skärningspunkten mellan dessa två viktiga områden. För det första presenterar vi en karakterisering av problemet med självanpassning av serviceorienterade system, vilket ger en referensram där våra och andra metoder kan klassificeras. Därefter presenterar vi MOSES, en metodologi och ett programvaruverktyg som implementerar den för att stödja QoS-driven anpassning av ett serviceorienterat system. Det fungerar i en viss region av det identifierade problemområdet, vilket motsvarar scenariot där ett serviceorienterat system som är utformat som en sammansatt tjänst behöver upprätthålla en trafik av förfrågningar som genereras av flera användare. MOSES integrerar inom en enhetlig ram olika anpassningsmekanismer. På så sätt uppnår den större flexibilitet när det gäller att möta olika driftmiljöer och de eventuellt motstridiga QoS-kraven hos flera samtidiga användare. Experimentella resultat som erhållits med hjälp av en prototyp av MOSES visar hur effektivt det föreslagna tillvägagångssättet är. | Ett ramverk för QoS-driven anpassning för tjänstesammansättning presenteras i REF. | 6,353,654 | MOSES: A Framework for QoS Driven Runtime Adaptation of Service-Oriented Systems | {'venue': 'IEEE Transactions on Software Engineering', 'journal': 'IEEE Transactions on Software Engineering', 'mag_field_of_study': ['Computer Science']} | 11,628 |
Målinriktad biomedicinsk forskning bygger i allt högre grad på integrering av information från flera heterogena datakällor. Trots att strukturella och terminologiska aspekter av driftskompatibiliteten är beroende av varandra och bygger på en gemensam uppsättning krav, tar de nuvarande insatserna vanligtvis itu med dem isolerat. Vi föreslår en enhetlig ontologibaserad kunskapsram för att underlätta interoperabilitet mellan heterogena källor och undersöka om det är en genomförbar metod att använda LexEVS terminologiserver. Material och metoder Vi utvecklade ett ramverk baserat på en ontologi, den allmänna informationsmodellen (GIM), för att förena strukturella modeller och terminologier, tillsammans med relevanta kartuppsättningar. Detta gav en enhetlig tillgång till dessa resurser inom LexEVS för att underlätta interoperabilitet mellan olika komponenter och datakällor från genomförandet av arkitekturer. Resultat Vårt enhetliga ramverk har testats inom ramen för EU:s ramprogram 7 TRANSForm-projekt, där det användes för att uppnå dataintegration i en retrospektiv diabeteskohortstudie. GIM var framgångsrikt omedelbar i TRANSFoRm som den kliniska dataintegration modellen, och nödvändiga kartläggningar skapades för att stödja effektiv informationssökning för programvaruverktyg i projektet. Slutsatser Vi presenterar en ny, enhetlig strategi för att ta itu med interoperabilitetsutmaningar i heterogena datakällor, genom att representera strukturella och semantiska modeller inom en ram. System som använder denna arkitektur kan enbart förlita sig på den GIM som abstrakterar över både struktur och kodning. Informationsmodeller, terminologier och kartläggningar lagras alla i LexEVS och kan nås på ett enhetligt sätt (implementing the HL7 CTS2 service functional model). Systemet är flexibelt och bör minska de insatser som krävs från datakällornas personal för att genomföra och hantera integrationen. | Query Workbench Tool använder Clinical Data Integration Model (CDIM) REF som en mellanliggande standard ontology, så att den kan stödja frågor över flera heterogena datakällor. | 2,361,933 | A unified structural/terminological interoperability framework based on LexEVS: application to TRANSFoRm | {'venue': 'Journal of the American Medical Informatics Association : JAMIA', 'journal': 'Journal of the American Medical Informatics Association : JAMIA', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 11,629 |
Den breda användningen av lokaliseringsbaserade sociala nätverk (LBSN) har möjliggjort möjligheter till bättre lokaliseringsbaserade tjänster genom rekommendationer från Point-of-Interest (POI). I själva verket är problemet med POI rekommendation att ge personliga rekommendationer av platser av intresse. Till skillnad från traditionella rekommendationsuppgifter, POI rekommendation är personlig, locationaware, och sammanhang beroende. Mot bakgrund av denna skillnad föreslås i detta dokument ett ämnes- och lokaliseringsmedvetet POI-rekommenderingssystem genom att man utnyttjar tillhörande text- och kontextinformation. I synnerhet utnyttjar vi först en aggregerad latent Dirichlet allocation (LDA) modell för att lära sig användarnas intresseämnen och dra slutsatsen att POI är intressant genom att mining textual information i samband med POI. Därefter föreslås en ämnes- och platsmedveten probabilistisk matris factorization (TL-PMF) metod för POI rekommendation. Ett unikt perspektiv för TL-PMF är att ta hänsyn till både i vilken utsträckning ett användarintresse matchar POI när det gäller ämnesfördelning och yttrandena från POI. Slutligen visar experiment på verkliga LBSNs data att den föreslagna rekommendationsmetoden överträffar toppmoderna probabilistiska latent faktormodeller med en betydande marginal. Vi har också studerat effekten av personliga intresseämnen och word-of-mouth åsikter på POI rekommendationer. | Liu m.fl. REF studerade effekten av POI-relaterade taggar för POI-rekommendation med en aggregerad LDA- och matrisfaktoriseringsmetod. | 2,168,938 | Point-of-Interest Recommendation in Location Based Social Networks with Topic and Location Awareness. | {'venue': 'SDM', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 11,630 |
Abstract-I detta dokument överväger vi problemet med schemaläggning för energieffektiv väginfrastruktur. I vissa scenarier kan man med stor noggrannhet förutsäga var fordonet befinner sig, och denna information kan användas för att minska kostnaderna för energikommunikation mellan infrastruktur och fordon. Offline schemaläggning resultaten presenteras först som ger lägre gränser på den energi som behövs för att uppfylla ankommande fordons kommunikationskrav. Vi visar att det paketbaserade schemaläggningsfallet kan formuleras som en generalisering av det klassiska schemaläggningsproblemet för en maskin med ett försenat straff, som kallas α-Early-Tardiness. Ett bevis ges som visar att även under en enkel avståndsberoende exponentiell radiobana förlust antagande, problemet är NP-fullständig. Återstoden av tidningen fokuserar sedan på tids-lot-baserad schemaläggning. Vi formulerar detta problem som en Mixed-Integer Linear Program (MILP) som visas vara lösbar i polynom tid med hjälp av en föreslagen minimal kostnad flöde graf konstruktion. Tre energieffektiva algoritmer för trafikplanering online införs sedan för vanliga fordonsscenarier där fordonets position är starkt deterministisk. Den första, dvs. Greedy Minimum Cost Flow (GMCF), motiveras av vår lägsta kostnad flöde graf formulering. De andra två algoritmerna har minskat komplexiteten jämfört med GMCF. Den Närmaste Fastest Set (NFS) schemaläggaren använder fordonets läge och hastighetsingångar för att dynamiskt schemalägga kommunikationsaktiviteten. Statisk schemaläggare (SS) utför samma uppgift med hjälp av en enkel positionsbaserad viktningsfunktion. Resultaten från en rad olika experiment visar att de föreslagna schemaläggningsalgoritmerna fungerar bra jämfört med de lägre energigränserna i fordon där banförluster har en dominerande deterministisk komponent så att energikostnaderna kan uppskattas. Våra resultat visar också att nästan optimala resultat är möjliga men kommer med ökade beräkningstider jämfört med våra heuristiska algoritmer. | Hammad m.fl. REF använder denna information för att minska energikostnaden för informationsspridning via nedlänk mellan infrastruktur och fordon. | 597,293 | Downlink Traffic Scheduling in Green Vehicular Roadside Infrastructure | {'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science']} | 11,631 |
Abstract-Automatisk klassificering av känslor är viktigt för många tillämpningar som opinionsbrytning, opinionssammanfattning, kontextuell reklam och marknadsanalys. Typiskt, känsloklassificering har modellerats som problemet med att träna en binär klassificerare med hjälp av recensioner annoterade för positiva eller negativa känslor. Känslor uttrycks dock på olika sätt inom olika områden, och det är kostsamt att notera korpora för alla möjliga intresseområden. Använda en känsla klassificerare tränas med hjälp av märkta data för en viss domän för att klassificera känslan av användarrecensioner på en annan domän ofta resulterar i dålig prestanda eftersom ord som förekommer i tåget (källa) domän kanske inte visas i test (mål) domänen. Vi föreslår en metod för att komma till rätta med detta problem i klassificeringen av gränsöverskridande känslor. För det första skapar vi en känslokänslig distributions-thesaurus med hjälp av märkta data för källdomänerna och omärkta data för både käll- och måldomäner. Sentimentkänslighet uppnås i tesaurusen genom att inkorporera dokumentnivåkänslor i de sammanhang vektorer som används som grund för att mäta den fördelningsmässiga likheten mellan ord. Därefter använder vi den skapade tesaurusen för att utöka funktionen vektorer under tåg- och testtider i en binär classifier. Den föreslagna metoden överträffar avsevärt många utgångsvärden och avkastningsresultat som är jämförbara med tidigare föreslagna cross-domain sense klassificeringsmetoder på en referensdatauppsättning som innehåller Amazon användarrecensioner för olika typer av produkter. Vi genomför en omfattande empirisk analys av den föreslagna metoden för anpassning av domäner med en och flera källor, oövervakad och övervakad domänanpassning och många liknande åtgärder för att skapa den känslokänsliga tesaurusen. Dessutom visar våra jämförelser mot SentiWordNet, en lexisk resurs för ordpolaritet, att den skapade känslokänsliga tesaurusen exakt fångar ord som uttrycker liknande känslor. | Domänanpassning är fortfarande en utmaning för lexikonbaserade tillvägagångssätt, och Bollgala et al. i REF beskriva en lösning med hjälp av en distribuerad tesaurus för att expandera vektorer under utbildning och testfaser för en binär klassificering. | 14,508,922 | Cross-Domain Sentiment Classification Using a Sentiment Sensitive Thesaurus | {'venue': 'IEEE Transactions on Knowledge and Data Engineering', 'journal': 'IEEE Transactions on Knowledge and Data Engineering', 'mag_field_of_study': ['Computer Science']} | 11,632 |
Meduppmärksamhet är mycket effektiva mekanismer för att uppmärksamma tillämpningar som matchar text. Med Attention gör det möjligt att lära sig parvis uppmärksamhet, dvs. lära sig att delta baserat på beräkning av affinitetspoäng på ordnivå mellan två dokument. Problem med textmatchning kan dock finnas på antingen symmetriska eller asymmetriska områden. Till exempel är identifikation av parafraser en symmetrisk uppgift medan klassificering av frågor och svar betraktas som asymmetriska domäner. I detta dokument hävdar vi att co-attention modeller inom asymmetriska domäner kräver olika behandling i motsats till symmetriska domäner, d.v.s. ett begrepp om riktning på ordnivå bör införlivas samtidigt som man lär sig likhetspoäng på ordnivå. Därför är den standard inre produkten i verkliga utrymme som vanligen används i co-attention inte lämplig. Detta papper utnyttjar attraktiva egenskaper hos det komplexa vektorutrymmet och föreslår en co-attention mekanism baserad på den komplexa värdesatta inre produkten (hermitiska produkter). Till skillnad från den verkliga punktprodukten är punktprodukten i komplext utrymme asymmetrisk eftersom den första produkten konjugeras. Förutom modellering och kodning av riktningar förstärker vårt föreslagna tillvägagångssätt också processen för representationsinlärning. Omfattande experiment på fem textmatchande referensdata visar hur effektiv vår strategi är. | I REF föreslås en mekanism för medbestämmande baserad på hermitiska produkter för asymmetriska problem med textmatchning. | 51,605,574 | Hermitian Co-Attention Networks for Text Matching in Asymmetrical Domains | {'venue': 'IJCAI', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 11,633 |
Abstrakta GPU och CPU:er har fundamentalt olika arkitekturer. Det är konventionell visdom att GPUs kan påskynda endast de applikationer som uppvisar mycket hög parallellism, särskilt vektor parallellism såsom bildbehandling. I denna uppsats utforskar vi möjligheten att använda GPUs för värdeförutsägelse och spekulativt utförande: vi implementerar teknik för programvaruvärdesförutsägelse för att accelerera program med begränsad parallellism, och teknik för programvaruspekulation för att accelerera program som innehåller runtime parallellism, som är svåra att parallellisera statiskt. Våra experimentresultat visar att på grund av de relativt höga overhead, kartläggning programvara värde förutsägelse tekniker på befintliga GPUs kanske inte ger någon omedelbar prestandavinst. Å andra sidan, även om programvara spekulation tekniker införa vissa overhead också, kartläggning dessa tekniker till befintliga GPUs redan kan ge viss prestanda vinst över CPU. Baserat på dessa observationer undersöker vi maskinvaruimplementeringen av spekulativa utförandeoperationer på GPU-arkitekturer för att minska programvaruprestanda overheads. Resultaten tyder på att hårdvaruförlängningarna resulterar i nästan tiofaldig minskning av kontrollen divergerande sekventiella operationer med endast måttlig hårdvara (5-8%) och strömförbrukning (1-5%) overheads. | REF visade möjligheten att använda GPU:er för spekulativ körning med hjälp av en GPU-liknande arkitektur på FPGA:er. | 12,001,730 | Value Prediction and Speculative Execution on GPU | {'venue': 'International Journal of Parallel Programming', 'journal': 'International Journal of Parallel Programming', 'mag_field_of_study': ['Computer Science']} | 11,634 |
Robust visuell lokalisering under ett brett spektrum av visningsförhållanden är ett grundläggande problem i datorseendet. Att hantera de svåra fallen av detta problem är inte bara mycket utmanande utan också av stor praktisk relevans, t.ex. inom ramen för den livslånga lokaliseringen för förstärkt verklighet eller autonoma robotar. I detta dokument föreslår vi en ny strategi som bygger på en gemensam geometrisk och semantisk förståelse av världen och som gör det möjligt för den att lyckas under förhållanden där tidigare strategier misslyckades. Vår metod utnyttjar en ny generativ modell för deskriptorinlärning, tränad på semantisk scenkomplettering som en hjälpuppgift. De deskriptorer som blir resultatet är robusta för att missa observationer genom kodning av geometrisk och semantisk information på hög nivå. Experiment på flera utmanande storskaliga lokaliseringsdata visar tillförlitlig lokalisering under extrema synvinklar, belysning och geometriska förändringar. | För att uppnå robust visuell lokalisering under ett brett spektrum av visningsförhållanden har semantisk information också utnyttjats i REF. | 4,853,777 | Semantic Visual Localization | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 11,635 |
Abstract-Den kommande JPEG XT är under utveckling för High Dynamic Range (HDR) bildkomprimering. Denna standard kodar en Low Dynamic Range (LDR)-version av HDR-bilden som genereras av en Tone-Mapping Operator (TMO) med den konventionella JPEG-kodningen som ett baslager och kodar den extra HDR-informationen i ett restlager. I detta papper studeras prestandan hos de tre profilerna av JPEG XT (kallas profilerna A, B och C) med hjälp av en testuppsättning på sex HDR-bilder. Fyra TMO-tekniker användes för bildgenerering i basskiktet för att bedöma TMO:s påverkan på prestandan hos JPEG XT-profiler. Därefter kodades HDR-avbildningarna med olika kvalitetsnivåer för basskiktet och för restskiktet. Prestandan för varje profil utvärderades med hjälp av Signal to Buller Ratio (SNR), Feature SIMilarity Index (FSIM), Root Mean Square Error (RMSE) och CIEDE2000 färgskillnad objektiva mått. Utvärderingsresultaten visar att profilerna A och B leder till liknande mättnad av kvalitet vid högre bithastigheter, medan profil C inte uppvisar någon mättnad. Profilerna B och C verkar vara mer beroende av TMO som används för basskiktet jämfört med profil A. | Arbetet av Pinheiro et al. REF jämförde fyra tonomslagsoperatörer i hur de påverkar prestandan hos tre profiler av JPEG XT, när de används för att generera basskiktet av en komprimerad bild. | 9,199,318 | Performance evaluation of the emerging JPEG XT image compression standard | {'venue': '2014 IEEE 16th International Workshop on Multimedia Signal Processing (MMSP)', 'journal': '2014 IEEE 16th International Workshop on Multimedia Signal Processing (MMSP)', 'mag_field_of_study': ['Computer Science']} | 11,636 |
Ocation medvetenhet är viktigt för många genomträngande datorapplikationer. Tyvärr gör ingen platssensor perfekta mätningar eller fungerar bra i alla situationer. Motiveringen bakom den här artikeln är således tvåfaldig. För det första tror vi att den genomträngande datagemenskapen kommer att dra nytta av en kortfattad undersökning av Bayesian-filterteknik. Eftersom ingen sensor är perfekt, representerar och arbetar på osäkerhet med ett statistiskt verktyg som Bayes filter är nyckeln i alla system med hjälp av många sensorer. För det andra, att uppskatta ett objekts plats är utan tvekan den mest grundläggande avkänningsuppgiften i många genomträngande datorscenarier. Det är alltså en naturlig domän där man kan illustrera tillämpningen av Bayesianska filtertekniker. Representerar platser statistiskt möjliggör ett enhetligt gränssnitt för platsinformation. Detta gör att vi kan skriva applikationer oberoende av de sensorer som används även vid användning av mycket olika sensortyper, såsom GPS och infraröda märken. (En jämförande undersökning av lokaliseringssystem förekommer på annat håll. 1 ) Här illustrerar vi sammansmältning av sensordata från ultraljud och infraröda taggar. Vi diskuterar också hur man kan kombinera högupplöst platsinformation från anonyma laserseriesökare med lågupplösta lägessensorer som ger identifiering. Bayes filter 2 probabilistically uppskatta ett dynamiskt system tillstånd från bullriga observationer. I platsuppskattning för genomträngande databehandling är staten en persons eller ett objekts plats, och platssensorer ger observationer om tillståndet. Tillståndet kan vara en enkel 2D-position eller en komplex vektor som inkluderar 3D-position, tonhöjd, rulle, gir och linjära och rotationshastigheter. Bayes filter representerar tillståndet vid tiden t av slumpmässiga variabler x t. Vid varje tidpunkt, en sannolikhetsfördelning över x t, kallas tro, Bel(x t ), representerar osäkerheten. Bayes filter syftar till att sekventiellt uppskatta sådana övertygelser över det tillstånd utrymme som är beroende av all information som finns i sensordata. För att illustrera, låt oss anta att sensorn data består av en sekvens av tidsindexerade sensor observationer z 1, z 2,..., z t. Tron Bel(x t ) definieras sedan av den bakre densiteten över den slumpmässiga variabeln x t konditionerade på alla sensordata som finns tillgängliga vid tiden t: Grovt taget, tron svarar på frågan, "Vad är sannolikheten att personen är på plats x om historien om sensormätningar är z 1, z 2,..., z t?" för alla möjliga platser x. I allmänhet ökar komplexiteten i att beräkna sådana bakre densiteter exponentiellt över tiden, eftersom Bayesian-filter tekniker ger ett kraftfullt statistiskt verktyg för att hjälpa till att hantera mätosäkerhet och utföra multisensor fusion och identitetsbedömning. Författarna undersöker Bayes filtrerar implementationer och visar deras tillämpning på verkliga plats-skattning uppgifter som är vanliga i genomträngande dator. | Se REF för en undersökning av olika implementationer av Bayesianska filter och hur de tillämpas på platsuppskattning med ultraljud och infraröd teknik. | 15,877,500 | Bayesian filtering for location estimation | {'venue': 'IEEE Pervasive Computing', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 11,637 |
Abstract-Peer-till-peer nätverk använder ofta incitament politik för att uppmuntra samarbete mellan noder. Sådana system är i allmänhet känsliga för samverkan mellan grupper av användare för att få orättvisa fördelar jämfört med andra. Medan tekniker har föreslagits för att bekämpa web spam maskopi, finns det få mätningar av verklig maskopi i utplacerade system. I det här dokumentet rapporterar vi analys- och mätresultat av användarsamverkan i Maze, ett storskaligt fildelningssystem som bygger på peer-to-peer med en icke-net-nollpunktsbaserad incitamentspolicy. Vi söker efter samverkan beteende genom att undersöka kompletta användarloggar, och stegvis förfina en uppsättning collusion detektorer för att identifiera gemensamma samverkan mönster. Vi hittar maskopimönster som liknar dem som finns i webbspamming. Vi utvärderar hur föreslagna ryktessystem skulle fungera på Maze-systemet. Våra resultat kan hjälpa till att styra utformningen av mer robusta incitamentsprogram. | Vi har funnit en aktiv samverkan i Maze REF, vars resultat motiverar detta arbete. | 2,855,446 | An Empirical Study of Collusion Behavior in the Maze P2P File-Sharing System | {'venue': "27th International Conference on Distributed Computing Systems (ICDCS '07)", 'journal': "27th International Conference on Distributed Computing Systems (ICDCS '07)", 'mag_field_of_study': ['Computer Science']} | 11,638 |
Multiview LSA (MVLSA) är en generalisering av Latent Semantic Analysis (LSA) som stöder fusion av godtyckliga vyer av data och bygger på Generalized Canonical Correlation Analysis (GCCA). Vi presenterar en algoritm för snabb ungefärlig beräkning av GCCA, som i kombination med metoder för hantering av saknade värden, är tillräckligt allmänt för att approximera några nya algoritmer för att framkalla vektor representationer av ord. Experiment över en omfattande samling test-set visar vår strategi för att vara konkurrenskraftig med den senaste tekniken. | REF tillämpa generaliserad kanonisk korrelationsanalys (GCCA) på en ensemble av ordvektorer. | 2,021,980 | Multiview LSA: Representation Learning via Generalized CCA | {'venue': 'HLT-NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 11,639 |
Sammanfattning av denna webbsida: I den här artikeln studeras hur en viss klass av fysiska begränsningar kan representeras av en kontinuerlig uppsättning orienteringar och hur denna representation är särskilt lämplig för att representera de begränsningar som orsakas av revoluta och sfäriska leder. Dessutom visas hur detta kan användas för att representera den passiva ledernas frihet. Det viktigaste bidraget från tidningen är att det erkänns att vid samarbetsmanipulering kan den framtagna representationen användas för att visa hur införandet av passiva leder i slutet av en kinematisk kedja ger samma fördelar som funktionell redundans för enskilda manipulatorer. Detta används för att förbättra manipulabilitet och prestanda. I likhet med funktionell redundans är den passiva ledens frihet uppgiftsberoende och typen av passiv led måste väljas med tanke på uppgiften. På grund av denna iakttagelse föreslås i detta dokument att den sista passiva leden skall betraktas som en del av verktyget. Manipulatorn kan då vara en vanlig industriell manipulator med funktionell redundans i specifikationerna för orienteringen av den sista leden. Det visas att genom att införa en passiv led i slutet av manipulatorkedjan bibehålls eller ökas den dynamiska lastkapaciteten medan varje manipulator ges en frihet som motsvarar funktionell redundans. Manipulatorernas arbetsyta ökas också. | Funktionella uppsägningar med hjälp av en passiv sista joint har analyserats i samband med samarbetsmanipulering REF, där den gemensamma anses vara en del av det greppade föremålet ("verktyget"), och fördelarna med denna typ av manipulation visas. | 18,552,126 | Considering Passive Joints in Cooperative Manipulation as Functional Redundancy | {'venue': None, 'journal': 'IFAC Proceedings Volumes', 'mag_field_of_study': ['Engineering']} | 11,640 |
Huk, Alexander C. och David J. Heeger. Uppgiftsrelaterad modulering av visuell cortex. J Neurophysiol 83: [3525][3526][3527][3528][3529][3530][3531][3532][3533][3534][3535][3536] 2000. Vi utförde en rad experiment för att kvantifiera effekten av uppgiftsprestanda på kortikal aktivitet i tidiga visuella områden. Funktionell magnetisk resonanstomografi (fMRI) användes för att mäta kortikal aktivitet i flera kortikala synområden inklusive primär visuell cortex (V1) och MT-komplexet (MT) som försökspersoner utförde en mängd olika visuella psykofysiska uppgifter på tröskelnivå. Att utföra hastighet, riktning och kontrastdiskriminering gav upphov till kraftiga moduleringar av kortikal aktivitet. Ett experiment testades till exempel för selektiv modulering av MT på grund av att försökspersonerna alternerade mellan att utföra uppgifter som rör kontrast- och hastighetsdiskriminering. MT-svaren anpassades i fas med de tidsperioder under vilka försökspersonerna utförde arbetet med hastighetsdiskriminering, dvs. MT-aktiviteten var högre vid hastighetsdiskriminering än vid kontrastdiskriminering. Aktivitetsrelaterade moduleringar var konsekventa över upprepade mätningar för varje försöksperson, men signifikanta individuella skillnader observerades mellan försökspersonerna. Tillsammans tyder resultaten på 1) att specifika förändringar i det kognitiva/beteendemässiga tillståndet hos ett försöksperson kan utöva selektiv och tillförlitlig modulering av kortikal aktivitet i tidig visuell cortex, även i V1; 2) att det finns betydande individuella skillnader i dessa moduler; och 3) att visuella områden och vägar som är mycket känsliga för små förändringar i en given stimulansfunktion (såsom kontrast eller hastighet) selektivt moduleras under diskriminering bedömningar av denna egenskap. Öka vinsten av relevanta neuronala signaler på detta sätt kan förbättra deras signal-till-brus för att hjälpa till att optimera uppgiftens prestanda. Nya neuroimaging experiment har visat att kortikal aktivitet i tidiga visuella områden beror inte bara på vilken stimulans presenteras, men också på vilken uppgift ämnet utför (ibland kallas effekter av äventyrlig uppmärksamhet). Instruera försökspersoner att utföra en diskriminering på ett specifikt inslag i en stimulans kan selektivt öka aktiviteten i sekundära (extraster) visuella områden som tros bearbeta information som är relevant för uppgiften. Till exempel svarar det mänskliga MT/MST-komplexet (MT till exempel, även känt som V5) starkare på rörelse än stationär stimuli och är också mer aktivt när försökspersoner instrueras att göra bedömningar om stimulanshastighet än när de instrueras att göra bedömningar om andra funktioner som färg eller form (Corbetta et al. 1990 (Corbetta m.fl.) , 1991 ) (se DISCUSSION för ytterligare hänvisningar). Dessa effekters specificitet innebär att de inte bara återspeglar förändringar i observatörens allmänna upphetsningsnivå. I stället tyder uppgiftsspecifikitet på ett nära samband mellan specifika uppgifter och specifika hjärnområden eller hjärnvägar. Vi betonar dock att de kortikala mekanismer som ligger till grund för uppgiftsspecifik, äventyrlig uppmärksamhet kan skilja sig från den underliggande rumsliga uppmärksamheten. Även primär visuell cortex (V1) kan påverkas av uppgiftskrav. V1 aktivitet kan moduleras genom att instruera försökspersoner att omväxlande "övervaka" och "passivt visa" en stimulans (Watanabe et al. 1998 a)............................................................................. Även om dessa och andra resultat bekräftar att tidiga visuella områden påverkas av observatörens beteendetillstånd, är de olika typerna av uppgiftsinstruktioner, stimuli och experimentella konstruktioner otillräckliga för att ge en tydlig och systematisk förståelse för hur och när uppgiftsprestanda kan modulera kortikal aktivitet i tidiga visuella områden. För att klargöra och kvantifiera sambanden mellan uppgiftsprestanda och aktivitet i visuell cortex, utförde vi en rad funktionella magnetisk resonanstomografi (fMRI) experiment med följande mål: 1) att replikera aktivitetsrelaterade moduleringar av V1 med uppgiftsinstruktioner som utövar en tydlig kontroll över personens beteendetillstånd (dvs. att använda en 2-interval forcedchoice-tröskel-nivå diskriminering uppgift, i motsats till att instruera försökspersonerna att bara delta); 2) att testa om uppgiftsprestanda minskar variabiliteten i svaren genom att kontrollera personens uppmärksamhetstillstånd; 3) att utvärdera konsekvensen i uppgiftsrelaterade moduleringar inom och mellan försökspersoner; 4) att replikera rörelsespecificiteten hos uppgiftsrelaterade moduleringar i MT på Malta; och 5) att testa för specificitet av uppgiftsrelaterad modulering i V1 och andra tidiga visuella områden. M E T H O D S Stimuli var antingen slumpmässiga punktfält eller radialgaller som flyttades med en genomsnittlig hastighet på antingen 8 eller 0°/s. För att minimera ögonrörelser fixerade försökspersonerna ett litet högkontrastfixeringsmärke (1°square, centrerat i displayen) som visades kontinuerligt under varje scanning. Dessutom flyttade gallren och prickarna radiellt inåt/utåt (mot eller bort) från fixeringsmärket och undvek en enda kraftfull optokinetisk stimulans. Dötter. Dot stimuli var ett fält av 75 vita prickar på en svart bakgrund placeras slumpmässigt inuti en cirkulär bländare som subtated 14° av visuell vinkel. Varje punkt formades som en tvådimensionell (2D) gaussian (med standardavvikelse 0.15° visuell vinkel). Punkterna flyttades radiellt inåt eller utåt från fixeringsmärket. VÄXTER. Radial sinusformade galler (koncentriska ringar) subtenderar den centrala 14° av visuell vinkel som förflyttas inåt eller utåt från fixeringsmärket. Den rumsliga frekvensen varierade slumpmässigt (0,4-0,6 cykler/djup). Temporal frekvens valdes, enligt den randomiserade rumsliga frekvensen, för att producera önskad hastighet. Försökspersonerna utförde en av fyra uppgifter (hastighetsdiskriminering, riktningsdiskriminering, kontrastdiskriminering eller passiv fixering) under varje block av varje fMRI-skanning. Alla fyra uppgifterna utfördes i | Exempelvis är området MT+ mer aktivt under en hastighetsdiskrimineringsuppgift medan området V1 visar ökad aktivering under en kontrastdiskrimineringsuppgift REF. | 15,823,711 | Task-Related Modulation of Visual Cortex | {'venue': 'Journal of Neurophysiology', 'journal': None, 'mag_field_of_study': ['Psychology', 'Medicine']} | 11,641 |
Abstract-Denna artikel introducerar en ny familj av decentraliserade caching politik, som gäller för trådlösa nätverk med ändlig lagring vid edge-nodes (stationer). Dessa policyer, som är baserade på principen om att ersätta de allra senast använda, kallas här för rumsliga multi-LRU. De uppdaterar cacheinventeringar på ett sätt som ger innehållsmångfald för användare som omfattas av, och därmed har tillgång till, mer än en station. Två varianter föreslås, multi-LRU-One och -Alla, som skiljer sig i antalet repliker som infogas i de inblandade caches. Vi analyserar deras prestanda under två typer av trafikefterfrågan, den oberoende referensmodellen (IRM) och en modell som uppvisar temporal lokalitet. För IRM föreslår vi en Che-liknande approximation för att förutsäga sannolikheten för träff, vilket ger mycket korrekta resultat. Numeriska utvärderingar visar att multi-LRU:s resultat ökar ju fler täckningsområden som ökar, och att den ligger nära den centraliserade politikens resultat, när multitäckningen är tillräcklig. För IRM-trafik är multi-LRU-One att föredra framför multi-LRU-All, medan när trafiken uppvisar temporal lokalitet -All variation kan prestera bättre. Båda variationerna överträffar den enkla LRU. När popularitetskunskapen inte är korrekt kan den nya politiken fungera bättre än den centraliserade. | I synnerhet tar Giovanidis och Avranas Ref hänsyn till två system: LRU-ONE och LRU-ALL. | 16,690,694 | Spatial multi-LRU: Distributed Caching for Wireless Networks with Coverage Overlaps | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 11,642 |
Automatisk taligenkänning (ASR)-utgångar innehåller ofta olika störningar. Det är nödvändigt att avlägsna dessa störningar före bearbetningen av nedströmsuppgifter. I detta dokument föreslås en effektiv metod för att upptäcka störningar som bygger på höger-till-vänster-övergångsbaserad tolkning, som effektivt kan identifiera störningar och hålla ASR-utgångar grammatiska. Vår metod utnyttjar en global syn för att fånga långdistansberoenden för disfluency detektering genom att integrera en rik uppsättning syntaktiska och disfluency funktioner med linjär komplexitet. De experimentella resultaten visar att vår metod överträffar state-of-the-art arbete och uppnår en 85,1% f-score på den vanliga engelska växeln testuppsättningen. Vi tillämpar också vår metod för att interna kommenterade kinesiska data och uppnå en betydligt högre f-poäng jämfört med basvärdet för CRF-baserad metod. | I Ref föreslogs en höger-till-vänster-övergångsbaserad gemensam metod och uppnådde de senaste resultaten jämfört med tidigare syntaxbaserade metoder. | 11,421,759 | Efficient Disfluency Detection with Transition-based Parsing | {'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 11,643 |
Med den senaste tidens ökande popularitet och omfattning av sociala medier, finns ett växande behov av system som kan extrahera användbar information från enorma mängder data. Vi tar upp frågan om att upptäcka influensaepidemier. För det första, det föreslagna systemet extraherar influensarelaterade tweets med Twitter API. Sedan, bara tweets som nämner faktiska influensapatienter extraheras av stödvektorn maskin (SVM) baserad klassificerare. Experimentresultaten visar genomförbarheten av den föreslagna metoden (0.89 korrelation till guldstandarden). I synnerhet vid utbrottet och den tidiga spridningen (tidigt epidemiskt stadium) visar den föreslagna metoden en hög korrelation (0,97) som överträffar de senaste metoderna. Detta dokument beskriver att Twitter texter speglar den verkliga världen, och att NLP-tekniker kan tillämpas för att extrahera endast tweets som innehåller användbar information. | REF tillämpade en Support Vector Machine (SVM) för att skilja influensarelaterade tweets från tweets som är irrelevanta. | 12,248,612 | Twitter Catches The Flu: Detecting Influenza Epidemics using Twitter | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 11,644 |
Katastrofrisk glömmer uppstår när ett neuralt nätverk förlorar den information som lärts med den första uppgiften, efter utbildning på en andra uppgift. Detta problem är fortfarande ett hinder för allmänna artificiella intelligenssystem med sekventiell inlärningsförmåga. I detta dokument föreslår vi en uppgiftsbaserad mekanism för hård uppmärksamhet som bevarar tidigare uppgifters information utan att väsentligt påverka den nuvarande uppgiftens lärande. En uppmärksamhet mask lärs samtidigt till varje uppgift genom stokastisk lutning nedstigning, och tidigare masker utnyttjas för att begränsa sådan inlärning. Vi visar att den föreslagna mekanismen är effektiv för att minska den katastrofala glömskan och sänka de nuvarande skattesatserna med 33 till 84 procent. Vi visar också att den är robust mot olika hyperparameterval och att den erbjuder ett antal övervakningsmöjligheter. Tillvägagångssättet innehåller möjligheten att kontrollera både stabiliteten och kompaktiteten i den lärda kunskapen, vilket vi tror gör det också attraktivt för online-inlärning och nätverkskomprimeringsapplikationer. | Serrà m.fl. I Ref föreslogs en uppgiftsbaserad mekanism för hård uppmärksamhet för att lära sig nya uppgifter utan att glömma tidigare uppgifter. | 2,157,345 | Overcoming catastrophic forgetting with hard attention to the task | {'venue': 'ICML', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 11,646 |
För att hantera den snabbt växande efterfrågan på tillämpningar med hög datahastighet bör kapaciteten i cellulära nät förstärkas. De tillgängliga radioresurserna i cellulära nätverk är dock knappa, och deras utformning är dyr. Den senaste lösningen på detta problem är en ny lokal nätverksteknik som kallas kommunikation mellan enheter (D2D). D2D-kommunikation har stor förmåga att uppnå enastående prestanda genom att återanvända befintliga upplänk cellulära kanalresurser. I D2D-kommunikationen kan två enheter i närheten kommunicera direkt utan att traversera datatrafiken genom evolved-NodeB (eNB). Detta resulterar i en minskad trafikbelastning till eNB, minskad end-to-end fördröjning och förbättrad spektral effektivitet och systemprestanda. Men möjliggör D2D kommunikation i en LTE-Advanced (LTE-A) cellulära nätverk orsakar allvarlig interferens till traditionella cellulära användare och D2D par. För att upprätthålla kvaliteten på tjänsten (QoS) för de cellulära användarna och D2D par och minska störningen, föreslår vi en distans-baserad resursallokering och effektstyrning med hjälp av fraktionerad frekvens återanvändning (FFR) teknik. Vi beräknar systemavbrottsannolikheten, total genomströmning och spektrumeffektivitet för både cellulära användare och D2D-par i förhållande till deras signal-till-interferens-plus-brusförhållande (SINR). Våra simuleringsresultat visar att det föreslagna systemet minskar störningar avsevärt och förbättrar systemets prestanda jämfört med den slumpmässiga resurstilldelningen (RRA) och resurstilldelningen (RA) utan sektorsindelningssystem. Nyckelord enhet-till-enhet kommunikation; fraktionerad frekvens återanvändning; avbrottsannolikhet; genomströmning; spektral effektivitet Enhet-till-enhet (D2D) kommunikation underlaying långsiktiga evolution-Advanced (LTE-A) cellulära nätverk föreslås som en up-and-coming teknik för nästa generations cellulära nätverk (5G). Den första standardiserade ansträngningen i samband med D2D-kommunikation har föreslagits i LTE Release 12, där enheter i nära anslutning till varandra kan kommunicera direkt förbi den utvecklade-nodeB (eNB), vilket ger nya kommersiella och allmänna säkerhetsnära tjänster. Hittills har D2D-kommunikationen fått stor uppmärksamhet över traditionell mobil kommunikation på grund av dess förmåga att tillgodose den ständigt ökande användarefterfrågan på högre datahastighet, minskad mobil datatrafik, minskade end-to-end förseningar, högre systemspektrumeffektivitet och lägre strömförbrukning. Integrering av D2D-kommunikation med traditionella cellulära nätverk kan lösa problemet med tillgänglig spektrumupptäckt och undvikande av kollision mellan D2D-par och cellulära användare [1]. I en D2D-kommunikation underlaying ett cellulärt nätverk, D2D par återanvända den licensierade cellulära bandet för att förbättra systemspektrum effektivitet, vilket leder till nära förestående störningar mellan cellulära användare och D2D-par, och även bland D2D-par. För att minska störningen | I Ref diskuterades en resurshanteringsmetod för en D2D-kommunikation i cellulära nät med hjälp av ett FFR-system. | 116,316,330 | Non-Orthogonal Resource Sharing Optimization for D2D Communication in LTE-A Cellular Networks: A Fractional Frequency Reuse-Based Approach | {'venue': None, 'journal': 'Electronics', 'mag_field_of_study': ['Engineering']} | 11,647 |
Abstrakt. Facet-surfning har blivit populär som ett användarvänligt gränssnitt till dataarkiv. Vi utökar facett surfning av Semantic Web data på fem sätt. För det första kan användare välja och navigera genom facetter av resurser av någon typ och göra val baserade på egenskaper av andra, semantiskt relaterade, typer. Vi tar itu med en nackdel med hierarkibaserad navigering genom att lägga till ett sökord sökgränssnitt med semantisk automatisk komplettering. Gränssnittet för vår webbläsare, /facet, gör det möjligt att inkludera facet-specifika visningsalternativ som går utöver den hierarkiska navigering som kännetecknar aktuella facet surfning. Slutligen, webbläsaren fungerar på alla RDFS dataset utan någon ytterligare konfiguration. Facet-webbläsarens gränssnitt är ett bekvämt och användarvänligt sätt att navigera genom ett brett spektrum av datainsamlingar [1] [2] [3]. En enskild aspekt belyser en dimension av de underliggande uppgifterna. Ofta är värdena i denna dimension hierarkiskt strukturerade. Genom att visualisera och navigera i denna hierarki i användargränssnittet kan användaren ange begränsningar för de objekt som valts från arkivet. Genom att kombinera begränsningar från flera aspekter kan en användare ange relativt komplexa frågor genom ett intuitivt webbnavigeringsgränssnitt, samtidigt som man undviker återvändsgränder som innehåller noll resultat. Bläddra bland alla typer av resurser. Traditionella facet webbläsare antar en fast uppsättning fasetter för att välja och navigera genom relativt homogena data. På den heterogena semantiska webben är denna metod kort, eftersom typiska datauppsättningar är för olika för att använda en enda uppsättning facetter. I /facet associerar vi en uppsättning lämpliga aspekter till varje typ. Ett naturligt och bekvämt sätt att uppnå denna funktionalitet är genom att betrakta egenskapen rdf:type som "bara" en annan aspekt. Aspekten gäller för alla resurser och värdena från dess räckvidd är vanligtvis organiserade av rdfs:subclassOav hierarki, vilket tillåter navigering precis som för alla andra aspekter. Eftersom semantik av denna aspekt härrör direkt från rdfs:type, genom att göra ett urval, användare ange vilken typ av resurs de är intresserade av. Denna begränsning väljer automatiskt vilka andra aspekter som också är aktiva. Fråga över resurstyper. Typiska semantiska webbsamlingar innehåller rik och omfattande bakgrundskunskap. Till följd av detta förväntar sig användarna att kunna Detta arbete har också lämnats in som en fullständig rapport till ISWC forskningsspåret. | Vinnaren av Semantic Web utmaning 2006, /facet REF, har fört denna idé till arenan för semantiska data. | 4,811,266 | /facet: A Browser for Heterogeneous Semantic Web Repositories | {'venue': 'International Semantic Web Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 11,648 |
Facebook sidor erbjuder ett enkelt sätt att nå ut till en mycket stor publik eftersom de lätt kan främjas med hjälp av Facebooks annonsplattform. Nyligen har antalet likes av en Facebook-sida blivit ett mått på dess popularitet och lönsamhet, och en underjordisk marknad av tjänster öka sida likes, aka som gårdar, har dykt upp. Vissa rapporter har föreslagit att som gårdar använder ett nätverk av profiler som också gillar andra sidor för att undkomma bedrägeriskyddsalgoritmer, men så vitt vi vet har det inte gjorts någon systematisk analys av Facebook-sidornas marknadsföringsmetoder. Denna uppsats presenterar en jämförande mätning studie av sidan gillar samlat via Facebook-annonser och av några liknande gårdar. Vi distribuerar en uppsättning av honungspot sidor, främjar dem med hjälp av båda metoderna, och analysera rannered likes baserat på likes demografiska, temporal, och sociala egenskaper. Vi lyfter fram några intressanta fynd, bland annat att vissa gårdar verkar drivas av robotar och egentligen inte försöker dölja arten av sin verksamhet, medan andra följer en smygande strategi, efterliknar vanliga användares beteende. | De Cristofaro m.fl. studerade ekosystemet av tjänster som levererar gillar till Facebook sidor av sina kunder REF. | 11,289,122 | Paying for Likes?: Understanding Facebook Like Fraud Using Honeypots | {'venue': "IMC '14", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']} | 11,649 |
Abstract-Bots är äventyras datorer som kommunicerar med en botnet kommando och kontroll (C&C) server. Bots använder vanligtvis dynamiska DNS (DDNS) för att lokalisera respektive C & C-server. Genom att injicera kommandon i sådana servrar, botmasters kan återanvända bots för en mängd olika attacker. Vi utvärderar två metoder för att identifiera botnet C & C-servrar baserade på avvikande DDNS-trafik. Den första metoden består i att leta efter domännamn vars frågefrekvenser är onormalt höga eller tidsmässigt koncentrerade. Höga DDNS frågehastigheter kan förväntas eftersom botmasters ofta flyttar C&C-servrar, och botnät med så många som 1,5 miljoner bots har upptäckts. Den andra metoden består i att leta efter onormalt återkommande DDNS svar som visar att frågan är för ett obefintligt namn (NXDOMAIN). Sådana frågor kan motsvara robotar som försöker hitta C&C-servrar som har tagits ner. I våra experiment identifierade den andra metoden automatiskt flera domännamn som rapporterades av andra som misstänkta, medan den första metoden inte var lika effektiv. | Villamarn-Salomn och Brustoloni REF fokuserade sin upptäckt på onormalt höga eller tidsmässigt koncentrerade frågehastigheter av dynamiska DNS-frågor. | 15,465,732 | Identifying Botnets Using Anomaly Detection Techniques Applied to DNS Traffic | {'venue': '2008 5th IEEE Consumer Communications and Networking Conference', 'journal': '2008 5th IEEE Consumer Communications and Networking Conference', 'mag_field_of_study': ['Computer Science']} | 11,650 |
I detta arbete beslutade vi att tillämpa ett hierarkiskt vägt beslut, som föreslagits och använts inom andra forskningsområden, för erkännande av gångfaser. Den utvecklade och validerade nya distribuerade klassificeringen baseras på hierarkiskt vägt beslut från utgångar av skalar Hidden Markov-modeller (HMM) tillämpas på vinkelhastigheter fot, skaft och lår. Vinkelhastigheterna hos tio friska försökspersoner förvärvades via tre enaxliga gyroskop inbäddade i tröghetsmätningsenheter (IMU) under en gånguppgift, upprepat tre gånger, på ett löpband. Efter att ha validerat den nya distribuerade klassificeringen och den skalar- och vektorklassificeringen, som redan föreslagits i litteraturen, jämfördes klassificeringarna för känslighet, specificitet och beräkningsbelastning för alla kombinationer av de tre riktade anatomiska segmenten. Dessutom utvärderades prestandan hos den nya distribuerade klassificeringsapparaten i uppskattningen av gångvariabilitet i termer av medeltid och variationskoefficient. De högsta värdena för specificitet och känslighet (>0.98) för de tre klassificeringar som undersöktes här erhölls när fotens vinkelhastighet bearbetades. Distribuerade och vektoriska klassificeringar nådde acceptabla värden (> 0,95) när vinkelhastigheten hos skaft och lår analyserades. Distribuerade och skalarsensorer 2014, 14 klassificeringsgivare visade värden för beräkningsbelastning ca 100 gånger lägre än den som erhölls med vektorklassificeringen. Dessutom visade de distribuerade klassificeringarna en utmärkt tillförlitlighet för utvärderingen av medeltid och en god/utmärkt tillförlitlighet för variationskoefficienten. Sammanfattningsvis, på grund av bättre prestanda och det lilla värdet av beräkningsbelastning, kan den här föreslagna nya distribuerade klassificeringen genomföras i realtid tillämpning av gångfaser igenkänning, såsom att utvärdera gångvariabilitet hos patienter eller att kontrollera aktiva eller de för återhämtning av rörlighet i nedre extremitetsleder. | Taborri m.fl. I REF föreslogs en viktad HMM-klassificerare som realiserade gångfasigenkänning med hjälp av vinkelhastigheter på fot, skaft och lår. | 12,373,345 | A Novel HMM Distributed Classifier for the Detection of Gait Phases by Means of a Wearable Inertial Sensor Network | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']} | 11,651 |
Den senaste MS COCO objekt detektion datauppsättning presenterar flera nya utmaningar för objekt detektion. I synnerhet innehåller det objekt på ett brett spektrum av skalor, mindre prototypiska bilder, och kräver mer exakt lokalisering. För att ta itu med dessa utmaningar testar vi tre modifieringar av standard objektdetektorn Fast R-CNN: (1) hoppa över anslutningar som ger detektorn tillgång till funktioner vid flera nätverkslager, (2) en fovealstruktur för att utnyttja objektkontext vid flera objektupplösningar, och (3) en integrerad förlustfunktion och motsvarande nätverksjustering som förbättrar lokaliseringen. Resultatet av dessa ändringar är att information kan flöda längs flera vägar i vårt nätverk, inklusive genom funktioner från flera nätverkslager och från flera objektvyer. Vi hänvisar till vår modifierade klassificering som ett "MultiPath"-nätverk. Vi kopplar vårt MultiPath nätverk med DeepMask objektförslag, som är väl lämpade för lokalisering och små objekt, och anpassa vår pipeline för att förutsäga segmentering masker förutom att avgränsa lådor. Det kombinerade systemet förbättrar resultaten över baslinjen Snabb R-CNN detektor med Selective Search med 66% totalt och med 4× på små objekt. Det placerades tvåa i både COCO 2015 upptäckt och segmentering utmaningar. | Nyligen, Zagoruyko et al. REF har presenterat MultiPath-nätverket med tre ändringar av standard R-CNN-objektdetektorn, dvs. Hoppa över anslutningar som ger detektorn tillgång till funktioner på flera nätverkslager, en foveal struktur för att utnyttja objektkontext vid flera objektupplösningar, och en integrerad förlustfunktion och motsvarande nätverksjustering som förbättrar lokaliseringen. | 7,618,176 | A MultiPath Network for Object Detection | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 11,653 |
I detta dokument föreslår vi en ny inlärningsram för motorstyrning. Denna ram består av två delar: förstärkning av lärandet och representation via poäng. När det gäller motorstyrning har konventionell förstärkningsutbildning använts för att förvärva kontrollsekvenser som cart-pole eller stand-up robotstyrning. Nyligen har forskare blivit intresserade av hierarkisk arkitektur, såsom flera nivåer, och flera temporal- och rumsliga skalor. Vårt nya ramverk innehåller två nivåer av hierarkisk arkitektur. Den högre nivån genomförs med hjälp av via-punkt representation, vilket motsvarar makro-åtgärder eller flera tidsskalor. Den lägre nivån genomförs med hjälp av en bana generator som producerar primitiva åtgärder. Vårt ramverk kan förändra den pågående rörelsen med hjälp av tidsmässigt lokaliserade via-punkter och bana generation. Framgångsrika resultat uppnås i datorsimulering av cart-pole sväng upp uppgiften. q ska tillämpas från och med den 1 januari 2016 till och med den 31 december 2018. | Miyamoto et al presenteras i REF en skådespelare-kritisk förstärkning utbildningsprogram med via-punkt bana representation för en cart-pole svinga upp uppgiftssimulering. | 1,960,696 | Reinforcement learning with via-point representation | {'venue': None, 'journal': None, 'mag_field_of_study': ['Mathematics', 'Medicine', 'Computer Science']} | 11,654 |
Mer komplicerad och dyr hårdvara, inklusive analog-till-digital omvandlare med högre provtagningshastighet, filter med bredare bandbredd, större RAM för att lagra digitala prover, och snabbare CPU för att bearbeta digitala prover. [1] S. Zhang, S. C. Liew och P. P. Lam, "Hot subject: Physical-layer network coding", i Proc. ACM Abstract-Non-ortogonal multiple access (NOMA) betraktas som en lovande teknik för att förbättra spektraleffektiviteten i femte generationens system. I denna korrespondens studerar vi fördelarna med NOMA för att förbättra energieffektiviteten (EE) för en fleranvändarnedlänköverföring, där EE definieras som förhållandet mellan den uppnåeliga summan av användarna och den totala strömförbrukningen. Vårt mål är att maximera EE under förutsättning att en minsta datahastighet krävs för varje användare, vilket leder till ett icke konvext delprogrammeringsproblem. För att lösa det fastställer vi först det möjliga intervallet för den sändningskraft som kan stödja varje användares datahastighetskrav. Sedan föreslår vi en EE-optimal effektfördelningsstrategi som maximerar EE. Våra numeriska resultat visar att NOMA har överlägsen EE prestanda i jämförelse med konventionell ortogonal multipel åtkomst. Index Terms-Energi effektivitet (EE), delprogrammering optimering, icke-ortogonal multipel åtkomst (NOMA), strömfördelning. | I Ref föreslog författarna ett kraftfördelningssystem för att maximera nätenergieffektiviteten (EE), definierat som förhållandet mellan den uppnåeliga summan av användarna och den totala BS-energiförbrukningen. | 17,748,369 | Energy-Efficient Transmission Design in Non-orthogonal Multiple Access | {'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 11,655 |
I detta dokument föreslås en ny metod som utnyttjar flera resurser för att förbättra statistisk maskinöversättning (SMT) baserad parafrasering. I detalj, en Phrasal parafras tabell och en funktion härrör från varje resurs, som sedan kombineras i en log-linjär SMT modell för mening-nivå parafrasgenerering. Experimentella resultat visar att den SMT-baserade parafraseringsmodellen kan förbättras med hjälp av flera resurser. Precisionen mellan fras- och meningsnivå för de genererade parafraserna är över 60 % respektive 55 %. Dessutom utvärderas varje resurss bidrag, vilket tyder på att alla utnyttjade resurser är användbara för att generera parafraser av hög kvalitet. | REF kombinerar flera resurser för att lära sig frasbaserade parafrastabeller och motsvarande funktionsfunktioner för att utforma en log-lineär SMT-modell. | 12,003,953 | Combining Multiple Resources to Improve SMT-based Paraphrasing Model | {'venue': 'Proceedings of the 9th SIGdial Workshop on Discourse and Dialogue', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 11,656 |
Abstrakt. I vissa tillämpningsområden är det ibland användbart att resonera om rimliga men "inte uppenbara" scenarier, exklusive de mest triviala. I detta arbete introducerar vi icke-monotoniska procedurer för förmånsbeskrivning Logik för att resonera om rimliga men -i viss mening - "överraskande" scenarier. Vi anser en förlängning, kallad ALC + T exp R, av den icke-monotoniska logiken av typiska ALC + T R genom inklusioner av formen T(C) d D, där d är en grad av förväntadhet. Vi anser att en förlängning av en ABox, för att anta typiska påståenden om individer som uppfyller kardinalitetsbegränsningar för begrepp, då vi definierar en preferens relation bland sådana utvidgade ABoxar baserat på graden av förväntadhet, då vi begränsar införandet till de förlängningar som är minimala med avseende på denna preferens relation. Vi föreslår ett beslutsförfarande för resonemang i ALC + T exp R och vi utnyttjar det för att visa att inblandning är i EXPTIME som för den underliggande ALC. Slutligen inför vi en ytterligare utvidgning av det föreslagna tillvägagångssättet för att resonera om alla tänkbara utvidgningar av ABox, genom att begränsa uppmärksamheten till specifika nivåer av förväntadhet som sträcker sig från de mest överraskande scenarierna till de mest förväntade, och vi visar att det fortfarande förekommer i EXPTIME även i dessa fall. | Samma kritik gäller också för det tillvägagångssätt som föreslås i REF, där ALC + T R utvidgas genom införande av blanketten T(C) d D, där d är en grad av förväntadhet, används för att definiera en preferensrelation mellan utvidgade ABoxar: det innebär att frågor begränsas till ABoxar som är minimala med avseende på sådana preferensrelationer och som utgör överraskande scenarier. | 900,789 | Reasoning about plausible scenarios in Description Logics of typicality | {'venue': 'Intelligenza Artificiale', 'journal': 'Intelligenza Artificiale', 'mag_field_of_study': ['Computer Science']} | 11,658 |
Abstract-I detta dokument introducerar vi en lokal bildbeskrivning, DAISY, som är mycket effektiv att beräkna tätt. Vi presenterar också en EM-baserad algoritm för att beräkna täta djup- och ocklusionskartor från breda bildpar med hjälp av denna deskriptor. Detta ger mycket bättre resultat i bred baslinje situationer än pixel och korrelation-baserade algoritmer som ofta används i smal baslinjestereo. Att använda en deskriptor gör också vår algoritm robust mot många fotometriska och geometriska omvandlingar. Vår deskriptor är inspirerad av tidigare som SIFT och GLOH men kan beräknas mycket snabbare för våra syften. Till skillnad från SURF, som också kan beräknas effektivt vid varje pixel, introducerar det inte artefakter som försämrar den matchande prestandan när den används tätt. Det är viktigt att notera att vår strategi är den första algoritmen som försöker uppskatta täta djupkartor från breda bildpar, och vi visar att den är bra på att med många experiment för djupuppskattning noggrannhet, ocklusion upptäckt, och jämföra den med andra deskriptorer på laserskannade mark sanningsscener. Vi testade också vår strategi på en mängd olika inomhus- och utomhusscener med olika fotometriska och geometriska omvandlingar och våra experiment stöder vårt påstående att vara robusta mot dessa. Index Terms-Bild bearbetning och datorseende, tät djup karta uppskattning, lokala deskriptorer. | DAISY REF är en lokal bilddeskriptor, som är mycket effektiv att beräkna tätt. | 206,764,601 | DAISY: An Efficient Dense Descriptor Applied to Wide-Baseline Stereo | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 11,659 |
Antalet platsmedvetna mobila enheter har ökat i flera år. Eftersom denna trend fortsätter, dessa enheter kan använda sin plats information för att ge intressanta program för sina ägare. Möjliga tillämpningar för sådana enheter inkluderar: i) planera en rutt som tar ägaren nära ett kafé eller ii) en rutt som skulle göra det möjligt för ägaren att korsa en av sina vänners egen rutt. Svårigheten med sådana beräkningar är att ägarna till enheterna inte vill att deras enheter ska skicka sin plats (eller framtida platser) till någon slumpmässig server för att beräkna funktionerna. I detta dokument tittar vi på beräkningsavståndsfunktioner för rutter på ett privat sätt; vi föreslår att använda Secure Multi-parte Computation (SMC) tekniker för att lösa dessa problem med beräkningsgeometri. I detta dokument föreslår vi protokoll för tre sådana problem: i) avståndet mellan en punkt och ett linjesegment, ii) avståndet mellan två rörliga punkter var och en definieras av en parameterekvation (med konstant hastighet) och iii) avståndet mellan två linjesegment. | Frikken och Atallah REF föreslår SMC-protokoll för säker beräkning av avståndet mellan en punkt och ett linjesegment, avståndet mellan två rörliga punkter och avståndet mellan två linjesegment. | 14,004,571 | Privacy preserving route planning | {'venue': "WPES '04", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 11,660 |
Verkliga åtgärder sker ofta i trånga, dynamiska miljöer. Detta innebär en svår utmaning för nuvarande metoder för att upptäcka video händelse eftersom det är svårt att segmentera skådespelaren från bakgrunden på grund av distraherande rörelse från andra objekt i scenen. Vi föreslår en teknik för händelseigenkänning i fullsatta videor som på ett tillförlitligt sätt identifierar åtgärder i närvaro av partiell ocklusion och bakgrundsmassa. Vår strategi bygger på tre viktiga idéer: 1) vi matchar effektivt den volymetriska representationen av en händelse mot översegmenterade spatio-temporala videovolymer; 2) vi förstärker våra formbaserade funktioner med hjälp av flöde; 3) snarare än att behandla en händelsemall som en atomär enhet, vi matchar separat med delar (både i rum och tid), vilket möjliggör robusthet mot ocklusioner och aktörsvariationer. Våra experiment på mänskliga handlingar, till exempel att plocka upp ett nedlagt föremål eller vifta i en folkmassa visar tillförlitlig upptäckt med få falska positiva. | I REF matchas oversegmented video volymes utan hänsyn till skådespelare delar till volymetrisk representation av en händelse med hjälp av form och flöde signaler för att utföra detektion av åtgärder i trånga scener. | 17,144,146 | Event Detection in Crowded Videos | {'venue': '2007 IEEE 11th International Conference on Computer Vision', 'journal': '2007 IEEE 11th International Conference on Computer Vision', 'mag_field_of_study': ['Computer Science']} | 11,661 |
ABSTRACT Att förutsäga populariteten hos sociala medievideor innan de publiceras är en utmanande uppgift, främst på grund av komplexiteten i innehållsdistributionsnätverk samt antalet faktorer som spelar en roll i denna process. Eftersom lösa denna uppgift ger enorm hjälp för mediainnehåll skapare, många framgångsrika metoder föreslogs för att lösa detta problem med maskininlärning. I detta arbete ändrar vi åsikt och postulerar att det inte bara är den förutsagda populariteten som spelar roll utan också, kanske ännu viktigare, förståelse för hur enskilda delar påverkar den slutliga populariteten. Därför föreslår vi att vi kombinerar Visualiseringsmetoden Grad-CAM som gör det möjligt att visualisera rumslig relevans för popularitet med en mjuk själv-attention mekanism för att väga den relativa betydelsen av ramar i tid domän. Våra preliminära resultat visar att detta tillvägagångssätt möjliggör en mer intuitiv tolkning av innehållets inverkan på videons popularitet samtidigt som man uppnår konkurrenskraftiga resultat i form av förutsägelsenoggrannhet. Datorseende, popularitetsförutsägelse, sociala medier, maskininlärning. | Bielski m.fl. REF förutspådde videos popularitet innan de publiceras, genom att utnyttja de spatio-temporala egenskaperna hos videos genom en mjuk selfattention mekanism, och de tolkade intuitivt innehållets inverkan på video popularitet av Grad-CAM Algorithm. | 56,597,896 | Understanding Multimodal Popularity Prediction of Social Media Videos With Self-Attention | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 11,662 |
Deep Neural Networks (DNN) är kraftfulla modeller som har uppnått utmärkta resultat på svåra inlärningsuppgifter. Även om DNN fungerar bra när stora märkta träningsset finns tillgängliga, kan de inte användas för att kartlägga sekvenser till sekvenser. I detta dokument presenterar vi en allmän end-to-end strategi för sekvensinlärning som gör minimala antaganden om sekvensstrukturen. Vår metod använder en flerskiktad Long Short-Term Memory (LSTM) för att kartlägga indatasekvensen till en vektor av en fast dimensionalitet, och sedan ytterligare en djup LSTM för att avkoda målsekvensen från vektorn. Vårt huvudsakliga resultat är att på en engelsk till fransk översättning uppgift från WMT-14 dataset, de översättningar som produceras av LSTM uppnå en BLEU-poäng på 34.8 på hela testet, där LSTM: s BLEU-poäng straffades på out-of-vokabulary ord. Dessutom hade LSTM inga svårigheter med långa meningar. Som jämförelse uppnår ett frasbaserat SMT-system en BLEU-poäng på 33,3 på samma datauppsättning. När vi använde LSTM för att omvärdera de 1000 hypoteser som producerades av det tidigare nämnda SMT-systemet, ökar BLEU-poängen till 36,5, vilket är nära den senaste tekniken. LSTM lärde sig också förnuftiga uttryck och meningsrepresentationer som är känsliga för ordordning och är relativt invarianta för den aktiva och passiva rösten. Slutligen fann vi att vända ordningen av orden i alla käll meningar (men inte mål meningar) förbättrade LSTM: s prestanda markant, eftersom det införde så många kortsiktiga beroenden mellan källan och mål mening som gjorde optimeringsproblemet lättare. | Sutskever m.fl. REF föreslog det ursprungliga Seq2Seq-ramverket (Seq2Seq), som använde ett flerskiktat långt kortfristigt minne (LSTM) för att kartlägga indatasekvensen till en vektor med fast dimension och sedan använde en annan LSTM för att avkoda målsekvensen från vektorn. | 7,961,699 | Sequence to Sequence Learning with Neural Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 11,663 |
Eftersom systemets komplexitet har ökat avsevärt, är det också nödvändigt att införliva kompromisser i designprocessen. När sådana avvägningar införlivas offras den optimala systemprestandan för varje mål för att öka systemets övergripande funktionalitet. Omkonfigurerbara system har definierats som system som är utformade för att upprätthålla en hög prestandanivå genom ändringar i realtid i konfigurationen när driftförhållandena eller kraven ändras på ett förutsägbart eller oförutsägbart sätt. Vid effektiv tillämpning har dessa omkonfigurerbara system förmågan att uppnå optimal prestanda för alla systemmål, samtidigt som de olika begränsningarna för varje mål uppfylls. En metod för att utforma effektiva omkonfigurerbara system presenteras som fokuserar på att bestämma hur designvariabler för ett system förändras, samt undersöka stabiliteten i ett omkonfigurerbart system genom tillämpning av en stat-feedback controller. Denna metod tillämpas sedan på en studie som omfattar utformningen av en omkonfigurerbar Formel One race bil traversing en fördefinierad racetrack där konstruktionsvariabler ändrar värden för att uppnå maximal prestanda. | I sitt arbete med fordonsdesign införde REF en metod för att utforma effektiva omkonfigurerbara system som fokuserar på att bestämma hur konstruktionsvariabler för ett system förändras, samt undersöka stabiliteten i ett omkonfigurerbart system genom tillämpning av en stat-feedback styrenhet. | 109,013,772 | Effective Development of Reconfigurable Systems Using Linear State-Feedback Control | {'venue': None, 'journal': 'AIAA Journal', 'mag_field_of_study': ['Mathematics']} | 11,664 |
Med framgång för nya beräkningsarkitekturer för visuell bearbetning, såsom konvolutionella neurala nätverk (CNN) och tillgång till bilddatabaser med miljontals märkta exempel (t.ex., ImageNet, Platser), den senaste tekniken i datorseende utvecklas snabbt. En viktig faktor för fortsatta framsteg är att förstå de representationer som de inre skikten av dessa djupa arkitekturer lär sig. Här visar vi att objektdetektorer uppstår från att träna CNN:er för att utföra scenklassificering. Eftersom scener består av föremål, upptäcker CNN för scenklassificering automatiskt meningsfulla objekt detektorer, representativa för de lärda scenkategorierna. Med objektdetektorer som uppstår som ett resultat av att vi lär oss känna igen scener, visar vårt arbete att samma nätverk kan utföra både scenigenkänning och objektlokalisering i ett enda framåtpass, utan att någonsin uttryckligen ha lärt sig begreppet objekt. | Zhou m.fl. REF visade att objektdetektorer dök upp inne i CNNs utbildade för scenigenkänning. | 8,217,340 | Object Detectors Emerge in Deep Scene CNNs | {'venue': 'ICLR 2015', 'journal': 'arXiv: Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 11,665 |
Vi presenterar en randomiserad distribuerad algoritm som i radionätverk med kollisionsdetektering sänder ett enda meddelande i O(D +log 2 n) tider, med hög sannolikhet 1. Med tanke på den nedre gränsen (D + log 2 n) är vår algoritm optimal i den ansedda modellen som svarar på den decennier gamla frågan om Alon, Bar-Noy, Linial och Peleg i [2]. | (I själva verket, ett senaste resultat föreslår en O(D + log 2 n) algoritm REF.) | 14,901,784 | An Optimal Randomized Broadcasting Algorithm in Radio Networks with Collision Detection | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 11,666 |
Abstract-När en människa matchar två bilder, tittaren har en naturlig tendens att se det breda området runt målet pixel för att få ledtrådar till rätt korrespondens. Det är dock svårt att utforma en motsvarande kostnadsfunktion som fungerar på ett stort fönster på samma sätt. Kostnadsfunktionen är vanligtvis inte tillräckligt intelligent för att kasta den information som är irrelevant för målet pixel, vilket resulterar i oönskade artefakter. I detta dokument, föreslår vi en ny convolutional neural network (CNN) modul för att lära sig en stereo matchande kostnad med ett stort fönster. Till skillnad från konventionella pooling lager med steg, den föreslagna per-pixel pyramid-pooling skikt kan täcka ett stort område utan förlust av upplösning och detaljer. Därför kan den inlärda matchande kostnadsfunktionen framgångsrikt utnyttja informationen från ett stort område utan att införa gödningseffekten. Den föreslagna metoden är robust trots förekomsten av svaga texturer, djup diskontinuitet, belysning och exponeringsskillnad. Den föreslagna metoden uppnår nästan toppresultat på Middlebury-riktmärket. | Modellen LW-CNN REF ) använde en ny CNN modul för att lära sig matcha kostnaden för en stor storlek fönster, vilket gjorde att CNN att observera stora mottagliga fält utan att förlora detaljer. | 21,568,630 | Look Wider to Match Image Patches with Convolutional Neural Networks | {'venue': 'H. Park and K. M. Lee,"Look Wider to Match Image Patches with Convolutional Neural Networks,"in IEEE Signal Processing Letters, vol. PP, no. 99, pp. 1-1, 2016', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 11,667 |
Abstrakt. Min-kostnadsmatchning problemet lider av att vara mycket känslig för små förändringar av inmatningen. Även i en enkel inställning, t.ex., när kostnaderna kommer från metriska på linjen, lägga till två noder till inmatningen kan ändra den optimala lösningen helt. Å andra sidan förväntar man sig att små förändringar i inmatningen endast bör medföra små förändringar på de konstruerade lösningarna, mätt som antalet modifierade kanter. Vi introducerar en tvåstegsmodell där vi studerar avvägningen mellan kvalitet och robusta lösningar. I det första steget får vi en uppsättning noder i ett metriska utrymme och vi måste beräkna en perfekt matchning. I den andra etappen visas 2k nya noder och vi måste anpassa lösningen till en perfekt matchning för den nya instansen. Vi säger att en algoritm är (α, β)-robust om de lösningar som konstrueras i båda stegen är α-ungefärliga med avseende på min-kostnad perfekta matchningar, och om antalet kanter som tas bort från det första steget matchning är som mest βk. Därför mäter α kvaliteten på algoritmen och β dess robusthet. I denna miljö strävar vi efter att balansera båda åtgärderna genom att härleda algoritmer för konstant α och β. Vi visar att det finns en algoritm som är (3, 1)-robust för någon metrisk om man känner till nummer 2k av anlända noder i förväg. För det fall k är okänt är situationen betydligt mer involverad. Vi studerar denna inställning under metrisken på linjen och utformar en (19, 2)-robust algoritm som konstruerar en lösning med en rekursiv struktur som noggrant balanserar kostnader och redundans. | Såvitt vi vet är det enda arbete som överväger att använda sig av min-kostnadsmatchning online det senaste arbetet REF där författarna anser en tvåstegsversion av det enkromatiska problemet (där det inte finns någon skillnad mellan servrar och kunder): I det första steget måste en perfekt matchning mellan 2n givna noder väljas; i det andra steget införs 2k nya noder. | 53,754,054 | Maintaining Perfect Matchings at Low Cost | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 11,668 |
Nya studier visar att ett djupt neuralt nätverk kan lära överförbara funktioner som generaliserar väl till nya uppgifter för domänanpassning. Eftersom djupa funktioner så småningom övergår från allmän till specifik längs nätverket, sjunker funktionen överförbarhet avsevärt i högre lager med ökande domänavvikelse. Därför är det viktigt att formellt minska domänfördelen och förbättra överförbarheten i uppgiftsspecifika skikt. I detta dokument föreslår vi en ny Deep Adaptation Network (DAN) arkitektur, som generaliserar djupa konvolutionella neurala nätverk till domänanpassning scenariot. I DAN är dolda representationer av alla aktivitetsspecifika lager inbäddade i ett reproducerande kärna Hilbert-utrymme där de genomsnittliga inbäddningarna av olika domändistributioner uttryckligen kan matchas. Avvikelsen i domänen minskas ytterligare med hjälp av en optimal urvalsmetod med flera kernlar för genomsnittlig inbäddning av matchningar. DAN kan lära sig invarianta funktioner med förbättrad överförbarhet, och kan skala linjärt genom en opartisk uppskattning av kärnans inbäddning. Omfattande empiriska belägg visar att den föreslagna arkitekturen avsevärt överträffar de senaste resultaten på standardriktmärken för domänanpassning. | Lång et al. REF föreslår Deep Adaptation Network, ett multi-task- och multi-branch-nätverk som matchar dolda representationer av aktivitetsspecifika lager i en reproducerande kärna Hilbert utrymme för att minska domänskillnader. | 556,999 | Learning Transferable Features with Deep Adaptation Networks | {'venue': 'ICML', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 11,669 |
Vi beskriver vår metod för att jämföra Semantic Webs kunskapsbassystem med avseende på användning i stora OWL-tillämpningar. Vi presenterar Lehigh University Benchmark (LUBM) som ett exempel på hur man utformar sådana riktmärken. LUBM har en ontologi för universitetsdomänen, syntetiska OWL-data skalbara till en godtycklig storlek, fjorton förlängningsfrågor som representerar en mängd olika egenskaper, och flera prestandamått. LUBM kan användas för att utvärdera system med olika resonemangskapacitet och lagringsmekanismer. Vi visar detta med en utvärdering av två minnesbaserade system och två system med ihållande lagring. | Lehigh University Benchmark (LUBM) Ref var en av de första RDF-riktmärkena. | 9,754,025 | LUBM: A benchmark for OWL knowledge base systems | {'venue': 'Semantic Web Journal', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 11,670 |
Abstract-Respecting människors sociala utrymmen är en viktig förutsättning för acceptabel och naturlig robot navigering i mänskliga miljöer. I den här artikeln beskriver vi ett adaptivt system för mobil robotnavigering baserat på uppskattningar av om en person försöker interagera med roboten eller inte. Uppskattningarna baseras på analys av rörelsemönster i körtid jämfört med lagrade erfarenheter i en databas. Med hjälp av ett potentiellt fält centrerat runt personen placerar roboten sig på den lämpligaste platsen i förhållande till personen och interaktionsstatusen. Systemet valideras genom kvalitativa tester i en verklig miljö. Resultaten visar att systemet kan lära sig navigera baserat på tidigare interaktionsupplevelser, och anpassa sig till olika beteenden över tid. | Tranberg Hansen m.fl. REF använde en inlärningsbaserad metod för att uppskatta om en person vill interagera med roboten. | 15,073,565 | Adaptive human aware navigation based on motion pattern analysis | {'venue': 'RO-MAN 2009 - The 18th IEEE International Symposium on Robot and Human Interactive Communication', 'journal': 'RO-MAN 2009 - The 18th IEEE International Symposium on Robot and Human Interactive Communication', 'mag_field_of_study': ['Computer Science']} | 11,671 |
Vi föreslår en probabilistisk modell för att förfina grovkorniga rumsliga data genom att använda extra rumsliga datamängder. Befintliga metoder kräver att de rumsliga granulariteterna hos hjälpdatamängderna är desamma som den önskade granulariteten hos måldata. Den föreslagna modellen kan effektivt använda hjälpdatamängder med olika granulariteter genom att hierarkiskt införliva Gaussiska processer. Med den föreslagna modellen, en distribution för varje hjälpdata som på det kontinuerliga utrymmet modelleras med hjälp av en Gaussian process, där representationen av osäkerheten tar hänsyn till nivåerna av granularitet. De finkorniga måldata modelleras av en annan Gaussian process som beaktar både den rumsliga korrelationen och de kompletterande datamängderna med deras osäkerhet. Vi integrerar Gaussian processen med en rumslig aggregeringsprocess som omvandlar finkorniga måldata till grovkorniga måldata, genom vilken vi kan härleda den finkorniga mål Gaussian processen från grovkorniga data. Vår modell är utformad så att slutsatsen av modellparametrar baserade på den exakta marginella sannolikheten är möjlig, där variablerna för finkorniga mål och hjälpdata är analytiskt integrerade. Våra experiment på verkliga rumsliga datauppsättningar visar hur effektiv den föreslagna modellen är. | En Gaussisk processbaserad modell föreslogs nyligen för raffinering av grovkorniga areal data genom att använda hjälpdata uppsättningar med olika granulariteter REF. | 52,340,768 | Refining Coarse-grained Spatial Data using Auxiliary Spatial Data Sets with Various Granularities | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 11,672 |
I detta dokument behandlas en aspekt av sökmotorernas indexkvalitet: index färskhet. Syftet är att analysera uppdateringsstrategierna för de stora sökmotorerna Google, Yahoo och MSN/Live.com. Vi gjorde ett test av uppdateringarna av 40 dagliga uppdaterade sidor respektive 30 oregelbundet uppdaterade sidor. Vi använde data från en tidsperiod på sex veckor under åren 2005, 2006 och 2007. Vi fann att den bästa sökmotorn när det gäller up-to-dateness förändringar genom åren och att ingen av motorerna har en idealisk lösning för index färskhet. Frekvensfördelningar för sidornas åldrar är skeva, vilket innebär att sökmotorer skiljer mellan ofta- och sällan uppdaterade sidor. Detta bekräftas av skillnaden mellan den genomsnittliga åldern på dagliga uppdaterade sidor och vår kontrollgrupp av sidor. Indexeringsmönster är ofta oregelbundna, och det verkar inte finnas någon tydlig policy för när man ska se över webbsidor. Ett stort problem som identifierats i vår forskning är fördröjningen i att göra krypade sidor tillgängliga för sökning, vilket skiljer sig från en motor till en annan. • Sökmotor användbarhet: Detta ger en feedback på användarens beteende och utvärderas genom användarundersökningar, laboratorietester, eller transaktionslogg analyser. Den aktuella studien behandlar endast en del av indexkvalitetsavsnittet. Vi anser att index färskhet är en viktig del av kvalitetsmätningen. Sökmotorer bör tillhandahålla aktuell information. Vi hoppas att resultaten från denna studie kommer att vara användbara för att vara en del av vår övergripande analys av sökmotorns kvalitet. Uppdatering med sökmotorer beror på flera faktorer. Först har vi den rena storleken på webben (se t.ex. [2, 7-9] och dess ständigt föränderliga innehåll. Nya sidor byggs, gamla sidor tas bort, och länkar ändras, alla i hög takt. Men på grund av tillväxten av webben har antalet gamla sidor som inte längre förändras också ökat avsevärt. Sökmotorer måste hitta sätt att visa för de användare sidor som uppfyller hans eller hennes up-to-dateness kriterier. I vissa fall kan äldre sidor vara till hjälp, men i de flesta fall skulle man anta att en användare föredrar de nuvarande. En undersökning utförd av Ntoulas, Cho och Olston [10] visade att ett stort antal webbsidor ändras regelbundet. Uppskattning av resultaten av studien extrapolerade över hela webben, författarna finner att det finns cirka 320 miljoner nya sidor varje vecka. Omkring 20 procent av dagens webbsidor kommer att försvinna inom ett år. Omkring 50 procent av allt innehåll kommer att ändras inom samma period. Länkstrukturen kommer att förändras ännu snabbare: Omkring 80 procent av alla länkar kommer att ha ändrats eller kommer att vara nya inom ett år. Även om de absoluta värdena kan vara föråldrade nu, resultaten visar hur viktigt det är för sökmotorerna att hålla sina databaser uppdaterade. Stora och snabba förändringar i webbens innehåll rapporteras också i [11] [12] [13] [14]. Bar-Ilan [15] studerar orsakerna till olika sökresultatsidor. Bland annat listar hon följande orsaker som är direkt relaterade till aktuellhet: • Vissa av sökmotorerna har flera frågemotorer eller databaser • Indexet är partitionerat • När kryparen uppdaterar sin databas, kan några av de tidigare besökta sidorna vara oåtkomliga på grund av kommunikation eller serverfel • Fluktuationer kan bero på ändringar i sökmotorernas indexeringspolicy eller i storleken på databaserna. Detta är viktiga faktorer som kan förklara inkonsekvenser i resultaten, som vi kommer att rapportera nedan. Ke, Deng, Ng och Lee [16] ger en bra överblick över de problem för sökmotorer som webbdynamiken ger upphov till. I Risvik och Michelsen [17] finns problem med att krångla och indexera till följd av webbdynamiken ur kommersiell sökmotors synvinkel. Det kan hävdas att varje sökmotoranvändare har upplevt 404 fel med sökmotorer (dvs. den sida som motorns länkar till en sida som inte längre är tillgänglig). Nyare studier [18, 19] visar att antalet av dessa fel är relativt lågt (för de 20 bästa resultaten, mellan 2,2 och 6,5 procent och för de 10 bästa resultaten, mellan 2,0 och 8,9 procent, beroende på sökmotor), men trots det är de en stor olägenhet [20], pp. 179-180 [21] som är ett resultat av olämplig färskhet i indexet. Men hur ska sökmotorer hålla sina index uppdaterade? Det är helt klart att ingen sökmotor kan uppdatera sitt fullständiga index dagligen. Detta har såväl ekonomiska som tekniska skäl, som vi kommer att diskutera ytterligare i nästa avsnitt. Det verkar som om man kommit överens om att sökmotorer ska indexera alla sidor i sina index i en cykel på en månad. I vår tidigare forskning kunde vi visa att detta inte gäller för de stora sökmotorerna Google och Yahoo, även för sidor vars innehåll uppdateras dagligen [5].Men frågan kvarstår: Ska sökmotorer hålla sig till ett sådant uppdateringsschema, eller kan äldre sidor hållas oindexerade under en längre tid? Vi kommer också att försöka finna ett svar på denna fråga. Detta dokument är organiserat enligt följande: För det första kommer vi att ge en kortfattad översikt över litteraturen om sökmotor fräschhet, sedan kommer vi att ange våra mål, och därefter kommer vi att beskriva våra metoder. Tyngdpunkten ligger på resultaten av den aktuella studien jämfört med vår tidigare studie [5]. I det sista avsnittet kommer vi att dra slutsatser och visa områden för ytterligare forskning. | Slutligen vill vi lyfta fram artikeln REF, där Lewandowski genomförde en studie under 3 år som analyserar uppdateringsstrategierna för olika sökmotorer på en uppsättning webbsidor. | 42,516,636 | A three-year study on the freshness of web search engine databases | {'venue': 'J. Inf. Sci.', 'journal': 'J. Inf. Sci.', 'mag_field_of_study': ['Computer Science']} | 11,673 |
Sammanfattning av denna webbsida: Obemannade flygfordon som följer behandlas som ett oändligt problem med regulatorer vid horisonten. Med hjälp av den linjära regulatortekniken härleds en optimal vägledningslag. Statusviktningsmatrisen väljs som en funktion av positionsfelet och denna adaptiva karaktär hos kostnadsfunktionen styr UAV-felen hårt. Numeriska simuleringar utförs för raka linjer och cirkulära vägar under olika vindförhållanden. Resultaten visar betydligt lägre positionsfel jämfört med en befintlig vägledningslag. Vägen som följer med vindar upp till halva fordonets hastighet uppnås. | En linjär fyrhörning regulator för optimal styrning av en fast-wing flygfordon exponeras i REF. | 56,109,079 | Adaptive Optimal Path Following for High Wind Flights | {'venue': None, 'journal': 'IFAC Proceedings Volumes', 'mag_field_of_study': ['Engineering']} | 11,674 |
Abstract-En av ljusfältet fånga tekniker är den fokuserade plenoptiska fånga. Genom att placera en mikrolins array framför fotosensorn, de fokuserade plenoptiska kamerorna fångar både rumslig och vinkelinformation av en scen i varje mikrolins bild och över mikrolins bilder. Den fångande resulterar i en betydande mängd överflödig information, och den fångade bilden är vanligtvis av en stor upplösning. Ett kodningssystem som tar bort redundansen innan kodning kan vara till fördel för effektiv kompression, överföring och rendering. I detta dokument föreslår vi ett system för förlustkodning för att effektivt representera plenoptiska bilder. Formatet innehåller en gles bilduppsättning och dess tillhörande skillnader. Rekonstruktionen utförs genom divergensbaserad interpolering och inpainting, och den rekonstruerade bilden används senare som en förutsägelse referens för kodningen av den fullständiga plenoptiska bilden. Som ett resultat av representationen ärver det föreslagna systemet en skalbar struktur med tre skikt. Resultaten visar att plenoptiska bilder komprimeras effektivt med över 60 procents minskning av bithastigheten jämfört med högeffektiv videokodning inom kodning, och med över 20 procent jämfört med en högeffektiv videokodning blockkopieringsläge. | Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. I Ref föreslogs ett glest kompressionssystem. | 206,725,533 | Scalable Coding of Plenoptic Images by Using a Sparse Set and Disparities | {'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 11,675 |
Vi undersöker beteendet hos iterativt avkodade lågdensitet paritet-check (LDPC) koder över den binära radering kanalen i den så kallade "vattenfall regionen". Vi visar att prestandakurvorna i denna region följer en enkel skallag. Vi antar att i huvudsak samma skalning beteende gäller i en mycket mer allmän miljö och vi ger några empiriska bevis för att stödja denna gissning. Den skallag, tillsammans med de felgolvuttryck som utvecklats tidigare, kan användas för en snabb ändlig längdoptimering. Index Terms-Binära radering kanal, densitetsutveckling, fel sannolikhetskurva, finit-längd analys, iterativ avkodning, lågdensitet paritet-kontroll (LDPC) koder. | I kodningsteorin föreslogs och studerades skallagar i samband med iterativ avkodning av LDPC-koder i REF. | 3,264,589 | Finite-Length Scaling for Iteratively Decoded LDPC Ensembles | {'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Physics']} | 11,676 |
Den senaste tidens forskning om trådlös säkerhet har visat att avancerad störning avsevärt kan minska prestandan för trådlös kommunikation. Vid avancerad störning koncentrerar motståndaren avsiktligt den tillgängliga energibudgeten på specifika kritiska komponenter (t.ex. pilotsymboler, bekräftelsepaket osv.) (i) öka störningseffektiviteten, eftersom fler mål kan blockeras med samma energibudget, och (ii) minska sannolikheten för att upptäckas, eftersom kanalen är blockerad under en kortare tidsperiod. Dessa nyckelaspekter gör avancerad störning mycket smygande men ändå exceptionellt effektiva i praktiska scenarier. En av de grundläggande utmaningarna med att utforma försvarsmekanismer mot en avancerad störning är att förstå vilka störningsstrategier som ger den lägsta genomströmningen, för ett givet kanaltillstånd och en given mängd energi. Såvitt vi vet är detta problem fortfarande olöst, eftersom en analytisk modell för att kvantitativt jämföra avancerade störningssystem fortfarande saknas i befintlig litteratur. För att fylla denna lucka genomför vi i detta dokument en jämförande analys av flera av de mest livskraftiga avancerade störningssystemen i de allmänt använda MIMO-nätverken. Först modellerar vi matematiskt ett antal avancerade störningssystem på signalbehandlingsnivån, så att ett kvantitativt samband mellan störningsenergin och störningseffekten etableras. Baserat på modellen härleds teorem från det optimala avancerade störningssystemet för ett godtyckligt kanaltillstånd. De teoretiska resultaten valideras genom omfattande simuleringar och experiment på en 5-radio 2x2 MIMO testbädd. Våra resultat visar att teorem kan förutsäga störningseffektivitet med hög noggrannhet. Dessutom, för att ytterligare visa att de teoretiska resultaten är tillämpliga för att ta itu med avgörande verkliga störningsproblem, visar vi att teorem kan införlivas med toppmoderna förstärkningsbaserade störningsalgoritmer och öka utforskandet av åtgärder så att en snabbare konvergens uppnås. Tillstånd att göra digitala eller papperskopior av hela eller delar av detta arbete för personligt bruk eller klassrum beviljas utan avgift, förutsatt att kopiorna inte görs eller distribueras för vinst eller kommersiella fördelar och att kopiorna är försedda med detta meddelande och den fullständiga hänvisningen på första sidan. Upphovsrätt till delar av detta verk som ägs av andra än ACM måste hedras. Abstraktering med kredit är tillåten. För att kopiera på annat sätt, eller återpublicera, för att posta på servrar eller för att omfördela till listor, krävs tidigare specifik behörighet och/eller avgift. Begär tillstånd från [email protected]. • Datorsystem organisation → Inbäddade och cyberfysiska system; • Säkerhet och integritet → Mobil och trådlös säkerhet; • Nätverk → Nätverk experiment. | I REF undersöks avancerade störningsattacker i nätverk med flera ingångar och flera utflöden (MIMO), där stören avsiktligt ökar den tillgängliga energin för att blockera målet. | 118,721,084 | Jam Sessions: Analysis and Experimental Evaluation of Advanced Jamming Attacks in MIMO Networks | {'venue': "Mobihoc '19", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 11,677 |
Konvolutionella neurala nätverk (CNN) har visat överlägsen förmåga att extrahera information från råa signaler i datorseende. Nyligen, teckennivå och flerkanaliga CNNs har visat utmärkt prestanda för mening klassificering uppgifter. Vi tillämpar CNN:er på storskalig författarskapsattribuering, som syftar till att bestämma en okänd text författare bland många kandidat författare, motiveras av deras förmåga att bearbeta teckennivå signaler och att skilja mellan ett stort antal klasser, samtidigt göra snabba förutsägelser i jämförelse med state-of-art metoder. Vi utvärderar CNN-baserade metoder som utnyttjar ord- och karaktärskanaler och jämför dem med toppmoderna metoder för ett stort antal författare, vilket ger nytt ljus över traditionella metoder. Vi visar att CNN på teckennivå överträffar den senaste tekniken på fyra av fem datauppsättningar inom olika områden. Dessutom presenterar vi den första tillämpningen av författarskap tillskrivning till reddit. Slutligen släpper vi våra nya reddit- och Twitter-dataset för ytterligare forskning. | REF visade att konvolutionella neurala nätverk på teckennivå överträffar toppmoderna metoder på fyra av fem undersökta datauppsättningar. | 12,971,213 | Character-level and Multi-channel Convolutional Neural Networks for Large-scale Authorship Attribution | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 11,678 |
Millimetervåg (mmWave) kommunikation är en möjlig lösning för applikationer med hög datahastighet som vehicle-to everything communication och nästa generations cellulär kommunikation. Konfigurera mmWave länkar, som kan göras genom kanaluppskattning eller strålval, är dock en källa till betydande overhead. I detta dokument föreslår vi att man använder rumslig information som extraheras vid sub-6 GHz för att etablera mmWave-länken. Förutsatt en helt digital arkitektur vid sub-6 GHz; och en analog arkitektur vid mmWave, skisserar vi en strategi för att extrahera rumslig information från sub-6 GHz och dess användning i mmWave komprimerad stråle-val. Specifikt formulerar vi komprimerat stråleval som ett viktat glest signalåterställningsproblem och får viktningsinformation från sub-6 GHz-kanaler. Dessutom skisserar vi en strukturerad precoder/kombiner design för att skräddarsy utbildningen till out-of-band information. Vi utökar också den föreslagna metoden för val av komprimerad stråle för att dra nytta av information från alla aktiva underbärare vid mmWave. För att simulera multibandfrekvensberoende kanaler går vi igenom det tidigare arbetet med frekvensberoende kanalbeteende och skisserar en flerfrekvenskanalmodell. Simuleringsresultaten för uppnåelig hastighet visar att utombandsmedhjälpt strålurval avsevärt kan minska utbildningskostnaderna för endast strålurval inom bandet. Index Terms-Millimeter våg kommunikation, strålval, out-of-band information, viktad komprimerad avkänning, strukturerade slumpmässiga kodböcker. | Författarna i REF föreslår en metod för urval av komprimerad strål som bygger på rumslig information utanför bandet som erhållits vid frekvensbandet under 6 GHz. | 3,304,721 | Millimeter Wave Beam-Selection Using Out-of-Band Spatial Information | {'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 11,679 |
Detta dokument beskriver det system som används av LIPN-teamet i den semantiska textliknande uppgiften på *SEM 2013. Den använder en stödvektor regressionsmodell, som kombinerar olika textliknande åtgärder som utgör funktionerna. Dessa åtgärder inkluderar enkla avstånd som Levenshtein redigera avstånd, cosinus, namngivna enheter överlappning och mer komplexa avstånd som explicit semantisk analys, WordNet-baserad likhet, IR-baserad likhet, och en likhetsmått baserat på syntaktiska beroenden. | REF använder en SV regressionsmodell, som kombinerar olika text liknande it-åtgärder som utgör funktionerna. | 3,854,255 | LIPN-CORE: Semantic Text Similarity using n-grams, WordNet, Syntactic Analysis, ESA and Information Retrieval based Features | {'venue': '*SEM', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 11,680 |
Vi introducerar en ny strategi för inneboende bild sönderdelning, uppgiften att sönderdela en enda bild i albedo och skuggkomponenter. Vår strategi, som vi kallar direkta inneboende, är att lära sig ett konvolutionellt neuralt nätverk (CNN) som direkt förutsäger utgång albedo och skugga kanaler från en ingång RGB bild patch. Direkta inneboende är en avvikelse från klassiska tekniker för inneboende bild sönderdelning, som vanligtvis förlitar sig på fysiskt motiverade tidigare och grafbaserade inferens algoritmer. MPI Sintel datasetets storskaliga syntetiska grundsanning spelar en viktig roll för utbildningens direkta inneboende. Vi visar resultat på både de syntetiska bilderna av Sintel och de verkliga bilderna av den klassiska MIT inneboende bilddatasetet. På Sintel, direkt inneboende, med endast RGB input, överträffar allt tidigare arbete, inklusive metoder som förlitar sig på RGB + Depth input. Direkta inneboende generaliserar också över olika modaliteter; det ger ganska rimliga nedbrytningar på de verkliga bilderna av MIT-datasetet. Våra resultat visar att äktenskap av CNNs med syntetiska träningsdata kan vara en kraftfull ny teknik för att ta itu med klassiska problem i datorseende. | För det första lär sig REF ett tvåskaligt konvolutionsnätverk för att direkt förutsäga både albedo- och skuggbilderna. | 8,990,381 | Direct Intrinsics: Learning Albedo-Shading Decomposition by Convolutional Regression | {'venue': '2015 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2015 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 11,681 |
Abstract-A Wireless Body Area Sensor Network (WBASN) är ett speciellt trådlöst Sensor Network (WSN) som stöder fjärrövervakning och underhållningsapplikationer. Energiförbrukningen spelar en viktig roll i utformningen av detta specifika sensornätverk. Tyvärr minskar prestandan hos WBASNs i hög störningsmiljöer som bandet Industrial, Scientific and Medical (ISM) där trådlösa spektrum blir trånga. I detta dokument, en energieffektiv Medium Access Control (MAC) protokoll som heter C-RICER (Cognitive-Receiver Initiated CyclEd mottagare) är särskilt utformad för WBASN att kognitivt arbeta i hög interferens miljö. C-RICER-protokollet anpassar både överföringseffekt och kanalfrekvens för att minska störningarna och därmed energiförbrukningen. Protokollet simuleras tack vare OMNET++ simulator. Simuleringsresultat visar att C-RICER, beroende på störningsnivån, kan överträffa det traditionella RICER-protokollet när det gäller energiförbrukning, paketförsening och nätgenomströmning. | I REF anpassar ett asynkront MAC-protokoll för CRBAN vid hög störning överföringseffekt och kanalfrekvens. | 1,108,308 | Asynchronous MAC protocol for spectrum agility in Wireless Body Area Sensor Networks | {'venue': '2014 9th International Conference on Cognitive Radio Oriented Wireless Networks and Communications (CROWNCOM)', 'journal': '2014 9th International Conference on Cognitive Radio Oriented Wireless Networks and Communications (CROWNCOM)', 'mag_field_of_study': ['Computer Science']} | 11,682 |
Kunskapsgrafer har framträtt som en viktig modell för att studera komplexa multirelationella data. Detta har gett upphov till uppbyggnaden av många storskaliga men ofullständiga kunskapsdiagram som kodar information som utvunnits från olika resurser. Ett effektivt och skalbart tillvägagångssätt för att gemensamt lära sig över flera grafer och så småningom bygga en enhetlig graf är ett viktigt nästa steg för att lyckas med kunskapsbaserade slutsatser för många nedströmstillämpningar. I detta syfte föreslår vi LinkNBed, en ram för djupt relationsbaserat lärande som lär sig enhets- och relationsrepresentationer över flera grafer. Vi identifierar enhetskoppling över grafer som en viktig komponent för att uppnå vårt mål. Vi utformar ett nytt mål som utnyttjar enhetskopplingen och bygger upp ett effektivt utbildningsförfarande med flera arbetsuppgifter. Experiment om kopplingsförutsägelser och koppling mellan enheter visar på betydande förbättringar jämfört med de senaste metoderna för relationsbaserat lärande. | Till exempel LinkNBed REF är en djup relationell inlärningsram för länk förutsägelse i flera KGs. | 49,901,898 | LinkNBed: Multi-Graph Representation Learning with Entity Linkage | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 11,683 |
Vi introducerar en logik som kallas C2PDLS, motiverad av några resonemang om graf omskrivning system. C2PDLS är en förlängning av både kombinatorisk propositionell dynamisk logik, vanligtvis skriven CPDL, och omvänd propositionsdynamisk dynamisk logik, vanligtvis skrivit CPDL också. Utöver de befintliga egenskaperna hos de båda CPDL-ämnena erbjuder den införda logiken möjligheten att använda begreppet substitutionerà la Hoare inom dess formler. Sådana substitutioner återspeglar effekten av vissa åtgärder på grafstrukturer såsom tillägg eller radering av kanter eller noder. Dessa sista drag fick oss att införa begränsade universella roller över undergrupper av universum. Vi föreslår ett sunt och komplett avdragssystem för C2PDLS och visar att dess giltighetsproblem är avgörande. | J. H. Brenas m.fl. REF undersöker sådana logiker för graftransformationer och definierar C2PDLS, en kombination av både kombinatoriska och omvänt propositionella dynamiska logiker, förstärkt av substitutioner. | 40,422,752 | C2PDLS: A Combination of Combinatory and Converse PDL with Substitutions | {'venue': 'SCSS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 11,684 |
Många Semantic Role Labeling (SRL) kombinationsstrategier har föreslagits och testats på engelska SRL uppgift. Men föga är känt om hur mycket kinesiska SRL kan dra nytta av systemkombination. Och befintliga kombinationsstrategier litar på varje enskilt systems resultat med samma självförtroende när de slås samman till en pool av kandidater. I vårt tillvägagångssätt tilldelar vi olika vikter till olika systemutgångar, och lägger till ett viktat sammanslagningssteg till den konventionella SRL-kombinationsarkitekturen. Vi föreslår också en metod för att få en lämplig vikt för varje systems utdata genom att minimera någon felfunktion på utvecklingssetet. Vi har utvärderat vår strategi för kinesiska Proposition Bank data set. Med vår minsta felviktningsstrategi uppnår F1-poängen i det kombinerade resultatet 80,45 procent, vilket är 1,12 procent högre än resultatet från jämförelsemetoden vid baslinjen, och 4,90 procent högre än det bästa individuella systemets resultat. | I Ref föreslogs en kombinationsstrategi för minsta felviktning för kinesisk SRL-kombination. | 16,837,870 | A Minimum Error Weighting Combination Strategy for Chinese Semantic Role Labeling | {'venue': 'COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 11,685 |
System byggs i allt högre grad av komponenter som förvärvats genom en globalt distribuerad, otillförlitlig leverantörskedja. Bristen på förtroende för dessa komponenter kräver ytterligare validering av komponenterna före användning. Dessutom hårdvarutrojaner blir ett akut problem. I detta dokument presenterar vi en ny formalism och metod för att systematiskt härleda funktionen på hög nivå hos en okänd kretskomponent med tanke på dess nätlista på portnivå. Vi definierar beskrivningen på hög nivå av en krets som en sammankoppling av momentiationer av abstrakta bibliotekskomponenter som kännetecknas av logiska specifikationer. Det föreslagna tillvägagångssättet är baserat på gruv intressant beteendemönster från simulering spår av en port nivå nätlista, och representerar dem som ett mönster diagram. En liknande mönstergraf skapas också för bibliotekskomponenter. Vår metod beräknar först input-output signalkorrespondenser via subgraph isomorfism på mönstergraferna. Den allmänna funktionen hos den okända kretsen bestäms sedan genom att hitta den närmaste matchningen i komponentbiblioteket, med en modell som kontrollerar den okända kretsen mot varje logisk specifikation. Vi visar hur effektivt vårt tillvägagångssätt är när det gäller allmänt tillgängliga kretsar. | I REF formaliserar författarna problemet med omvänd konstruktion beskrivningen av en netlist på hög nivå och presenterar en metod för att matcha en okänd underkrets mot ett bibliotek av abstrakta komponenter. | 7,266,466 | Reverse engineering circuits using behavioral pattern mining | {'venue': '2012 IEEE International Symposium on Hardware-Oriented Security and Trust', 'journal': '2012 IEEE International Symposium on Hardware-Oriented Security and Trust', 'mag_field_of_study': ['Computer Science']} | 11,686 |
En central utmaning för en agent att lära sig interagera med världen är att förutsäga hur dess handlingar påverkar objekt i sin omgivning. Många befintliga metoder för att lära sig dynamiken i fysiska interaktioner kräver märkt objektinformation. Men att skala verklig interaktion lärande till en mängd olika scener och objekt, förvärva märkta data blir alltmer opraktiskt. För att lära oss om fysisk objektrörelse utan etiketter, utvecklar vi en action-konditionerad video förutsägelse modell som explicit modellerar pixel rörelse, genom att förutsäga en distribution över pixel rörelse från tidigare ramar. Eftersom vår modell uttryckligen förutsäger rörelse, är det delvis invariant att objekt utseende, vilket gör det möjligt att generalisera till tidigare osynliga objekt. För att utforska video förutsägelser för interaktiva agenter i verkliga världen, introducerar vi också en datauppsättning på 50.000 robotinteraktioner som innebär att driva rörelser, inklusive en testuppsättning med nya objekt. I detta dataset, exakt förutsägelse av videor som är beroende av robotens framtida åtgärder innebär att lära sig en "visuell fantasi" av olika framtider baserat på olika handlingsvägar. Våra experiment visar att vår föreslagna metod inte bara producerar mer exakta video förutsägelser, men också mer exakt förutsäger objekt rörelse, jämfört med tidigare metoder. | REF utvecklade en åtgärdskonditionerad prediktiv modell som uttryckligen förutsäger en fördelning över pixelrörelse från tidigare ramar. | 2,659,157 | Unsupervised Learning for Physical Interaction through Video Prediction | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 11,687 |
Sammanfattning av denna webbsida: Denna studie undersökte kontrollen av en planar robotarm med två länkar. Kartläggningen baserades på robotens dynamiska modell. Den matematiska modellen för systemet var icke-linjär, och därför föreslogs först en återkoppling linjäriseringskontroll för att erhålla ett linjärt system för vilket en modellprediktiv styrning (MPC) utvecklades. MPC-kontrollparametrarna erhölls analytiskt genom att minimera en kostnadsfunktion. Dessutom gjordes en simuleringsstudie där man jämförde den föreslagna MPC-kontrollmetoden, den linjära quadratic (LQ)-kontrollen baserad på samma återkopplingslinearisering, och en kontrollmetod som föreslås i litteraturen för samma problem. Resultaten visade att den föreslagna metoden var effektiv. | Guechi m.fl. REF gjorde en jämförande studie mellan en MPC och Linjär Quadratic (LQ) optimal kontroll av en robotarm med två länkar, och simuleringsresultaten visade att den föreslagna MPC gav en bättre systemprestanda än LQ optimal styrning. | 53,134,024 | MPC Control and LQ Optimal Control of A Two-Link Robot Arm: A Comparative Study | {'venue': 'Machines', 'journal': 'Machines', 'mag_field_of_study': ['Computer Science']} | 11,688 |
Detta arbete presenterar ett körsystem utformat för virtuella racing situationer. Den bygger på en komplett modulär arkitektur som automatiskt kan köra en bil längs en bana med eller utan motståndare. Arkitekturen består av intuitiva moduler, där var och en ansvarar för en grundläggande aspekt av bilkörning. Dessutom kommer denna modulära arkitektur att göra det möjligt för oss att ersätta eller lägga till moduler i framtiden som ett sätt att förbättra särskilda egenskaper i särskilda situationer. I detta arbete, några av modulerna genomförs med hjälp av hand utformad körning heuristics, medan moduler som ansvarar för att anpassa hastigheten och riktningen på fordonet till spårets form, båda kritiska aspekter av att köra ett fordon, optimeras med hjälp av en genetisk algoritm som utvärderar prestandan hos regulatorn i fyra olika spår för att få den bästa regulatorn i ett stort antal situationer; algoritmen straffar också regulatorer som går ut ur spåret, förlorar kontroll, eller skadas. Utvärderingen av resultatet görs på två sätt. Först, i körningar med och utan motståndare över flera spår. Och för det andra, arkitekturen lämnades in som deltagare till 2010 Simulated Car Racing tävlingen, som i slutändan vann lagrar. C 2012 Wiley Periodicals, Inc. | Inom området racing videospel har REF ) utvecklat ett körsystem, vars regulator för att anpassa fordonets hastighet och riktning till spårets form optimeras med hjälp av en GA. | 17,119,214 | An evolutionary tuned driving system for virtual car racing games: The AUTOPIA driver | {'venue': 'Int. J. Intell. Syst.', 'journal': 'Int. J. Intell. Syst.', 'mag_field_of_study': ['Computer Science']} | 11,689 |
5G-nätverk förväntas kunna uppfylla användarnas olika QoS-krav. Nätverksskärning är en lovande teknik för 5G-nät för att tillhandahålla tjänster som är skräddarsydda för användarnas specifika QoS-krav. Med hjälp av den ökade massiva trådlösa datatrafiken från olika tillämpningsscenarier bör effektiva resursfördelningssystem utnyttjas för att förbättra flexibiliteten i fördelningen av nätresurser och kapaciteten hos 5G-nät som bygger på nätdelning. På grund av de många olika tillämpningsscenarierna för 5G behövs det i hög grad nya system för hantering av rörlighet för att garantera en smidig överlämning av 5G-system baserade på nätverk. I den här artikeln introducerar vi en logisk arkitektur för nätdelningsbaserade 5G-system, och presenterar ett system för hantering av rörlighet mellan olika accessnät, samt ett gemensamt system för makt- och underkanalstilldelning i spektrumdelningssystem som bygger på nätdelning, där både co-tier-interferens och cross-tier-interference beaktas. Simuleringsresultat visar att det föreslagna resursfördelningssystemet på ett flexibelt sätt kan fördela nätresurser mellan olika skivor i 5G-system. Slutligen diskuteras flera öppna frågor och utmaningar i nätdelningsbaserade 5G-nätverk, bland annat nätrekonstruktion, hantering av nätdelning och samarbete med annan 5G-teknik. Det finns fortfarande ingen lämplig metod för att integrera nätverksskärning med C-RAN, SDN och NFV för att tillhandahålla punkt-punkt-anslutning mellan fysisk radioutrustning och styrenhet för radioutrustning. Samarbete mellan nätdelning och annan 5G-teknik är nödvändigt för att möjliggöra fler nätskivor i framtida 5G-nät. | I REF föreslås en logisk arkitektur för 5G-system i form av ett system för hantering av rörlighet mellan olika accessnät baserat på SDN och Volumeme 7, 2019 | 6,755,704 | Network Slicing Based 5G and Future Mobile Networks: Mobility, Resource Management, and Challenges | {'venue': 'IEEE Communications Magazine', 'journal': 'IEEE Communications Magazine', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 11,690 |
Sammanfattning av denna webbsida: 2006 föreslog Hao och Zieliń skida ett tvåsidigt anonymt vetoprotokoll (kallat AV-net), som gav exceptionell effektivitet jämfört med relaterade tekniker. I denna studie lägger författarna till en självförverkligande funktion till AV-nätet, vilket gör det till ett allmänt omröstningsprotokoll. Det nya protokollet fungerar i samma inställning som AV-net -det kräver inga betrodda tredje parter eller privata kanaler, och deltagarna kör protokollet genom att skicka två runda offentliga meddelanden. Jämfört med relaterade röstningsprotokoll i tidigare arbete, är detta betydligt effektivare när det gäller antalet rundor, beräkningskostnader och bandbredd användning. | Hao och al. I REF föreslogs ett självstyrande röstningsprotokoll baserat på ett tvåsidigt anonymt vetoprotokoll (AVnet). | 16,257,948 | Anonymous voting by two-round public discussion | {'venue': 'IET Information Security', 'journal': 'IET Information Security', 'mag_field_of_study': ['Computer Science']} | 11,691 |
Robust Principal Component Analysis (RPCA) via rankminimering är ett kraftfullt verktyg för att återvinna underliggande lågvärdig struktur av rena data korrumperade med glesa buller / yttre. I många lågnivåseende problem, är det inte bara känt att den underliggande strukturen av rena data är låg-rank, men den exakta rangen av rena data är också känd. Men när man tillämpar konventionell rangminimering för dessa problem, är den objektiva funktionen formulerad på ett sätt som inte helt utnyttjar en priori mål rang information om problemen. Denna observation motiverar oss att undersöka om det finns en bättre alternativ lösning när vi använder rangminimering. I detta dokument, i stället för att minimera kärnkraftsnormen, föreslår vi att man minimerar den partiella summan av enskilda värden, vilket underförstått uppmuntrar till begränsning av målgraden. Våra experimentella analyser visar att när antalet prover är bristfälligt leder vårt tillvägagångssätt till en högre framgångsgrad än konventionell rangminimering, medan de lösningar som erhålls genom de två tillvägagångssätten är nästan identiska när antalet prover är mer än tillräckligt. Vi tillämpar vårt förhållningssätt till olika synproblem på låg nivå, t.ex. hög dynamisk avståndsavbildning, rörelsekantsdetektering, fotometrisk stereo, bilduppriktning och återhämtning, och visar att våra resultat överträffar de som erhålls genom den konventionella kärnnorm rangminimeringsmetoden. Index Terms-Robust huvudkomponentanalys, rangminimering, sparsam och lågrankad nedbrytning, trunkerad kärnnorm, växelriktad metod för multiplikatorer | Åh et al. I REF föreslogs att metoden med partiella summanminimering av enskilda värden (PSSV) skulle ersätta den traditionella nukleära normen i RPCA. | 11,633,364 | Partial Sum Minimization of Singular Values in Robust PCA: Algorithm and Applications | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 11,692 |
Förekomsten av näringsidkare med överlägsen information leder till en positiv bug-ask spread även när specialisten är riskneutral och gör noll förväntade vinster. De resulterande transaktionspriserna förmedlar information, och förväntningarna på den genomsnittliga spreaden i kvadrat gånger volymen begränsas av ett antal som är oberoende av insiderverksamhet. Den seriemässiga korrelationen mellan transaktionsprisskillnader är en funktion av den andel av spreaden som beror på negativt urval. En bug-ask-spread innebär en skillnad mellan observerad avkastning och realiserad avkastning. Observerad avkastning är ungefär realizable avkastning plus vad de oinformerade räknar med att förlora till insiders. | REF föreslår att handeln med välinformerade näringsidkare som har bättre information leder till en positiv spridning av köp- och säljuppgifter, även när specialisten är riskneutral och gör inga förväntade vinster. | 2,246,481 | BID, ASK AND' TRANSACTION PRICES IN A SPECIALIST MARKET WITH HETEROGENEOUSLY INFORMED TRADERS* | {'venue': None, 'journal': 'Journal of Financial Economics', 'mag_field_of_study': ['Economics']} | 11,693 |
Det har på senare tid funnits ett stort intresse för "molnlagring" där en användare ber en server att lagra en stor fil. En fråga är om användaren kan verifiera att servern faktiskt lagrar filen, och vanligtvis används ett problem-responsprotokoll för att övertyga användaren om att filen faktiskt lagras korrekt. Säkerheten för dessa system formuleras i termer av en utsugare som kommer att återställa filen med tanke på alla "bevisande algoritm" som har en tillräckligt hög framgång sannolikhet. Detta utgör grunden för system för bevis för återvinning (PoR). I detta dokument studerar vi flera server PoR-system. Vi formaliserar säkerhetsdefinitioner för två möjliga scenarier: (i) En tröskel för servrar lyckas med tillräckligt hög sannolikhet (sämsta fallet), och (ii) genomsnittet av framgångsannolikheten för alla servrar är över en tröskel (genomsnittligt fall). Vi motiverar också studiet av sekretess i det utkontrakterade meddelandet. Vi ger MPoR-system som är säkra enligt båda dessa säkerhetsdefinitioner och ger rimliga sekretessgarantier även när det inte finns några begränsningar av servrarnas beräkningskraft. Vi visar också hur klassiska statistiska tekniker som tidigare använts av oss kan utvidgas för att utvärdera om provtagarnas svar är tillräckligt exakta för att möjliggöra en lyckad extraktion. Vi tittar också på en specifik ögonblicksbild av vår konstruktion när den villkorslöst säkra versionen av Shacham-Waters systemet. Detta system ger rimlig säkerhet och integritet garanti. Vi visar att i multi-server-inställningen med beräkningsmässigt obundna bevis kan man övervinna den begränsning som kontrollören behöver för att lagra lika mycket hemlig information som bevisarna. | I REF presenteras en studie om Multi-prover Proof of Retrievability (MPoR) om sekretessen för meddelandet som lagts ut på entreprenad. | 13,341,543 | Multi-prover proof of retrievability | {'venue': None, 'journal': 'Journal of Mathematical Cryptology', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 11,694 |
Abstract-Class obalans är ett problem som är vanligt för många tillämpningsområden. När exempel på en klass i en träningsdata anger ett stort antal exempel på den andra klassen(erna), tenderar traditionella databrytningsalgoritmer att skapa suboptimala klassificeringsmodeller. Flera tekniker har använts för att lindra problemet med klassobalans, inklusive provtagning och ökning av data. I denna uppsats presenterar vi en ny hybridprovtagning/boosting algoritm, kallad RUSBoost, för att lära sig av skev träningsdata. Denna algoritm ger ett enklare och snabbare alternativ till SMOTEBoost, vilket är en annan algoritm som kombinerar förstärkare och dataprovtagning. I detta dokument utvärderas resultaten av RUSBoost och SMOTEBoost samt deras enskilda komponenter (slumpvis undersampling, syntetisk översamplingsteknik för minoriteter och AdaBoost). Vi utför experiment med 15 datauppsättningar från olika applikationsområden, fyra basinlärare och fyra utvärderingsmått. RUSBoost och SMOTEBoost båda överträffar de andra procedurerna, och RUSBoost presterar jämförbart med (och ofta bättre än) SMOTEBoost samtidigt som den är en enklare och snabbare teknik. Med tanke på dessa experimentella resultat rekommenderar vi starkt RUSBoost som ett attraktivt alternativ för att förbättra klassificeringsprestandan hos elever som byggts med hjälp av obalanserade data. | RUSBoost ger ett enklare och snabbare alternativ till SMOTEBoost som är en annan algoritm som kombinerar ökande och dataprovtagning REF. | 17,691,725 | RUSBoost: A Hybrid Approach to Alleviating Class Imbalance | {'venue': 'IEEE Transactions on Systems, Man, and Cybernetics - Part A: Systems and Humans', 'journal': 'IEEE Transactions on Systems, Man, and Cybernetics - Part A: Systems and Humans', 'mag_field_of_study': ['Computer Science']} | 11,695 |
Vi undersöker problemet med aktivt lärande på ett givet träd vars noder tilldelas binära etiketter på ett kontradiktoriskt sätt. Inspirerad av de senaste resultaten av Guillory och Bilmes, karakteriserar vi (upp till konstanta faktorer) den optimala placeringen av frågor så att minimera de misstag som gjorts på de icke-krävda noderna. Vår frågevalsalgoritm är extremt effektiv, och det optimala antalet misstag på de icke-krävda noderna uppnås genom en enkel och effektiv mincut klassificering. Genom en enkel ändring av frågevalsalgoritm visar vi också optimalitet (upp till konstanta faktorer) med avseende på avvägningen mellan antal frågor och antal misstag på icke-krävda noder. Genom att använda spännande träd kan våra algoritmer effektivt tillämpas på allmänna grafer, även om problemet med att hitta optimala och effektiva aktiva läralgoritmer för allmänna grafer fortfarande är öppet. I detta syfte ger vi en lägre gräns för antalet misstag som görs på godtyckliga grafer av någon aktiv inlärningsalgoritm med hjälp av ett antal frågor som är upp till en konstant bråkdel av grafens storlek. | REF studerar aktivt lärande på träd. | 12,922,930 | Active Learning on Trees and Graphs | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 11,696 |
....................................... DICON är en dynamisk ikonbaserad visualiseringsteknik som hjälper användare att förstå, utvärdera och justera komplexa flerdimensionella kluster. Det ger visuella signaler som beskriver kvaliteten på ett kluster samt dess flera attribut, och kan inbäddas i många typer av visualiseringar såsom kartor, scatter tomter och grafer. Abstract-Clustering som en grundläggande dataanalysteknik har använts i många analytiska tillämpningar. Det är dock ofta svårt för användare att förstå och utvärdera multidimensionella klusterresultat, särskilt kvaliteten på kluster och deras semantik. För stora och komplexa data behövs ofta statistisk information på hög nivå om klusteren för att användarna ska kunna utvärdera klusterkvaliteten, medan det krävs en detaljerad uppvisning av datans flerdimensionella attribut för att förstå klusterens betydelse. I detta dokument introducerar vi DICON, en ikonbaserad klustervisualisering som lägger in statistisk information i en multiattribut-display för att underlätta klustertolkning, utvärdering och jämförelse. Vi designar en trädkarta-liknande ikon för att representera en multidimensionell kluster, och kvaliteten på kluster kan enkelt utvärderas med den inbyggda statistiska informationen. Vi utvecklar vidare en ny layoutalgoritm som kan generera liknande ikoner för liknande kluster, vilket underlättar jämförelser av kluster. Användarinteraktion och minskning av skräp är integrerade i systemet för att hjälpa användare att mer effektivt analysera och förfina klusterresultat för stora dataset. Vi visar DICONs kraft genom en användarstudie och en fallstudie inom hälso- och sjukvårdsområdet. Vår utvärdering visar fördelarna med tekniken, särskilt till stöd för komplex multidimensionell klusteranalys. | DICON REF använder en trädkarta-liknande ikon för att koda datakluster som visar flera attribut och kvalitet på kluster. | 13,054,758 | DICON: Interactive Visual Analysis of Multidimensional Clusters | {'venue': 'IEEE Transactions on Visualization and Computer Graphics', 'journal': 'IEEE Transactions on Visualization and Computer Graphics', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 11,697 |
Vi utvecklar en representation som lämpar sig för oinskränkt igenkänning av ord i naturliga bilder, där oinskränkt betyder att det inte finns någon fast lexikon och ord har okänd längd. I detta syfte föreslår vi en konvolutionell neurala nätverk (CNN) baserad arkitektur som innehåller en villkorlig Random Field (CRF) grafisk modell, tar hela ordet bild som en enda ingång. CRF:s unaries tillhandahålls av ett CNN som förutsäger tecken på varje position i utmatningen, medan högre ordertermer tillhandahålls av ett annat CNN som upptäcker förekomsten av N-gram. Vi visar att hela denna modell (CRF, tecken prediktor, N-gram prediktor) kan optimeras gemensamt genom att bakåt-förstärka den strukturerade output förlust, i huvudsak kräver systemet för att utföra multi-task lärande, och utbildning kräver endast syntetiskt genererade data. Den resulterande modellen är ett mer exakt system på standardiserade verkliga textigenkänningsriktmärken än bara teckenprognoser, vilket ger ett riktmärke för system som inte har utbildats på ett visst lexikon. Dessutom uppnår vår modell state-of-the-art noggrannhet i lexicon-konstruerade scenarier, utan att vara särskilt modellerad för begränsat erkännande. För att testa generaliseringen av vår modell utför vi även experiment med slumpmässiga alfanumeriska strängar för att utvärdera metoden när ingen visuell språkmodell är tillämplig. | I REF är ett CNN med ett strukturerat utdatalager konstruerat för oöverskådlig textigenkänning. | 16,734,174 | Deep Structured Output Learning for Unconstrained Text Recognition | {'venue': 'ICLR 2015', 'journal': 'arXiv: Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 11,698 |
Sociala nätverk har framträtt som en avgörande faktor för informationsspridning, sökning, marknadsföring, expertis och inflytande på upptäckter, och potentiellt ett viktigt verktyg för att mobilisera människor. Sociala medier har gjort sociala nätverk allmänt förekommande, och även gett forskare tillgång till enorma mängder data för empirisk analys. Dessa datauppsättningar erbjuder en rik källa av bevis för att studera dynamiken av individ- och gruppbeteende, strukturen av nätverk och globala mönster av flödet av information om dem. I de flesta tidigare studier var strukturen hos de underliggande nätverken dock inte direkt synlig utan måste härledas från informationsflödet från en individ till en annan. Som ett resultat av detta förstår vi ännu inte dynamiken i informationsspridningen på nätverken eller hur nätverkets struktur påverkar det. Vi tar itu med denna lucka genom att analysera data från två populära sociala nyhetssajter. Specifikt extraherar vi sociala nätverk av aktiva användare på Digg och Twitter, och spårar hur intresset för nyheter sprider sig bland dem. Vi visar att sociala nätverk spelar en avgörande roll för informationsspridningen på dessa webbplatser, och att nätverksstruktur påverkar informationsflödets dynamik. | REF gör en empirisk analys av informationsflödet i sociala nätverk online på Digg och Twitter. | 2,603,383 | Information Contagion: an Empirical Study of the Spread of News on Digg and Twitter Social Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Physics']} | 11,699 |
Detta dokument fokuserar på modellering rider förfrågningar och deras variationer över plats och tid, baserat på att analysera omfattande verkliga data från en ride-sharing tjänst. Vi introducerar en grafmodell som fångar den rumsliga och temporala variabiliteten av ridförfrågningar och potentialen för ridning pooling. Vi upptäcker dessa rider begäran grafer uppvisar en välkänd egenskap som kallas "förtätning makt lag" ofta finns i verkliga grafer modellera mänskligt beteende. Vi visar mönstret av rid begäran och potentialen för ridning pooling för en stad kan karakteriseras av den förtätning faktorn i åktur begäran grafer. Tidigare verk har visat att det är möjligt att automatiskt generera syntetiska versioner av dessa grafer som uppvisar en given förtätningsfaktor. Vi presenterar en algoritm för automatisk generering av syntetisk rid begäran grafer som matchar ganska väl den förtätning faktorn för rid begäran grafer från faktiska rida begäran data. | Baserat på analys av verkliga data från en ridesharing-tjänst, författarna i REF har modellerat körförfrågningar och deras variationer över plats och tid med hjälp av en graf. | 3,749,555 | Space-Time Graph Modeling of Ride Requests Based on Real-World Data | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 11,700 |
Frågan om skydd av privatlivet i samband med videoövervakning har väckt stort intresse på senare tid. Det saknas dock fortfarande en grundlig prestandaanalys och validering, särskilt när det gäller uppfyllandet av integritetsrelaterade krav. I detta dokument lade vi fram en ram för att bedöma integritetsskyddslösningarnas förmåga att dölja särskiljande ansiktsinformation och dölja identitet. Vi utför sedan rigorösa experiment för att utvärdera prestandan hos ansiktsigenkänningsalgoritmer som tillämpas på bilder som ändras av integritetsskyddstekniker. Resultat visar ineffektiviteten av naiva integritetsskydd tekniker såsom pixelisering och suddig. Omvänt visar de effektiviteten av mer sofistikerade scrambling tekniker för att folie ansikte erkännande. | Dufaux och Ebrahimi REF presenterar en effektiv scrambling tekniker för att folie ansikte igenkänning. | 12,979,107 | A framework for the validation of privacy protection solutions in video surveillance | {'venue': '2010 IEEE International Conference on Multimedia and Expo', 'journal': '2010 IEEE International Conference on Multimedia and Expo', 'mag_field_of_study': ['Computer Science']} | 11,701 |
Ett mycket enkelt sätt att förbättra prestandan hos nästan alla maskininlärningsalgoritmer är att träna många olika modeller på samma data och sedan att i genomsnitt deras förutsägelser [3]. Tyvärr, att göra förutsägelser med hjälp av en hel ensemble av modeller är besvärligt och kan vara alltför beräknings dyrt för att tillåta spridning till ett stort antal användare, särskilt om de enskilda modellerna är stora neurala nät. Caruana och hans medarbetare [1] har visat att det är möjligt att komprimera kunskapen i en ensemble till en enda modell som är mycket lättare att använda och vi utvecklar denna metod vidare med hjälp av en annan kompressionsteknik. Vi uppnår överraskande resultat på MNIST och vi visar att vi avsevärt kan förbättra den akustiska modellen av ett kraftigt använt kommersiellt system genom att destillera kunskapen i en ensemble av modeller till en enda modell. Vi introducerar också en ny typ av ensemble som består av en eller flera fullständiga modeller och många specialiserade modeller som lär sig att skilja på finkorniga klasser som de fullständiga modellerna förvirrar. Till skillnad från en blandning av experter kan dessa specialmodeller utbildas snabbt och parallellt. | Kunskapsdestillering REF är ett sätt att överföra kunskap från den besvärliga modellen till en kompakt modell för att förbättra prestandan hos kompakta nät. | 7,200,347 | Distilling the Knowledge in a Neural Network | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 11,702 |
Detta dokument presenterar en ny provtagningsbaserad planerare, CC-RRT*, som genererar robusta, asymptotiskt optimala banor i realtid för linjära Gaussiska system som utsätts för processbuller, lokaliseringsfel och osäkra miljöbegränsningar. CC-RRT* ger garanterad probabilistisk genomförbarhet, både vid varje steg och längs hela banan, genom att använda slumpmässiga begränsningar för att effektivt approximera risken för begränsningsbrott. Denna algoritm expanderar på befintliga resultat genom att använda ramen för RRT* för att ge garantier på asymptotic optimality av den lägsta kostnaden probabilistically genomförbar väg som hittats. En ny riskbaserad objektiv funktion, som visat sig vara tillåten inom RRT*, gör det möjligt för användaren att byta mellan att minimera banans varaktighet och riskaverse beteende. Detta möjliggör modellering av mjuka riskbegränsningar samtidigt med hårda probabilistiska genomförbarhetsgränser. Simuleringsresultat visar att CC-RRT* effektivt kan identifiera smidiga och robusta banor för en mängd olika osäkerhetsscenarier och dynamiker. | CC-RRT* REF använder RRT* för att generera asymptotiskt optimala rörelseplaner som uppfyller användardefinierade slumpbegränsningar. | 14,472,131 | Robust Sampling-based Motion Planning with Asymptotic Optimality Guarantees | {'venue': 'AIAA Guidance, Navigation, and Control (GNC) Conference', 'journal': 'AIAA Guidance, Navigation, and Control (GNC) Conference', 'mag_field_of_study': ['Computer Science']} | 11,703 |
Hyperparametrar av djupa neurala nätverk är ofta optimerade genom rutnätssökning, slumpmässig sökning eller Bayesian optimering. Som ett alternativ föreslår vi att vi använder Covariance Matrix Adaptation Evolution Strategy (CMA-ES), som är känd för sin toppmoderna prestanda inom derivatfri optimering. CMA-ES har några användbara variance egenskaper och är vänlig mot parallella utvärderingar av lösningar. Vi tillhandahåller ett leksaksexempel som jämför CMA-ES och toppmoderna Bayesian optimeringsalgoritmer för att justera hyperparametrarna för ett konvolutionellt neuralt nätverk för MNIST-datauppsättningen på 30 GPUs parallellt. Hyperparametrar av djupa neurala nätverk (DNN) ofta optimeras genom rutnätssökning, slumpmässig sökning (Bergstra & Bengio, 2012) eller Bayesian optimering (Snoek et al., 2012a;. För optimering av kontinuerliga hyperparametrar är Bayesian optimering baserad på Gaussian processer (Rasmussen & Williams, 2006 ) känd som den mest effektiva metoden. Medan för gemensam struktursökning och hyperparameteroptimering, är trädbaserade Bayesian optimeringsmetoder (Hutter et al., 2011; Bergstra et al., 2011) kända för att prestera bättre (Bergstra et al.; Eggensperger et al., 2013; Domhan et al., 2015), här fokuserar vi på kontinuerlig optimering. Vi noterar att heltalsparametrar med ganska breda intervall (t.ex. antal filter) i praktiken kan anses bete sig som kontinuerliga hyperparametrar. Eftersom utvärderingen av en DNN hyperparameterinställning kräver montering av en modell och utvärdering av dess prestanda på valideringsdata, kan denna process vara mycket dyr, vilket ofta gör sekventiell hyperparameteroptimering på en enda datorenhet ogenomförbar. Tyvärr Bayesian optimering är sekventiell av naturen: medan en viss nivå av parallellisering är lätt att uppnå genom att konditionera beslut om förväntningar över flera hallucinerade prestandavärden för närvarande kör hyperparameter utvärderingar (Snoek et al., 2012a) eller genom att utvärdera optima av flera förvärv funktioner samtidigt (Hutter et al., 2012; Chevalier & Ginsbourger, 2013; Desautels et al., 2014) verkar perfekt parallellisering svårt att uppnå eftersom besluten i varje steg beror på alla datapunkter som samlats hittills. Här studerar vi användningen av en annan typ av derivatfri kontinuerlig optimeringsmetod där parallellism är tillåtet genom design. Covariance Matrix Adaptation Evolution Strategy (CMA-ES (Hansen & Ostermeier, 2001) ) är en toppmodern optimizer för kontinuerliga svart-box-funktioner. Medan Bayesian optimeringsmetoder ofta fungerar bäst för små funktionsutvärdering budgetar (t.ex., under 10 gånger antalet hyperparametrar som optimeras), CMA-ES tenderar att prestera bäst för större funktionsutvärdering budgetar; till exempel, Loshchilov et al. (2013) visade att CMA-ES presterade bäst bland mer än 100 klassiska och moderna optimatorer på ett brett utbud av blackboxfunktioner. CMA-ES har också använts för hyperparameterstämning innan, t.ex., för att ställa in sina egna Ranking SVM surrogatemodeller (Loshchilov et al., 2012) eller för automatisk taligenkänning (Watanabe & Le Roux, 2014). I ett nötskal är CMA-ES en iterativ algoritm, som i var och en av sina iterationer, prover λ kandidatlösningar från en multivariat normal distribution, utvärderar dessa lösningar (sekventiellt eller parallellt) och sedan justerar den provtagningsfördelning som används för nästa iteration för att ge högre sannolikhet för goda prover. (Eftersom utrymmesbegränsningar inte tillåter en fullständig beskrivning av CMA-ES hänvisar vi till Hansen & Ostermeier (2001) för detaljer.) Vanliga värden för den så kallade populationen storlek λ är runt 10 till 20; i studien vi rapporterar här, använde vi en större storlek λ = 30 för att dra full nytta av 30 GeForce GTX TITAN Black GPUs vi hade tillgängliga. Större värden av λ är också kända för att vara till hjälp för bullriga 1 arXiv:1604.07269v1 [cs.NE] | Loshchilov och Hutter REF föreslog en alternativ djup neural nätverk hyperparameter optimering istället för rutnätssökning, slumpmässig sökning, eller Bayesian optimering. | 17,098,047 | CMA-ES for Hyperparameter Optimization of Deep Neural Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 11,704 |
Obemannade luftfartyg (UAV) har nyligen ansetts vara ett sätt att tillhandahålla bättre täckning eller återsändningstjänster för mobila användare i trådlösa system med begränsad eller ingen infrastruktur. I denna uppsats studeras ett UAV-baserat mobilt molndatasystem där en rörlig UAV är utrustad med datorkapacitet för att erbjuda beräkningsavlastningsmöjligheter till MUs med begränsad lokal bearbetningskapacitet. Systemet syftar till att minimera den totala mobila energiförbrukningen samtidigt som kvaliteten på servicekraven för den avlastade mobila applikationen tillgodoses. Avlastning möjliggörs genom upplänk och nedlänkning mellan de mobila enheterna och UAV, som sker med hjälp av frekvensdelning duplex via ortogonala eller icke-ortogonala system för flera åtkomster. Problemet med att gemensamt optimera bit allokeringen för upplänk och nedlänk kommunikation samt för beräkning vid UAV, tillsammans med cloudlet's bana under latency och UAV: s energi budget begränsningar formuleras och hanteras genom att utnyttja på varandra följande konvexa approximeringsstrategier. Numeriska resultat visar de betydande energibesparingar som kan uppnås med hjälp av den föreslagna gemensamma optimeringen av bit allokering och cloudlet bana jämfört med lokala mobila utförande samt partiell optimering metoder som designar endast bit allokering eller cloudlet bana. | I REF minimerade författarna den totala mobila energiförbrukningen genom att gemensamt optimera UAV-banan och bittilldelningen, samtidigt som QoS-kraven för den avlastade mobila applikationen uppfylldes. | 3,914,009 | Mobile Edge Computing via a UAV-Mounted Cloudlet: Optimization of Bit Allocation and Path Planning | {'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 11,705 |
Parafrasgenerering är ett viktigt problem i NLP, särskilt i fråga svar, informationssökning, informationsutdrag, konversationssystem, för att nämna några. I detta dokument tar vi upp problemet med att generera parafraser automatiskt. Vår föreslagna metod är baserad på en kombination av djupa generativa modeller (VAE) med sekvens-till-sekvens modeller (LSTM) för att generera parafraser, givet en inmatning mening. Traditionella VAEs i kombination med återkommande neurala nätverk kan generera fri text, men de är inte lämpliga för parafrasgenerering för en viss mening. Vi tar itu med detta problem genom att konditionering både, kodare och avkodare sidor av VAE, på den ursprungliga meningen, så att det kan generera den givna meningens parafraser. Till skillnad från de flesta befintliga modeller är vår modell enkel, modulär och kan generera flera parafraser, för en viss mening. Kvantitativ utvärdering av den föreslagna metoden med hjälp av referensparafrasdata visar dess effektivitet och dess prestandaförbättringar jämfört med de senaste metoderna med en betydande marginal, medan kvalitativ mänsklig utvärdering visar att de genererade parafraserna är väl utformade, grammatiskt korrekta och relevanta för den ingående meningen. Dessutom utvärderar vi vår metod på en nyutgiven frågeparafras dataset, och etablerar en ny baslinje för framtida forskning. | Vårt arbete i parafrasgenerering liknar tillvägagångssättet i REF eftersom vår modell också är baserad på VAE. | 12,737,290 | A Deep Generative Framework for Paraphrase Generation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 11,706 |
Vi beskriver SmartMail, ett prototypsystem för att automatiskt identifiera actionobjekt (uppgifter) i e-postmeddelanden. SmartMail presenterar användaren med en uppgiftsfokuserad sammanfattning av ett meddelande. Sammanfattningen består av en lista över åtgärdsobjekt som hämtats från meddelandet. Användaren kan lägga till dessa åtgärdsobjekt i sin "att göra"-lista. | SmartMail i Corston-Oliver et al. I REF identifieras åtgärdsobjekt(uppgifter) i e-postmeddelanden. | 15,915,751 | Task-Focused Summarization Of Email | {'venue': 'Workshop On Text Summarization Branches Out', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 11,707 |
Abstract-Sharing live multimedia innehåll blir allt populärare bland mobila användare. I den här artikeln studerar vi problemet med att optimera videokvaliteten i ett sådant scenario med skalbar videokodning (SVC) och bitet videoinnehåll. Vi överväger att endast använda vanliga statslösa HTTP-servrar som inte behöver utföra ytterligare bearbetning av videoinnehållet. Vårt viktigaste bidrag är att ge nära till optimala algoritmer för schemaläggning video bit uppladdning för flera kunder med olika visning förseningar. Med tanke på en sådan uppsättning kunder, problemet är att bestämma vilka bitar att ladda upp och i vilken ordning att ladda upp dem så att kvalitetsfördröjningen kan vara optimalt balanserad. Vi visar med hjälp av simuleringar att de föreslagna algoritmerna kan uppnå betydligt bättre prestanda än naiva lösningar i praktiska fall. Speciellt den heuristiska-baserade giriga algoritmen är en bra kandidat för distribution på mobila enheter eftersom den inte är beräkningsintensiv men fortfarande levererar i de flesta fall videokvalitet i par jämfört med den mer komplexa lokala optimeringsalgoritmen. Vi visar också att genom att använda kortare videosegment och kunna förutsäga bandbredds- och videobitars egenskaper förbättras den levererade videokvaliteten i vissa fall. | Bommes m.fl. REF anses vara skalbar videokodning (SVC) och hackat videoinnehåll för optimering av videokvalitet och fördröjning i live videodelning från mobila enheter. | 15,506,288 | Optimized Upload Strategies for Live Scalable Video Transmission from Mobile Devices | {'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']} | 11,708 |
Forskning inom bioinformatik innefattar främst insamling och analys av en stor mängd genomiska data. Naturligtvis kräver den effektiv lagring och överföring av denna enorma mängd data. Under de senaste åren har viss forskning gjorts för att hitta effektiva komprimeringsalgoritmer för att minska storleken på olika sekvenseringsdata. Ett sätt att förbättra överföringstiden för stora filer är att tillämpa en maximal förlustfri komprimering på dem. I det här dokumentet presenterar vi SAMZIP, ett specialiserat kodningssystem, för sekvensjusteringsdata i SAM-format (Sekvensanpassning/Karta), vilket förbättrar kompressionsförhållandet för befintliga komprimeringsverktyg som finns tillgängliga. För att uppnå detta utnyttjar vi förkunskaperna om filformatet och specifikationerna. Våra experimentella resultat visar att vårt kodningssystem förbättrar kompressionsförhållandet och därmed minskar den totala överföringstiden avsevärt. | I REF presenteras ett kodningssystem för sekvensanpassningsdata i SAM-format (Sekvensanpassning/Karta). | 10,349,411 | Improving Transmission Efficiency of Large Sequence Alignment/Map (SAM) Files | {'venue': 'PLoS ONE', 'journal': 'PLoS ONE', 'mag_field_of_study': ['Medicine', 'Physics']} | 11,709 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.