src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
Video, liksom bilder, bör stödja innehåll medveten om storleksändring. Vi presenterar video retargeting med hjälp av en förbättrad sömsnideri operatör. Istället för att ta bort 1D-sömmar från 2D-bilder tar vi bort 2D-sömmar från 3D-rymdtidsvolymer. För att uppnå detta ersätter vi den dynamiska programmeringsmetoden för sömsnideri med grafskärningar som lämpar sig för 3D-volymer. I den nya formuleringen ges en söm genom ett minimalt snitt i grafen och vi visar hur man konstruerar en graf så att den resulterande sömmen är en giltig söm. Det vill säga, snittet är monotont och sammankopplat. Dessutom presenterar vi ett nytt energikriterium som förbättrar den visuella kvaliteten på omriktade bilder och videor. Den ursprungliga snidaren är inriktad på att ta bort sömmar med minst energi, ignorera energi som introduceras i bilder och video genom att tillämpa operatören. För att motverka detta är det nya kriteriet att blicka framåt i sömmar som rör sig i tiden och som introducerar den minsta mängden energi i det omriktade resultatet. Vi visar hur man kodar det förbättrade kriteriet i grafskärningar (för bilder och video) samt dynamisk programmering (för bilder). Vi tillämpar vår teknik på bilder och videor och presenterar resultat från olika applikationer. Detta verk får inte kopieras eller reproduceras helt eller delvis för något kommersiellt ändamål. Tillstånd att kopiera helt eller delvis utan betalning av avgift beviljas för ideella utbildnings- och forskningsändamål, förutsatt att alla sådana fullständiga eller partiella kopior omfattar följande: ett meddelande om att sådan kopiering sker genom tillstånd från Mitsubishi Electric Research Laboratories, Inc.; ett erkännande av upphovsmännen och individuella bidrag till verket; och alla tillämpliga delar av meddelandet om upphovsrätt. Kopiering, reproduktion eller återutgivning för något annat ändamål ska kräva licens med betalning av avgift till Mitsubishi Electric Research Laboratories, Inc. Alla rättigheter förbehållna. Tillstånd att göra digitala eller hårda kopior av delar eller allt detta arbete för personligt bruk eller klassrum beviljas utan avgift under förutsättning att kopior inte görs eller distribueras för profi t eller direkta kommersiella fördelar och att kopior visar detta meddelande på den första sidan eller den första skärmen på en display tillsammans med den fullständiga citeringen. Upphovsrätt till delar av detta verk som ägs av andra än ACM måste hedras. Abstraktering med kredit är tillåten. För att kopiera på annat sätt, för att återpublicera, för att posta på servrar, för att omfördela till listor, eller för att använda någon komponent i detta verk i andra verk krävs föregående specifi c-tillstånd och/eller avgift. Figur 1 : Förbättrad söm snidning för videosekvenser kombinerar ramen av videon för att bilda en 3D kub och finner 2D monotona och anslutna grenrör sömmar med graf skär. Skärningspunkten mellan grenrören och varje ram definierar sömmarna på ramen. Rören hittas med hjälp av ett nytt framåt-energikriterium som minskar både rumsliga och temporal artefakter avsevärt. Video, liksom bilder, bör stödja innehåll medveten om storleksändring. Vi presenterar video retargeting med hjälp av en förbättrad sömsnideri operatör. Istället för att ta bort 1D-sömmar från 2D-bilder tar vi bort 2D-sömmar från 3D-rymdtidsvolymer. För att uppnå detta ersätter vi den dynamiska programmeringsmetoden för sömsnideri med grafskärningar som lämpar sig för 3D-volymer. I den nya formuleringen ges en söm genom ett minimalt snitt i grafen och vi visar hur man konstruerar en graf så att den resulterande sömmen är en giltig söm. Det vill säga, snittet är monotont och sammankopplat. Dessutom presenterar vi ett nytt energikriterium som förbättrar den visuella kvaliteten på omriktade bilder och videor. Den ursprungliga snidaren är inriktad på att ta bort sömmar med minst energi, ignorera energi som introduceras i bilder och video genom att tillämpa operatören. För att motverka detta är det nya kriteriet att blicka framåt i sömmar som rör sig i tiden och som introducerar den minsta mängden energi i det omriktade resultatet. Vi visar hur man kodar det förbättrade kriteriet i grafskärningar (för bilder och video) samt dynamisk programmering (för bilder). Vi tillämpar vår teknik på bilder och videor och presenterar resultat från olika applikationer. | I REF föreslogs en metod för förbättring av sömsnideriförfarandet. | 15,327,645 | Improved seam carving for video retargeting | {'venue': 'ACM Tran. Graphics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,955 |
Vi föreslår en enkel lösning för att använda en enda Neural Machine Translation (NMT) modell för att översätta mellan flera språk. Vår lösning kräver inga ändringar av modellarkitekturen från ett standard NMT-system utan introducerar istället en artificiell token i början av inmatningsmeningen för att ange det önskade målspråket. Med hjälp av ett delat ordförråd möjliggör vårt tillvägagångssätt flerspråkiga NMT-system med hjälp av en enda modell. På WMT'14-riktmärken uppnår en enda flerspråkig modell jämförbara prestanda för engelska→franska och överträffar toppmoderna resultat för engelska→tyska. På samma sätt överträffar en enda flerspråkig modell de senaste resultaten för franska→engelska och tyska→engelska på WMT'14 respektive WMT'15-riktmärken. På produktion corpora, flerspråkiga modeller av upp till tolv språkpar möjliggör bättre översättning av många enskilda par. Våra modeller kan också lära sig att utföra implicit överbryggande mellan språkpar aldrig uttryckligen sett under utbildningen, visar att överföring lärande och nollshot översättning är möjligt för neural översättning. Slutligen visar vi analyser som antyder en universell interlingua representation i våra modeller och även visar några intressanta exempel när man blandar språk. | REF byggde först ett flerspråkigt NMT-system med hjälp av delade NMT kodare för alla språk med målspråksspecifikationer. | 6,053,988 | Google’s Multilingual Neural Machine Translation System: Enabling Zero-Shot Translation | {'venue': 'Transactions of the Association for Computational Linguistics', 'journal': 'Transactions of the Association for Computational Linguistics', 'mag_field_of_study': ['Computer Science']} | 8,956 |
Forskare har visat att under de senaste åren, oönskade webbspårning ökar, med webbläsarbaserade fingeravtryck antas av fler och fler webbplatser som ett livskraftigt alternativ till tredjepartscookies. I detta dokument föreslår vi PriVaricator, en lösning på problemet med webbläsarbaserad fingeravtryckstagning. En viktig insikt är att när det gäller webbspårning, det verkliga problemet med fingeravtryck är inte unik av ett fingeravtryck, det är länkbarhet, dvs förmågan att ansluta samma fingeravtryck vid flera besök. Således gör göra fingeravtryck icke-deterministiska också dem svårt att länka över surfning sessioner. I PriVaricator använder vi kraften i randomisering för att "bryta" länkbarhet genom att utforska ett utrymme av parameteriserade randomiseringspolicyer. Vi utvärderar våra tekniker när det gäller att kunna förhindra fingeravtryck och inte bryta befintliga (benign) webbplatser. Det bästa av vår randomisering politik gör alla fingeravtryck vi testade ineffektiva, samtidigt som den orsakar minimala skador på en uppsättning av 1000 Alexa platser som vi testade, utan någon märkbar prestanda overhead. | Till exempel Nikiforakis et al. Designad och utvecklad PriVaricator REF som använder kraften i webbläsarens fingeravtryck randomisering för att bryta försäljarnas förmåga att ansluta samma fingeravtryck vid flera besök. | 9,954,234 | PriVaricator: Deceiving Fingerprinters with Little White Lies | {'venue': "WWW '15", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,957 |
Abstrakt. Den stora volymen av videoinnehåll och hög tittarfrekvens kräver automatisk videosammanfattning algoritmer, varav en viktig egenskap är förmågan att modellera mångfald. Om videor är långa som timmar långa egocentriska videor, är det nödvändigt att spåra de timliga strukturerna i videorna och genomdriva lokal mångfald. Den lokala mångfalden hänvisar till att de bilder som valts från en kort tid är olika men visuellt liknande bilder får samexistera i sammanfattningen om de visas långt ifrån varandra i videon. I det här dokumentet föreslår vi en ny probabilistisk modell, byggd på SeqDPP [1], för att dynamiskt kontrollera det tidsperspektiv för ett videosegment som den lokala mångfalden är påtvingad. I synnerhet gör vi det möjligt för SeqDPP att lära sig att automatiskt dra slutsatsen hur lokal den lokala mångfalden ska vara från indatavideon. Den resulterande modellen är extremt involverad för att träna med den karakteristiska uppskattningen av maximal sannolikhet (MLE), som ytterligare lider av exponeringsfördel och icke-differentierbara utvärderingsmått. För att ta itu med dessa problem utformar vi istället en förstärkande inlärningsalgoritm för utbildning av den föreslagna modellen. Omfattande experiment verifierar fördelarna med vår modell och den nya inlärningsalgoritmen över MLE-baserade metoder. | DySe-qDPP REF gjorde det möjligt för SeqDPP att lära sig att automatiskt härleda den lokala mångfaldsgraden från indatavideon genom att införa en latent variabel. | 49,666,885 | How Local is the Local Diversity? Reinforcing Sequential Determinantal Point Processes with Dynamic Ground Sets for Supervised Video Summarization | {'venue': 'European Conference on Computer Vision (ECCV 2018)', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,958 |
Bayesian nätverk ger en modellering språk och tillhörande inference algoritm för stokastiska domäner. De har framgångsrikt tillämpats i en mängd olika medelstora tillämpningar. Men när man ställs inför en stor komplex domän, börjar uppgiften att modellera med hjälp av Bayesianska nätverk likna uppgiften att pro gramming med hjälp av logiska kretsar. I detta dokument beskriver vi ett objektorienterat Bayesian network (OOBN) lan guage, som gör det möjligt att beskriva komplexa domäner i termer av inbördes relaterade objekt. Vi använder ett bayesiskt arbetsfragment för att beskriva de probabilistiska relationerna mellan objektets attribut. Dessa attribut kan Thesel ves vara objekt, vilket ger en naturlig ram för kodning av delar av hierarkier. Klasser används för att ge en återanvändbar probabilistisk modell som kan appliceras på flera liknande objekt. Klasserna stöder också förekomsten av modellfragment från en klass till en underklass, vilket gör det möjligt att definiera de gemensamma aspekterna av relaterade klasser endast en gång. Vårt språk har tydliga förklarande semantik: ett OOBN kan tolkas som ett stochas tic funktionellt program, så att det unikt anger en probabilistisk modell. Vi tillhandahåller en inference algoritm för OOBNs, och visar att mycket av den strukturella infor mation kodas av en OOBN-särskilt inkapsling sulation av variabler inom ett objekt och återanvändning av modellfragment i olika sammanhang - kan också användas för att påskynda inferens processen. | Objektorienterade Bayesian nätverk REF ) är en generalisering av Bayesian nätverk och möjliggör att representera grupper av variabler som objekt. | 1,939,888 | Object-Oriented Bayesian Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 8,959 |
Att förutse förekomsten av länkar är ett grundläggande problem i nätverken. I länken förutsägelse problem vi ges en ögonblicksbild av ett nätverk och vill dra slutsatsen vilka interaktioner mellan befintliga medlemmar sannolikt kommer att uppstå inom en nära framtid eller vilka befintliga interaktioner vi saknar. Även om detta problem har studerats ingående, är utmaningen med att effektivt kombinera information från nätverksstruktur med rik nod- och kantattributdata fortfarande till stor del öppen. Vi utvecklar en algoritm baserad på Supervised Random Walks som naturligt kombinerar informationen från nätverksstrukturen med nod- och kantnivåattribut. Vi uppnår detta genom att använda dessa attribut för att styra en slumpmässig gång på grafen. Vi formulerar en övervakad inlärning uppgift där målet är att lära sig en funktion som tilldelar styrkor till kanter i nätverket så att en slumpmässig gångare är mer benägna att besöka noderna till vilka nya länkar kommer att skapas i framtiden. Vi utvecklar en effektiv träningsalgoritm för att direkt lära oss egg strength estimation-funktionen. Våra experiment på Facebook sociala grafen och stora samarbetsnätverk visar att vår strategi överträffar state-of-theart oövervakade tillvägagångssätt samt tillvägagångssätt som är baserade på funktionsextraktion. | Nyligen, Backstrom et al. I REF föreslogs en övervakad slumpmässig gångmetod som kombinerar information från nätverksstrukturen med nod- och kantnivåattribut. | 7,851,677 | Supervised random walks: predicting and recommending links in social networks | {'venue': "WSDM '11", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics', 'Mathematics']} | 8,960 |
Abstract-Dayly liv innehåller många av menyer och skyltar som bär viktig information, men ibland kan det orsaka problem när vi inte kan förstå det. Detta dokument syftade till att utveckla ett nytt system som översätter arabiska texter av skyltarna till engelsk text med hjälp av mobiltelefonkamera. Trots mångfalden av översättningsprodukter av text inbäddad i bilder för många språk, arabiska texter verkar ännu inte vara väl löst för att ta itu med detta problem. Systemet kommer automatiskt att översätta den arabiska texten inbäddad i bilder till engelska. Fyra delsystem som används i algoritmen: förbearbetning, segmentering (textdetektering), teckenigenkänning och översättning. Att hantera arabiska språket var det viktigaste problemet med det föreslagna systemet eftersom det har en uppsättning egenskaper som gör identifieringen mycket svår, till exempel ord som hänger samman med varandra. Systemet detekterar automatiskt texten och fungerar bra med olika bakgrunder, roterade bilder, skev, teckenstorlekar och suddiga bilder. Systemet bedömdes med hjälp av recallmätning för att utvärdera prestandan hos det utvecklade systemet och de experimentella resultaten av teckenigenkänning visar en hastighet på 81,82%, ordigenkänningssystemet gav en hastighet på (94,44%) och ordet översättning var ungefär 83,33%. | De experimentella resultaten av teckenigenkänningsfrekvensen är 81,82% och översättningsfrekvensen är 83,33% REF. | 15,672,082 | Instant Arabic Translation System for Signboard Images Based on Printed Character Recognition | {'venue': None, 'journal': 'International Journal of Machine Learning and Computing', 'mag_field_of_study': ['Computer Science']} | 8,961 |
Abstract-Med den breda tillämpningen, prestanda unimodala biometriska system måste brottas med en mängd olika problem som bakgrundsbuller, signalbuller och distorsion, och miljö eller variationer i enheten. Därför föreslås multimodala biometriska system för att lösa ovannämnda problem. I detta dokument föreslogs ett nytt multimodalt biometriskt system med användning av face-iris fusionsfunktion. Ansikte funktion och iris funktion är först extraheras respektive sammansmälta i funktionsnivå. Befintliga system som totalregeln och regeln om viktad summa är dock ineffektiva i komplicerat skick. I detta dokument antar vi ett effektivt fusionssystem på funktionsnivå för iris och ansikte i serie. Algoritmen normaliserar de ursprungliga funktionerna hos iris och ansikte med z-poäng modell för att eliminera obalans i storleksordningen och fördelningen mellan två olika typer av funktion vektorer, och sedan ansluta den normaliserade funktionen vektorer i seriell regel. Den föreslagna algoritmen testas med hjälp av CASIA iris databas och två ansiktsdatabaser (ORL databas och Yale databas). Experimentella resultat visar hur effektiv den föreslagna algoritmen är. | Zhifang Wang et al Ref har antagit ett effektivt system för fusion av iris och ansikte. | 7,901,142 | Multimodal Biometric System Using Face-Iris Fusion Feature | {'venue': 'JCP', 'journal': 'JCP', 'mag_field_of_study': ['Computer Science']} | 8,962 |
Triangelfria grafer spelar en central roll i grafteori, och triangeldetektering (eller triangelfynd) samt triangeluppräkning (triangellistning) spelar centrala roller i området grafalgoritmer. I distribuerade datorer har algoritmer med sublinjär rund komplexitet för triangelfynd och listning nyligen utvecklats i den kraftfulla CONGEST clique-modellen, där kommunikation är tillåten mellan två noder i nätverket. I detta dokument presenterar vi de första algoritmerna med sublinjär komplexitet för triangelfynd och triangellistning i standard CONGEST-modellen, där kommunikationstopologin är densamma som nätverkets topologi. Mer exakt ger vi randomiserade algoritmer för triangelfynd och listning med rund komplexitet O(n 2/3 (log n) 2/3 ) respektive O(n 3/4 log n), där n betecknar antalet noder i nätverket. Vi visar också en lägre gräns och (n 1/3 /log n) på den runda komplexiteten i triangellistning, som också innehar för CONGEST clique modellen. | I ett nyligen genombrott i detta område, Izumi och Le Gall Ref ansåg subgraph detektion problem för den minsta intressanta subgraf H, triangeln K 3, och visade att man kan upptäcka en triangel i O(n 2/3 ) rundor i CONGEST modell. | 27,019,433 | Triangle Finding and Listing in CONGEST Networks | {'venue': "PODC '17", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,963 |
Abstrakt. I de flesta av de befintliga metoderna för utformning av multiagentsystem finns det inget tydligt sätt att koppla organisatoriska och normativa strukturer till den miljömodell där de ska placeras och drivas. Vårt arbete tar upp detta problem genom att tillsammans, i ett praktiskt tillvägagångssätt för att utveckla multiagentsystem (och sociala simuleringar i synnerhet), skapa ett miljömodellerande språk på hög nivå som omfattar aspekter av agenter, organisationer och normativa strukturer. I dokumentet förklaras i detalj hur idéerna om normativa objekt och normativa platser, tillsammans som en distribuerad normativ infrastruktur, gör det möjligt att definiera vissa typer av etablerade multiagentorganisationer, särskilt organisationer för multiagentsystem som verkar i konkreta miljöer. Normativa objekt är miljöobjekt som används för att förmedla explicit normativt innehåll som reglerar beteendet hos agenser på den plats där sådana objekt kan uppfattas av sådana agenser. I dokumentet definieras dessa begrepp, visar hur de har integrerats i MAS-SOC-plattformen för multiagentsystem för social simulering, ger exempel som illustrerar tillvägagångssättet och pekar på nya problem med (situerade) organisatoriska och normativa strukturer som har förts fram genom det arbete som presenteras här. | På samma sätt, i REF Okuyama et al. föreslå en definition av normativa objekt som gör det möjligt att informera agenter om de normer som reglerar deras sammanhang. | 3,222,864 | A Distributed Normative Infrastructure for Situated Multi-Agent Organisations | {'venue': 'DALT', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,964 |
Interpolatorer-skattare som uppnår noll utbildning fel-har dragit till sig ökad uppmärksamhet i maskininlärning, främst eftersom toppmoderna neurala nätverk verkar vara modeller av denna typ. I detta papper studerar vi minst 2 norm ("grötfri") interpolering i högdimensionella minst kvadrat regression. Vi överväger två olika modeller för funktionsfördelningen: en linjär modell, där funktionsvektorerna xi R p erhålls genom att applicera en linjär transform till en vektor av i.i.d. poster, xi = till 1/2 zi (med zi till R p ); och en icke-linjär modell, där funktionen vektorer erhålls genom att passera inmatningen genom en slumpmässig ett lager neurala nätverk, xi = och (W zi) (med zi R d, W till R p×d en matris av i.i.d. poster och en aktiveringsfunktion som verkar komponentvis på W zi). Vi återhämtar-i ett exakt kvantitativt sätt-flera fenomen som har observerats i storskaliga neurala nätverk och kärnmaskiner, inklusive "dubbel nedstigning" beteende av prognosen risken, och de potentiella fördelarna med överparametrisering. ArXiv:1903.08560v2 [math.ST] 2 Apr 2019 • Linjär modell. Här varje x i =... 1/2 z i, där z i R p har i.i.d. poster med noll medelvärde och enhet varians och på R p×p deterministisk och positiv definitiv. Detta är en standardmodell i slumpmässig matristeori och vi utnyttjar kända resultat från den litteraturen för att få en ganska fullständig asymptotisk karakterisering av risken för out-of-proves förutsägelse. I synnerhet, vi återfinner ett antal fenomen som har observerats i kärnan regression och neurala nätverk (sammanfattning i nästa underavsnitt). • Ickelinjär modell. Här varje poster från N (0, 1/d), och ∂ är en aktiveringsfunktion som agerar komponentvis. Detta motsvarar ett tvålagers neuralt nätverk med slumpmässiga vikter vid det första lagret, och vikter vid det andra skiktet som ges av regressionskoefficienterna β. Denna modell introducerades av Rahimi och Recht (2008) som en randomiserad metod för skalning av kärnmetoder till stora datauppsättningar. Men (relaterat till den linjära modell som beskrivs ovan) är det mycket mindre studeras i den slumpmässiga matristeori litteratur. Vi bevisar ett nytt asymptotiskt resultat som gör att vi kan karakterisera förutsägelsen varians. Resultatet är anmärkningsvärt nära resultatet för den linjära modellen (och i vissa fall identiskt med den), trots det faktum att d kan vara mycket mindre än p. På grund av dess enkelhet, den linjära modellen abstraherar bort några intressanta egenskaper hos modellen (1), särskilt skillnaden mellan indatadimensionen d och antalet parametrar p. Men, även på grund av dess enkelhet, kan vi utveckla en ganska fullständig bild av den asymptotiska risken (som visar effekten av korrelationer mellan egenskaper, signal-to-buller förhållandet, styrkan i modellen felspecifikation, etc.). Det faktum att de två modellerna ger nära relaterade resultat (för riskvarianskomponenten) stöder förhoppningen att den linjära modellen fortfarande kan ge användbara insikter i modellen (1). I vad som följer, vi studerar out-of-prove prediktion risken för minsta 2 norm (eller min-norm, för kort) minst kvadratskattning, i en asymptotic inställning där både antalet prover och funktioner divergera, n, p → ❌, och deras förhållande konvergerar till en icke-noll konstant, p/n → γ. När γ < 1, vi kallar problemet underparametrized, och när γ > 1, vi kallar det överparametrized. Nedan sammanfattar vi våra huvudsakliga resultat på den asymptotiska risken. Ange den underliggande signalen och egenskapen kovariansmatris med β respektive SNR-förhållandet mellan signal och buller (definieras exakt i avsnitt 3.3). Observera att alla utom den sista punkten nedan avser den linjära modellen; se även figur 1 för stödytor, av de asymptotiska riskkurvorna för olika fall av intresse. Detta anslag är avsett att täcka utgifter för tjänstemän och tillfälligt anställda som arbetar med politikområdet Hälsa och konsumentskydd. I det underparametriserade systemet (γ < 1) är risken endast varians (det finns ingen partiskhet), och är inte beroende av β, och (se Theorem 1). Dessutom skiljer sig riskerna åt när vi närmar oss interpoleringsgränsen (som γ → 1). 1. Vad är det för fel på dig? I det överparametriserade systemet (γ > 1) består risken av både bias och varians, och är i allmänhet beroende av β (se Theorem 4, Corollary 1, bilaga A.5). 2. Utgångspunkten är följande: När SNR ≤ 1 är risken monotont minskande jämfört med γ och närmar sig nollrisken (från ovan) som γ → γ (se avsnitt 3.3). 3. Vad är det som händer? När SNR > 1 har en lokal minimirisk på γ® (1, ∞), är bättre än nollrisken för tillräckligt stor γ, och närmar sig nollrisken (underifrån) som γ → γ (se avsnitt 3.3). 4. Vad är det som händer? För en felspecificerad modell, när SNR > 1, kan risken uppnå sitt globala minimum på γ ska (1, ∞) (när det finns tillräckligt stark approximationsfördel, se avsnitt 5.3). Optimalt justerad åsregression dominerar min-norm minsta kvadratskattning i risk, över alla värden av γ och SNR, i både väl specificerade och felspecificerade inställningar. För en felspecificerad modell uppnår optimalt justerad åsregression sitt globala minimum runt γ = 1 (se avsnitt 6). 6. Vad är det som händer? För den ickelinjära modellen är de asymptotiker vi får fortfarande (förvånansvärt) exakta (betyder, inga dolda konstanter) (se Theorem 7). När det gäller en "rent icke-linjär" aktiveringsfunktion, visar vår teori att den asymptotiska risken, något anmärkningsvärt, matchar den linjära modellen med isotropa egenskaper (se Corollary 2). Några kommentarer är i sin ordning. Vi numrerar den första punkten ovan (som ger viktiga sammanhang för de punkter som följer) som 0, eftersom det är ett känt resultat som har dykt upp på olika ställen i slumpmässig matristeori litteratur. | De icke-asymptotiska versionerna av de inställningar som beaktas i REF är nästan identiska med vår-till exempel, vår projektion modell i Avsnitt 3 är nästan identisk med modellen i Hastie et al. (2019, avsnitt 5.1).............................................................................................. | 84,186,305 | Surprises in High-Dimensional Ridgeless Least Squares Interpolation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 8,965 |
Abstrakt. Entity länkning innebär att märka fraser i text med deras referensenheter, såsom Wikipedia eller Freebase poster. Denna uppgift är utmanande på grund av det stora antalet möjliga enheter, i miljoner, och tung-tailed nämna tvetydighet. Vi formulerar problemet i form av probabilistiska slutsatser inom en ämnesmodell, där varje ämne förknippas med en Wikipedia-artikel. För att ta itu med det stora antalet ämnen föreslår vi ett nytt effektivt Gibbs provtagningsprogram som också kan innehålla sidoinformation, såsom Wikipedia-grafen. Detta konceptuellt enkla probabilistiska tillvägagångssätt uppnår toppmoderna resultat när det gäller att koppla samman enheter med datauppsättningen Aida-CoNLL. | Probabilistisk slutsats inom en ämnesmodell där varje ämne motsvarar en Wikipedia-artikel används i REF. | 26,676,256 | A Scalable Gibbs Sampler for Probabilistic Entity Linking | {'venue': 'ECIR', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,966 |
Den dominerande metoden för många NLP uppgifter är återkommande neurala nätverk, särskilt LSTMs, och konvolutionella neurala nätverk. Dessa arkitekturer är dock ganska ytliga i jämförelse med de djupa konvolutionella nätverk som har drivit den senaste tekniken i datorseendet. Vi presenterar en ny arkitektur (VD-CNN) för textbehandling som fungerar direkt på teckennivå och endast använder små konvolutioner och sammanslagningar. Vi kan visa att prestandan av denna modell ökar med djupet: genom att använda upp till 29 konvolutionella skikt rapporterar vi förbättringar över toppmoderna på flera offentliga textklassificeringsuppgifter. Såvitt vi vet är detta första gången som mycket djupa konvolutionsnät har tillämpats på textbearbetning. | REF experiment med mycket djupa CNNs för textklassificering, och resultaten tyder på att djup och max-pooling förbättra prestandan. | 5,079,983 | Very Deep Convolutional Networks for Text Classification | {'venue': 'EACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,967 |
Sammanfattning av denna webbsida: Consumer-grade range-kameror som Kinect-sensorn har potential att användas för att kartlägga applikationer där noggrannhetskraven är mindre strikta. För att förverkliga denna potentiella insikt i den geometriska kvaliteten på de data som förvärvats av sensorn är det viktigt. I detta dokument diskuterar vi kalibreringen av Kinect-sensorn och ger en analys av noggrannheten och upplösningen av dess djupdata. Baserat på en matematisk modell av djupmätning från skillnader presenteras en teoretisk felanalys, som ger en inblick i de faktorer som påverkar uppgifternas exakthet. Experimentella resultat visar att det slumpmässiga felet vid djupmätning ökar med ökande avstånd till sensorn och varierar från några millimeter upp till ca 4 cm vid sensorns maximala räckvidd. Kvaliteten på uppgifterna befinns också påverkas av den låga upplösningen av djupmätningarna. | Författarna till REF ger en detaljerad analys av noggrannheten och upplösningen av Kinect-sensorns djupdata för inomhuskartläggning. | 800,241 | Accuracy and Resolution of Kinect Depth Data for Indoor Mapping Applications | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']} | 8,968 |
Abstract-I detta dokument, en plats-baserad kanal uppskattning algoritm föreslås för massiva multi-input multi-output (MI-MO) system. Genom att använda egenskapen hos styrvektorn införs en snabb Fouriertransform (FFT)-baserad efterbehandling efter den konventionella pilotstödda kanaluppskattningen. Under förutsättning att olika användare med samma pilotsekvens har icke-överlappande vinkel-av-arrivaler (AOAs), den föreslagna kanaluppskattningsalgoritm kan särskilja dessa användare effektivt. För att samarbeta med lokaliseringsbaserad kanaluppskattning föreslås också en pilottilldelningsalgoritm för att säkerställa att användare i olika celler som använder samma pilotsekvens har olika AOAs vid basstationen. Simuleringsresultaten visar att det föreslagna systemet kan minska den intercellsinterferens som orsakas av återanvändningen av pilotsekvensen och därmed avsevärt förbättra systemets övergripande prestanda. | För att maximalt kunna dra nytta av denna platsmedvetna CE-algoritm föreslogs också en platsmedveten pilottilldelning i REF för att uppfylla villkoret att ha icke-överlappande AOAs för användare av olika celler som antar samma pilot. | 5,050,466 | Location-based channel estimation and pilot assignment for massive MIMO systems | {'venue': '2015 IEEE International Conference on Communication Workshop (ICCW)', 'journal': '2015 IEEE International Conference on Communication Workshop (ICCW)', 'mag_field_of_study': ['Computer Science']} | 8,969 |
Abstract-Mobile-edge computing (MEC) framträder som ett lovande paradigm för att förbättra kvaliteten på beräkningsupplevelsen för mobila enheter. Ändå, utformningen av beräkning uppgift schemaläggning politik för MEC system oundvikligen möter en utmanande två-tids stokastisk optimering problem. I den större tidsskalan bör man särskilt besluta om man ska utföra en uppgift lokalt på den mobila enheten eller om man ska avlasta en uppgift till MEC-servern för molndata, medan överföringspolicyn för uppgiftsinmatningsdata i den mindre tidsskalan bör anpassas till kanalsidans information. I detta dokument antar vi en Markov-beslutsprocess för att hantera detta problem, där beräkningsuppgifterna är schemalagda baserat på kötillståndet för uppgiftsbufferten, genomförandetillståndet för den lokala bearbetningsenheten samt överföringsenhetens tillstånd. Genom att analysera den genomsnittliga fördröjningen av varje uppgift och den genomsnittliga strömförbrukningen hos den mobila enheten, formulerar vi ett energibegränsat fördröjningsminimeringsproblem, och föreslår en effektiv endimensionell sökalgoritm för att hitta den optimala schemaläggningspolicyn för uppgiften. Simuleringsresultat tillhandahålls för att visa förmågan hos den föreslagna optimala stokastiska strategin för schemaläggning av uppgifter för att uppnå en kortare genomsnittlig fördröjning av genomförandet jämfört med baslinjepolitiken. | Referensreferensreferensreferensen utformade ett optimalt schema för datauppgiftsplanering, med beaktande av uppgiftsbuffertens köläge, genomförandetillståndet för den lokala bearbetningsenheten, etc. | 16,521,756 | Delay-Optimal Computation Task Scheduling for Mobile-Edge Computing Systems | {'venue': '2016 IEEE International Symposium on Information Theory (ISIT)', 'journal': '2016 IEEE International Symposium on Information Theory (ISIT)', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 8,970 |
Legacy krypteringssystem är beroende av att dela en nyckel (offentlig eller privat) bland de kamrater som deltar i utbytet av ett krypterat meddelande. Detta tillvägagångssätt ger dock upphov till oro för privatlivet. De användare eller tjänsteleverantörer som har nyckeln har ensamrätt på uppgifterna. Särskilt med populära molntjänster går kontrollen över den känsliga datans integritet förlorad. Även när nycklarna inte delas delas det krypterade materialet med en tredje part som inte nödvändigtvis behöver komma åt innehållet. Dessutom kan opålitliga servrar, leverantörer och molnoperatörer fortsätta att identifiera delar av användare långt efter det att användarna har avslutat förhållandet till tjänsterna. I själva verket, Homomorphic Encryption (HE), en speciell typ av krypteringssystem, kan ta itu med dessa problem eftersom det gör det möjligt för tredje part att arbeta på krypterade data utan att dekryptera det i förväg. Även om denna extremt användbara egenskap hos HE-systemet har varit känd i över 30 år, introducerade Craig Gentry 2009 det första trovärdiga och uppnåeliga Helply Homomorphic Encryption (FHE)-systemet, som gör det möjligt för alla beräkningsbara funktioner att utföra på de krypterade uppgifterna. Även om detta var en stor framgång har olika genomföranden hittills visat att FHE fortfarande behöver förbättras avsevärt för att vara praktiskt på varje plattform. Den här undersökningen fokuserar därför på program för högre utbildning och högre utbildning. Först presenterar vi grunderna i HAN och detaljerna i den välkända delvis Homomorphic Encryption (PHE) och något Homomorphic Encryption (SWHE), som är viktiga pelare för att uppnå FHE. Därefter presenteras de viktigaste FHE-familjerna, som har blivit basen för de andra uppföljningsprogrammen för FHE. Dessutom undersöks genomförandet och de senaste förbättringarna av FHE-system av Gentry-typ. Slutligen diskuteras ytterligare forskningsinriktningar. Syftet med denna undersökning är att ge en tydlig kunskap och grund för forskare och praktiker som är intresserade av att känna till, tillämpa och utvidga de toppmoderna systemen HE, PHE, SWHE och FHE. Tillstånd att göra digitala eller papperskopior av hela eller delar av detta arbete för personligt bruk eller klassrum beviljas utan avgift, förutsatt att kopiorna inte görs eller distribueras för vinst eller kommersiella fördelar och att kopiorna är försedda med detta meddelande och den fullständiga hänvisningen på första sidan. Upphovsrätt till delar av detta verk som ägs av andra än ACM måste hedras. Abstraktering med kredit är tillåten. För att kopiera på annat sätt, eller återpublicera, för att posta på servrar eller för att omfördela till listor, krävs tidigare specifik behörighet och/eller avgift. Begär tillstånd från [email protected]. I antikgrekiska användes termen (homos) för att betyda "samma", medan (morf) användes för "shape" (Liddell och Scott 1896). Sedan myntades termen homomorfism och användes i olika områden. I abstrakt algebra definieras homomorfism som en karta som bevarar alla algebraiska strukturer mellan domän och räckvidd för en algebraisk uppsättning (Malik et al. 2007 )............................................................................................................................ Kartan är helt enkelt en funktion, dvs. en operation, som tar indata från uppsättningen av domäner och utdata ett element i intervallet (t.ex., addition, multiplikation). I kryptografifältet används homomorfism som krypteringstyp. Homomorphic Encryption (HE) är en typ av krypteringssystem som tillåter en tredje part (t.ex. moln, tjänsteleverantör) att utföra vissa beräkningsbara funktioner på krypterade data samtidigt som funktionerna i funktionen och formatet för krypterade data bevaras. Denna homomorfa kryptering motsvarar i själva verket en kartläggning i den abstrakta algebran. Som ett exempel på ett additivt HE-schema, för provmeddelanden m 1 och m 2, kan man få E (m 1 + m 2 ) genom att använda E (m 1 ) och E (m 2 ) utan att veta m 1 och m 2 explicit, där E betecknar krypteringsfunktionen. Normalt är kryptering en avgörande mekanism för att bevara integriteten hos känslig information. De konventionella krypteringssystemen kan dock inte fungera på krypterade data utan att först dekryptera dem. Med andra ord måste användarna offra sin integritet för att utnyttja molntjänster som fillagring, delning och samarbete. Dessutom kan opålitliga servrar, leverantörer och populära molnoperatörer hålla fysiskt identifiera element av användare långt efter det att användare avslutar relationen med tjänsterna (McMillan 2013 ). Detta är en viktig integritetsfråga för användarna. I själva verket skulle det vara perfekt om det fanns ett system som inte skulle begränsa de operationer som ska beräknas på de krypterade uppgifterna medan det fortfarande skulle krypteras. Ur ett historiskt perspektiv inom kryptologin användes termen homomorfism för första gången av Rivest et al. (1978a) 1978 som en möjlig lösning på datoriseringen utan dekrypteringsproblem. Detta är en given grund i Rivest et al. (1978a) har lett till ett stort antal försök av forskare runt om i världen att utforma ett sådant homomorfiskt system med en stor uppsättning verksamheter. I detta arbete är det främsta motivet att kartlägga de program för högre utbildning som fokuserar på de senaste förbättringarna på detta område, bland annat delvis, något, och helt och hållet program för högre utbildning. En enkel motiverande HAN exempel för ett prov moln ansökan illustreras i Figur 1. I detta scenario krypterar klienten C först sina privata data (steg 1) och skickar sedan krypterade data till molnservrarna, S, (steg 2). När kunden vill utföra en funktion (dvs. fråga), f (), över sin egen data, skickar han eller hon funktionen till servern (Steg 3). Servern utför en homomorf operation över krypterade data med hjälp av Eval-funktionen, dvs. beräknar f () ögonbindel (steg 4) och returnerar det krypterade resultatet till klienten (steg 5). Slutligen återvinner kunden data med sin egen hemliga nyckel och erhåller f (m) (Steg 6). Som framgår av detta enkla exempel, den homomorphic operation, Eval (), vid serversidan kräver inte den privata nyckeln av klienten och tillåter olika operationer såsom addition och multiplikation på krypterade klientdata. Ett tidigt försök att beräkna funktioner / operationer på krypterad data är Yaos förvrängda krets 1 studie (Yao 1982). Yao föreslog ett kommunikationsprotokoll med två parter som en lösning på | En omfattande undersökning av partiella, något, och helt HE-system presenteras i REF. | 15,662,958 | A Survey on Homomorphic Encryption Schemes: Theory and Implementation | {'venue': 'CSUR', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,971 |
Abstract-existing förutsägelse metoder i flytta objekt databaser kan inte förutsäga platser exakt om frågetiden är långt från den nuvarande tiden. Även för en nära framtid förutsägelse, de flesta tekniker antar banan av ett objekts rörelser kan representeras av några matematiska formler av rörelsefunktioner baserade på dess senaste rörelser. Ett objekts rörelser är dock mer komplicerade än vad de matematiska formlerna kan representera. Förutsägelse baserad på ett objekts bana mönster är ett kraftfullt sätt och har undersökts av flera arbete. Men deras främsta intresse är hur man upptäcker mönster. I detta dokument presenterar vi ett nytt förutsägelsesätt, nämligen The Hybrid Prediction Model, som uppskattar ett objekts framtida platser baserat på dess mönsterinformation samt befintliga rörelsefunktioner med hjälp av objektets senaste rörelser. Specifikt, ett objekts bana mönster som har ad-hoc former för förutsägelse upptäcks och sedan indexeras av en ny åtkomstmetod för effektiv frågebehandling. Dessutom presenteras två frågebehandlingstekniker som kan ge exakta resultat för både nära och avlägsen tid prediktiva frågor. Våra omfattande experiment visar att föreslagna tekniker är mer exakta och effektiva än befintliga prognossystem. | De vektorbaserade prediktionsmodellerna kanske inte är lämpliga för beräkning av mobilt användarbeteende, eftersom ett objekts rörelser är mer komplexa än vad de matematiska formlerna kan representera REF. | 2,366,246 | A Hybrid Prediction Model for Moving Objects | {'venue': '2008 IEEE 24th International Conference on Data Engineering', 'journal': '2008 IEEE 24th International Conference on Data Engineering', 'mag_field_of_study': ['Computer Science']} | 8,972 |
Sakernas Internet (IoT) som integrerar en mängd olika enheter i nätverk för att tillhandahålla avancerade och intelligenta tjänster måste skydda användarnas integritet och ta itu med attacker som spoofing attacker, överbelastningsattacker, störning och tjuvlyssnande. I den här artikeln undersöker vi attackmodellen för IoT-system, och granska IoT säkerhetslösningar baserade på maskininlärning tekniker inklusive övervakad lärande, oövervakat lärande och förstärka lärande. Vi fokuserar på maskininlärning baserad IoT-autentisering, åtkomstkontroll, säker avlastning och malware upptäckt system för att skydda dataintegritet. I den här artikeln diskuterar vi de utmaningar som behöver åtgärdas för att genomföra dessa maskininlärningsbaserade säkerhetssystem i praktiska IoT-system. | Xiao m.fl. Ref beaktade kortfattat ML-metoderna för att skydda dataintegritet och datasäkerhet i IoT-sammanhang. | 27,689,479 | IoT Security Techniques Based on Machine Learning | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 8,973 |
Sammanfattning av denna webbsida: Roterande radarsensorer är perceptionssystem som sällan används i mobil robotik. Detta papper handlar om användningen av en mobil markbaserad panoramaradarsensor som kan leverera både avstånd och hastighet av flera mål i omgivningen. Konsekvensen av att använda en sådan sensor i höghastighetsrobotar är utseendet av både geometriska och Doppler hastighetsförvrängningar i de insamlade data. Dessa effekter ignoreras eller betraktas i de flesta studier som buller och korrigeras sedan baserat på proprioceptiva sensorer eller lokaliseringssystem. Vårt syfte är att studera och använda datasnedvridning och Dopplereffekt som informationskällor för att uppskatta fordonets förskjutning. Den mobila robotens linjära och kantiga hastigheter beräknas genom att analysera förvrängningen av mätningarna som tillhandahålls av den kontinuerliga radarn (FMCW) som kallas IMPALA. Utan någon proprioceptiv sensor används dessa uppskattningar för att bygga fordonets bana och radarkartan över utomhusmiljöer. I det här dokumentet presenteras radarbaserade lokaliserings- och kartresultat för markfordon som rör sig i hög hastighet. | De radarspecifika lösningarna använder datasnedvridning, som används som informationskällor för att uppskatta fordonets förskjutning REF. | 7,940,931 | Localization and Mapping Using Only a Rotating FMCW Radar Sensor | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']} | 8,974 |
Sammanfattning av denna webbsida: I detta dokument presenteras en strategi för rörelseplanering i realtid för autonoma fordon med komplex dynamik och statsosäkerhet. Tillvägagångssättet motiveras av problemet med rörelseplanering för autonoma fordon som navigerar i GPS-förnekade dynamiska miljöer, som omfattar icke-linjär och/eller icke-holonomisk fordonsdynamik, ofullständiga tillståndsuppskattningar och begränsningar på grund av osäkra och belamrade miljöer. För att ta itu med ovanstående problem med rörelseplanering föreslår vi en utvidgning av de slutna trosträden, de slumpmässiga trosträden (CL-RBT), som innehåller förutsägelser om osäkerheten i positionsuppskattningen, med hjälp av en faktoriserad form av den kovarians som tillhandahålls av Kalman-filtrets estimator. Den föreslagna rörelseplaneraren fungerar genom att stegvis bygga ett träd av dynamiskt genomförbara banor med hjälp av den slutna kretsen förutsägelse, medan välja kandidatvägar med låg osäkerhet med hjälp av effektiv covarians uppdatering och spridning. Algoritmen kan fungera i realtid, kontinuerligt förse regulatorn med genomförbara vägar för utförande, vilket gör det möjligt för fordonet att redogöra för dynamiska och osäkra miljöer. Simuleringsresultat visar att det föreslagna tillvägagångssättet kan generera genomförbara banor som minskar osäkerheten i statsuppskattningen, samtidigt som komplexa fordonsdynamik och miljöbegränsningar hanteras. | En provtagningsbaserad algoritm för rörelseplanering i realtid föreslogs REF för planering under statlig osäkerhet, vilket är en förlängning av det slutna trosträdet. | 12,500,265 | Sampling-Based Real-Time Motion Planning under State Uncertainty for Autonomous Micro-Aerial Vehicles in GPS-Denied Environments | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 8,975 |
ABSTRACT Vehicular nätverk står inför utmaningarna att stödja allestädes närvarande anslutningar och hög servicekvalitet för många fordon. För att ta itu med dessa frågor utforskas mobila datorsystem (MEC) som en lovande teknik i fordonsnätverk genom att använda datorresurser i utkanten av trådlösa nät för fordonsåtkomst. I detta dokument studerar vi den effektiva uppgiften offloading system i fordonskant datornätverk. Fordonen utför avlastningstidsval, kommunikation och dataresurser på ett optimalt sätt, fordonens rörlighet och uppgifternas maximala latens beaktas. För att minimera systemkostnaderna, inklusive kostnaderna för de nödvändiga kommunikations- och datorresurserna, analyserar vi först avlastningssystemen i det oberoende MEC-serverscenariot. Avlastningsuppgifterna behandlas oberoende av MEC-servrarna vid åtkomstpunkten. Ett system för överföring av uppgifter som är medvetet om rörligheten föreslås. Därefter, i det kooperativa MEC-servrar scenariot, kan MEC-servrarna ytterligare avlasta de insamlade överbelastningsuppgifter till de angränsande servrarna vid nästa AP på fordonens rörelseriktning. Ett lokaliseringsbaserat system för avlastning föreslås. I båda scenarierna beaktas i huvudsak avvägningarna mellan den avslutade uppgiftens latens och de nödvändiga kommunikations- och beräkningsresurserna. Numeriska resultat visar att våra föreslagna system kan minska systemkostnaderna effektivt, medan latensbegränsningarna är uppfyllda. INDEX TERMS Vehicular nätverk, edge computing, resursallokering, avlastning, rörlighet. | För avlastning av uppgifter i sådana nätverk har kantdata använts i REF. | 77,384,131 | Efficient Mobility-Aware Task Offloading for Vehicular Edge Computing Networks | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 8,976 |
Abstract-Nästan alla datorspel som för närvarande skapas använder fasta scenarier eller enkla fasta regler för att definiera loppet av spelet, vilket oftast resulterar i mycket förutsägbart och oflexibelt beteende av alla element i spelet. Nuvarande forskning om dynamisk anpassningsförmåga i spel gör det redan möjligt för olika element att anpassa sig till spelaren. Dessa tillvägagångssätt använder dock fortfarande centraliserad kontroll. De seriösa spel vi undersöker är konstruerade med hjälp av komplexa och oberoende subtasks som påverkar varandra. Att använda centraliserad kontroll blir opraktiskt om komplexiteten och antalet anpassningsbara element ökar. Vi föreslår ett multiagentiskt tillvägagångssätt för att anpassa seriösa spel till praktikantens kompetensnivå. Med hjälp av separata agenter gör det lättare att garantera den naturliga utvecklingen av varje del av spelet och därmed dess trovärdighet. Användaruppgiften väljs utifrån en kombination av möjliga situationer som agenterna kan tillhandahålla i det skedet av spelet. Uppgiftsvalet är alltså beroende av användarmodellen, agentens preferenser och spelets storyline. Berättelsen och andra krav specificeras med hjälp av en agent organisation ram. Dessutom ges en uppdateringsfunktion för användarmodellen beroende på praktikantens prestanda, uppgiftens svårighet och hur stor påverkan varje deluppgift har. | I REF används organisatoriska specifikationer för att skapa ett distribuerat intelligent uppgiftsvalssystem som anpassar sig till spelarens kompetensnivå och för att modellera berättelsen. | 1,087,274 | On-line adapting games using agent organizations | {'venue': '2008 IEEE Symposium On Computational Intelligence and Games', 'journal': '2008 IEEE Symposium On Computational Intelligence and Games', 'mag_field_of_study': ['Computer Science']} | 8,977 |
Vi studerar en oändlig populationsmodell för den genetiska algoritmen, där iterationen av algoritmen motsvarar en iteration av en karta G. Kartan G är en sammansättning av en urvalsoperatör och en blandningsoperatör, där de senare modellerar effekter av både mutation och crossover. Vi undersöker hyperbolismen hos fasta punkter i denna modell. Vi visar att för en typisk blandning operatör alla fasta punkter är hyperbolic. 1991 Matematik Ämnesklassificering. 37N99,68W40,68J05. | Hayes och Gedeon REF ansågs vara en oändlig populationsmodell för GA där generering av algoritmen motsvarar en generation av en karta. | 645,019 | Hyperbolicity of the fixed point set for the simple genetic algorithm | {'venue': 'Theor. Comput. Sci.', 'journal': 'Theor. Comput. Sci.', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 8,978 |
Abstract-Wireless Rechargeable Sensor Networks (WRSN) kan laddas efter installation för hållbar verksamhet. Nya verk föreslår att använda en enda mobil laddare (MC) resa genom nätverk fälten för att ladda varje sensor nod. Dessa algoritmer fungerar bra i småskaliga nätverk. I storskaliga nätverk fungerar dessa algoritmer dock inte effektivt, särskilt när den mängd energi som MC kan tillhandahålla är begränsad. För att ta itu med dessa utmaningar kan flera MC användas. I detta dokument undersöker vi det minimala MC-problemet (MinMCP) för uppladdningsbara sensornätverk: hur man hittar det minsta antalet energibelastade MC:er och utformar sina laddningsvägar med tanke på ett sensornätverk så att varje sensornod i WRSN upprätthåller ett kontinuerligt arbete. Våra resultat är tre veck. Vi bevisar först att för alla > 0, det finns ingen (2- )-uppskattning algoritm för distanskonstruerade fordon Routing Problem (DVRP) på en allmän metriska utrymme, vilket är den bästa såvitt vi vet. Genom att minska från DVRP, visar vi att MinMCP är NP-hård, och otillåten bundet till MinMCP är samma som DVRP. Sedan föreslår vi approximationsalgoritmer för detta problem. Slutligen utför vi simuleringar för att validera effektiviteten hos våra algoritmer. | I REF anser författarna att det minsta antalet mobilladdare problem i ett allmänt tvådimensionellt nätverk för att hålla nätverket igång för alltid. | 6,434,235 | Using Minimum Mobile Chargers to Keep Large-Scale Wireless Rechargeable Sensor Networks Running Forever | {'venue': '2013 22nd International Conference on Computer Communication and Networks (ICCCN)', 'journal': '2013 22nd International Conference on Computer Communication and Networks (ICCCN)', 'mag_field_of_study': ['Computer Science']} | 8,979 |
I detta dokument presenteras ett förslag till stöd för lärande i en genomträngande datormiljö. Den består av utbildningsagenter (ESA) och en genomträngande personlig pedagogisk agent (P3A). ESA kommer att stödja utbildningstillämpningar med hjälp av den genomträngande miljön ISAM. Agenter kommer att nås via P3A, som alltid ska vara med eleven (agenten flyttar till enheter som eleven använder -desktop, mobiltelefon, handdatorer, etc), hjälpa processen för globalt lärande genom identifiering och anpassning av resurserna i enlighet med elevens pedagogiska modell som består av elevens modell, lärande kontext och lärande objektmodell. | Att lära sig stöd i en genomgripande miljö är också målet för GlobalEdu arkitektur, som föreslås i REF. | 5,634,861 | Globaledu - An Architecture to Support Learning in a Pervasive Computing Environment | {'venue': 'EDUTECH', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,980 |
ABSTRACT Till skillnad från enstaka geospatiala objekt som extraheras från högupplösta fjärranalysbilder ställs uppgiften för vägextrahering inför fler utmaningar, inklusive smalhet, gleshet, mångfald, flerskaliga egenskaper och klassobalans. Med fokus på dessa utmaningar föreslås i detta dokument ett heltäckande ramverk som kallas multifunktionspyramidnätverket (MFPN). I MFPN designar vi en effektiv funktionspyramid och en skräddarsydd pyramidpoolingmodul som utnyttjar semantiska funktioner på flera nivåer av högupplösta fjärranalysbilder. I optimeringsstadiet presenteras en viktad balansförlustfunktion för att lösa problemet med klassobalans som orsakas av vägarnas gleshet. Den föreslagna nya förlustfunktionen är mer känslig för de felklassade och de glesa verkliga märkta pixlarna och hjälper till att fokusera på reservuppsättningen hårda pixlar i träningsstadiet. Jämfört med cross-entropy förlust funktion, den viktade balansförlusten kan minska träningstiden dramatiskt för samma precision. Experiment på två utmanande datauppsättningar av högupplösta fjärranalysbilder som illustrerar den föreslagna algoritmens prestanda har lett till betydande förbättringar, särskilt för smala landsvägar. INDEX TERMS Flera funktioner pyramid nätverk (MFPN), funktion pyramid, pyramid pooling, viktad balans förlust. | År 2018, Gao et al. REF föreslog ett multifunktionspyramidnätverk (MFPN), som används för vägdragning av fjärranalysbilder, och med tanke på en viktad balansförlustfunktion presenteras för att lösa problemet med klassobalans som orsakas av vägarnas gleshet. | 51,921,588 | An End-to-End Neural Network for Road Extraction From Remote Sensing Imagery by Multiple Feature Pyramid Network | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 8,981 |
Femtocells har ansetts vara en lovande teknik för att ge bättre inomhustäckning och rumsliga återanvändningsvinster. Emellertid, co-channel utbyggnaden av makroceller och femtocells fortfarande står inför utmaningar som uppstår till följd av potentiellt allvarlig intercellinterferens. I den här artikeln undersöker vi problemet med resursallokering av femtoceller i co-channel distribution med makroceller. Vi modellerar först upplänk effekt och subkanalallokering i femtoceller som ett icke-kooperativt spel, där inter-cellinterferens beaktas vid maximering av femtocellkapacitet och upplänk femto-to-makro interferens lindras genom att ladda varje femto-användare ett pris proportionellt mot den interferens som det orsakar till makrocellen. Baserat på det icke-kooperativa spelet, vi sedan utforma en semi-distribuerad algoritm för varje femtocell att först tilldela subkanaler till femto användare och sedan tilldela kraft till subkanaler. Simuleringsresultat visar att den föreslagna interference-aware femtocell uplink resursalgoritm kan ge förbättrad kapacitet för inte bara femtocells, men också makrocellen, samt jämförbar eller ännu bättre nivåiell rättvisa i två nivåer nätverket, jämfört med befintliga oprioriterade subkanaltilldelningsalgoritm och modifierad iterativ vattenfyllning-baserad effektalgoritm. | Slutligen visade de att deras interferens-medveten femtocell uplink resursalgoritm kunde ge förbättrad kapacitet för inte bara femtoceller utan också makrocellen i två-tier nätverket REF. | 17,560,663 | Resource allocation with interference mitigation in OFDMA femtocells for co-channel deploymenta | {'venue': None, 'journal': 'EURASIP Journal on Wireless Communications and Networking', 'mag_field_of_study': ['Computer Science']} | 8,982 |
Tillsammans med spridningen av digitala onlinekartor och platsbaserade tjänster har mycket stora POI-databaser (punkt av intresse) byggts där en post motsvarar en POI med information inklusive namn, kategori, adress, geografisk plats och andra funktioner. En grundläggande rumslig fråga i POI-databasen är POI-sökning. I många scenarier kan en användare inte ge tillräckligt med information för att identifiera POI utom en ledtråd. En användare vill till exempel identifiera ett café i en stad som besöktes för många år sedan. SHan minns inte namn och adress men hon minns fortfarande att "caféet ligger ca 200 meter från en restaurang; och svänger vänster på restaurangen finns ett bageri 500 meter bort, etc.". Intuitivt beskriver ledtråden, även partiell och ungefärlig, det spatiotextuella sammanhanget kring den riktade POI. Motiverat av denna observation, undersöker detta arbete ledtråd-baserade spatio-textual fråga som gör det möjligt för användaren att ge ledtråd, dvs. några närliggande POIs och de rumsliga sambanden mellan dem, i POI hämtning. Målet är att hämta k POI från en POI databas med de högsta spatio-textuella sammanhang likheter mot ledtråden. Detta arbete har medvetet designat data-kvalitet-tolerant spatio-text sammanhang likhet metriska för att hantera olika datakvalitetsproblem i både ledtråden och POI-databasen. Genom att korsa värderingen förstärks frågenoggrannheten ytterligare genom ensemblemetoden. Dessutom har detta arbete utvecklat ett index som kallas roll-out-star R-tree (RSR-tree) för att dramatiskt förbättra frågebehandling effektivitet. De omfattande testerna på datamängder från den verkliga världen har verifierat våra metoders överlägsenhet i alla avseenden. | Liu m.fl. föreslog den ledtrådsbaserade spatio-textual query REF som tar en uppsättning nyckelord och en ledtråd som indata, och returnerar k-objekt med högsta likheter mot ledtråden. | 13,938,193 | Clue-based Spatio-textual Query | {'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']} | 8,983 |
Abstract-A non-ortogonal multiple access (NOMA) approach som alltid överträffar ortogonal multipel access (OMA) kallas Fair-NOMA introduceras. I Fair-NOMA tilldelas varje mobilanvändare sin andel av sändningskraften så att dess kapacitet alltid är större än eller lika med den kapacitet som kan uppnås med OMA. För alla långsamma kanalvinster för de två användarna härleds uppsättningen möjliga effektfördelningskoefficienter. För denna uppsättnings infimum och supremum erhålls de individuella kapacitetsvinsterna och den sammanlagda kapacitetsvinsten. Det visas att ergodisk totalkapacitetsvinst närmar sig 1 b/s/Hz när sändningseffekten ökar för fallet när två slumpmässiga användare paras ihop med i.i.d. Kanalvinster. Sannolikheten för avbrott i denna metod är härledd och visar sig vara bättre än OMA. Tillvägagångssättet Fair-NOMA tillämpas för att koppla ihop en användare i närheten av basstation och en användare i cellkant och det ergodiska kapacitetsgapet härleds som en funktion av det totala antalet användare i cellen vid hög SNR. Detta jämförs sedan med det konventionella fallet med fast effekt NOMA med användarparning. Slutligen utvidgas Fair-NOMA till att omfatta K-användare och det är bevisat att kapaciteten alltid kan förbättras för varje användare, samtidigt som man använder mindre än den totala sändningseffekt som krävs för att uppnå OMA-kapacitet per användare. | Ett rättvist NOMA-protokoll, där användarkapaciteten alltid är minst lika stor som den kapacitet som uppnås med ortogonal multipel åtkomst (OMA), föreslogs i REF. | 2,148,287 | A Fair Power Allocation Approach to NOMA in Multi-user SISO Systems | {'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 8,984 |
Abstract-This paper undersöker kartläggningen av algoritmer som man stöter på när man löser täta linjära system och linjära leasquare problem till en anpassad Linjär algebra processor. Specifikt är fokus på Cholesky, LU (med partiell pivoting), och QR factorizations. Som en del av studien exponerar vi fördelarna med att omforma flyttalenheter och deras omgivande datapatter för att stödja dessa komplicerade operationer. Vi visar hur att lägga måttlig komplexitet till arkitekturen i hög grad lindrar komplexiteten i algoritmen. Vi studerar design kompromisser och effektiviteten av arkitektoniska modifieringar för att visa att vi kan förbättra kraft och prestanda effektivitet till en nivå som annars bara kan förväntas av full kund ASIC design. En genomförbarhetsstudie visar att våra utbyggnader till MAC-enheterna kan fördubbla hastigheten på de vektor-norm-operationer som krävs och samtidigt minska energin med 60%. På samma sätt kan upp till 20 % snabbare med 15 % energibesparing uppnås för LU faktorisering. Vi visar hur en sådan effektivitet upprätthålls även i de komplexa inre kärnan i dessa operationer. | I REF, författare har presenterat flera flyttal enhet arkitektur förlängningar för att påskynda matris factorizations. | 12,249,310 | Floating Point Architecture Extensions for Optimized Matrix Factorization | {'venue': '2013 IEEE 21st Symposium on Computer Arithmetic', 'journal': '2013 IEEE 21st Symposium on Computer Arithmetic', 'mag_field_of_study': ['Computer Science']} | 8,985 |
Vi bevisar lägre gränser för den direkta summan problem för två part avgränsade fel randomiserade multiplexround kommunikationsprotokoll. Våra bevis använder begreppet information kostnad för ett protokoll, som definieras av Chakrabarti et al. [CSWY01] och förfinas ytterligare genom. Vårt huvudsakliga tekniska resultat är en "kompression" teorem som säger att, för varje sannolikhetsfördelning μ över indata, ett k-round privat mynt avgränsade felprotokoll för en funktion f med informationskostnad c kan omvandlas till ett kround deterministiskt protokoll för f med begränsad distributionsfel och kommunikationskostnad O(kc). Vi bevisar detta resultat med hjälp av en substate sats om relativ entropi och en avvisande provtagning argument. Vårt direkta resultat följer av detta "kompressionsresultat" via teoretiska argument för elementär information. Vi betraktar också problemet med den direkta summan i kvantkommunikationen. Med ett probabilistiskt argument visar vi att budskapen inte kan komprimeras på detta sätt även om de innehåller liten information. Därför kan det bli nödvändigt med nya tekniker för att ta itu med problemet med direkta summor i kvantkommunikationen. | REF visade lägre gränser för problemet med direktsummor för tvåparts randomiserade protokoll med r rundor. | 687,265 | A direct sum theorem in communication complexity via message compression | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 8,986 |
Vi försöker öka ett geometriskt nätverk i Euclidean planet med genvägar för att minimera dess kontinuerliga diameter, dvs. det största nätverksavståndet mellan två punkter på det utökade nätverket. Till skillnad från i den diskreta inställningen där en genväg ansluter två hörn och diametern mäts mellan hörn, tar vi alla punkter längs kanterna på nätverket i beaktande när du placerar en genväg och när du mäter avstånd i det utökade nätverket. Vi studerar detta nätverk enhancement problem för vägar och cykler. För vägar bestämmer vi en optimal genväg i linjär tid. För cykler visar vi att en enda genväg aldrig minskar den kontinuerliga diametern och att två genvägar alltid räcker för att minska den kontinuerliga diametern. Dessutom karakteriserar vi optimala par av genvägar för konvexa och icke-konvexa cykler. Slutligen utvecklar vi en linjär tid algoritm som producerar ett optimalt par genvägar för konvexa cykler. Förutom algoritmerna sträcker sig våra resultat till rektifierbara kurvor. Vårt arbete avslöjar några av de underliggande utmaningar som måste övervinnas när man tar itu med den diskreta versionen av detta nätverk augmentation problem, där vi minimerar den diskreta diametern på ett nätverk med genvägar som endast ansluter hörn. ACM Subject Classification The minimum-diameter network augmentation problem handlar om att minimera det största avståndet mellan två hörn av en kant-viktad graf genom att införa nya kanter som genvägar. Vi studerar detta problem i en kontinuerlig och geometrisk inställning där nätverket är en geometrisk graf inbäddad i Euclidean planet, vikten av en genväg är Euclidean avståndet av dess slutpunkter, och genvägar kan införas mellan två punkter längs nätverket som kan vara hörn eller punkter längs kanter. Som ett urval ansökan, överväga ett nätverk av motorvägar där vi mäter avståndet mellan två platser i termer av restid. En stadsingenjör kanske vill förbättra den värsta restiden längs en motorväg eller längs en ringväg genom att införa genvägar. Vårt arbete ger råd om var dessa genvägar ska byggas. Till exempel visar vi var * Detta arbete stöddes delvis av NSERC. Ett nätverk är en oriktad graf som är inbäddad i Euclidean planet och vars kanter viktas med sin Euclidean längd. Vi säger en punkt p ligger på ett nätverk G och skriva p på G när det finns en kant e av G sådan att p är en punkt längs inbäddningen av e. En punkt p på en kant e av längd l delar e i två delkanter längder (1 − λ) · l och λ · l för något värde λ och [0, 1]. Genom att ange punkterna på G i fråga om deras relativa position (uttryckt med λ) längs deras innehållande kant, undviker vi alla tvetydigheter vid korsningar. Nätverksavståndet mellan två punkter p och q på ett nätverk G är längden på en vägd kortaste väg från p till q i G. Vi betecknar nätverksavståndet mellan p och q genom d G (p, q) och vi utelämnar subskriptet när nätverket förstås. Det största nätverksavståndet mellan två punkter på G är Termen kontinuerlig skiljer detta begrepp från den diskreta diametern som mäter det största nätverksavståndet mellan två hörn. Vi betecknar det euklideiska avståndet mellan p och q genom PQ. En linjesegment pq, med Vi utökar ett nätverk G med en genväg pq enligt följande. Vi introducerar nya hörn vid p och vid q i G, subdividera deras innehållande kanter, och vi lägger till en kant från p till q av längd. Det resulterande nätverket betecknas med G + pq. Vi försöker minimera den kontinuerliga diametern på ett nätverk genom att införa genvägar. I den diskreta abstrakta inställningen överväger vi en abstrakt graf G med enhetsvikter och frågar om vi kan minska den diskreta diametern av G till som mest D genom att lägga till i de flesta k kanter. För varje fast D ≥ 2, detta problem är NP-hård [1, 6, 8], har parametrisk komplexitet W[2]-hård [3, 4], och förblir NP-hård även om G är ett träd [1]. För en översikt över approximationsalgoritmer i termer av både D och k hänvisas till exempelvis Frati et al. Kommissionens genomförandeförordning (EU) nr 668/2014 av den 13 juni 2014 om tillämpningsföreskrifter för Europaparlamentets och rådets förordning (EU) nr 1151/2012 om kvalitetsordningar för jordbruksprodukter och livsmedel (EUT L 179, 19.6.2014, s. 1). I den diskreta geometriska inställningen överväger vi en geometrisk graf, där en genväg förbinder två hörn. Große m.fl. [5] är de första att överväga diameter minimering i denna inställning. De bestämmer en genväg som minimerar den diskreta diametern på en väg med n hörn i O(n log 3 n) tid. Ett geometriskt näts spännvidd, dvs. det största förhållandet mellan nätavståndet och Euclideans avstånd mellan två punkter, har också betraktats som målfunktion för kantförstärkning. Våra resultat gäller nätverk som är banor, cykler och konvexa cykler. Figurerna 1 och 2 illustrerar exempel på optimala genvägar för vägar och cykler. I Avsnitt 2, utvecklar vi en algoritm som producerar en optimal genväg för en väg med n hörn i O(n) tid. I Avsnitt 3, visar vi att för cyklar en enda genväg aldrig räcker för att minska diametern och att två genvägar alltid räcker. Vi karakteriserar par av optimala genvägar för konvexa och icke-konvexa cykler. Baserat på denna karakterisering utvecklar vi en algoritm i Avsnitt 4 som bestämmer ett optimalt par genvägar för en konvex cykel med n hörn i O(n) tid. Betrakta en polygonal väg P i planet. Vi söker en genväg pq för en väg P som minimerar den kontinuerliga diametern av den utökade vägen P + pq, dvs., Följande notation illustreras i Figur 3. Låt s och e vara endpoints för P och låt p vara närmare s än q längs P, dvs d(s, p) < d (s, q). För a, b, P, låt P [a, b] betecknar delbanan från a till b längs P, och låt C (p, q) vara den enkla cykeln i P + pq. Förstärker en väg P med en genväg pq. Genväg skapar en cykel C(p, q) med sub-sökvägen från p till q längs P. Den längst bort punkten från p på denna cykel isp och q är längst bort från q på C(p, q). Avståndet d(q,p) mellanq ochp längs P matchar Euclideans avstånd mellan p och q, på grund av följande. När vi flyttar en punkt g från p till q längs genvägen pq, då den längst punkten till formen g längs C(p, q) rör sig från p till q reser samma avstånd som g, dvs., Pq. I enlighet med artikel 2.1 i genomförandeförordning (EU) nr 668/2014 ska kommissionen ges befogenhet att anta delegerade akter i enlighet med artikel 290 i fördraget om Europeiska unionens funktionssätt vad gäller tillämpningen av Europaparlamentets och rådets förordning (EU) nr 1151/2012 om kvalitetsordningar för jordbruksprodukter och livsmedel (EUT L 179, 19.6.2014, s. 1). Låt pq vara en genväg för P. Varje kontinuerlig diametrial väg i P + pq innehåller en endpoint P, utom när genvägen ansluter slutpunkterna för P. Bevis. Låt P vara en polygonal väg med slutpunkter s och e, och låt pq vara en genväg för P. Låt π vara en väg längs P + pq. När en endpoint av π ligger på P [s, p] eller på P [e, q], kan vi skapa en längre väg genom att förlänga π till s eller e. Antag att båda endpoints av π ligger på den enkla cykel C(p, q). Som illustreras i figur 4, Vi kan flytta endpoints av π vid samma hastighet moturs längs C(p, q) tills en av dem sammanfaller med p eller med q. Den resulterande vägen π har samma längd som π och kan förlängas av P [s, p] eller P [e, q] som skapar en längre väg än π, om inte s = p och e = q. Därför, för varje genväg pq andra än se, varje kontinuerlig diametrial väg i P + pq måste innehålla och endpoint P. Enligt Lemma 2.1, har vi följande tre kandidater för kontinuerlig diametrial vägar i det utökade nätverket P + pq, varav två illustreras i Figur 5. 1. Vad är det för fel på dig? Sökvägen U (p, q) från s till e via genvägen pq, 2. sökvägen S(p, q) från s till den längst bort belägna punkten från s på C(p, q) och 3. sökvägen E(p, q) från e till den längst bort belägna punkten från e på C(p, q). Låta vara längst punkten från p på C(p, q), och låtq vara längst punkten från q på C(p, q). betecknar slack mellan p ochq (och symmetriskt mellan p och q) längs C (p, q). Med denna notation har vi och vi kan uttrycka längden av U (p, q), S (p, q) och E (p, q) enligt följande. J.-L. De Carufel, C. Grimm, A. Maheshwari, och M. Smid Följande lemma kännetecknar vilken av stigarna U (p, q), S(p, q) och E(p, q) bestämmer diametern på P + pq. Notera att dessa fall överlappar exempelvis E (p, q) och S (p, q) Bevis. Påståendet följer, eftersom följande relationer är bevarade för till { <, =, >}. Lemma 2.3. För varje väg P, Det finns en optimal genväg pq sådan att S (p, q) och Bevis. Antag att vi har en genväg pq för en väg P sådan att U (p, q) är kontinuerlig diametrial i P + pq. I noteringen av Lemma 2.2 betyder detta z ≤ x och z ≤ y. Genom triangeln ojämlikhet, längden på U (p, q)-och därmed, den kontinuerliga diametern minskar eller förblir densamma som vi flyttar p närmare s (minskning x) eller q närmare e (minskning y). Dessutom ökar minskningen av x eller y z. Därför kan vi flytta genvägen närmare s och till e tills vi har x = z eller y = z, d.v.s., min(x, y, z) = min(x, y) samtidigt som vi behåller eller minskar den kontinuerliga diametern. | I den geometriska och kontinuerliga inställningen REF, Vi minimerar den kontinuerliga diametern på ett geometriskt nätverk genom att infoga linjesegment som kan ansluta två punkter längs kanterna. | 1,419,361 | Minimizing the Continuous Diameter when Augmenting Paths and Cycles with Shortcuts | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 8,987 |
Vi presenterar två tekniker för att förbättra landmärke lokalisering i bilder från delvis kommenterade datauppsättningar. Vårt primära mål är att utnyttja den gemensamma situationen där exakta landmärken endast tillhandahålls för en liten delmängd data, men där klassetiketter för klassificerings- eller regressionsuppgifter relaterade till landmärken är mer tillgängliga. För det första föreslår vi ramverket för sekventiell multitasking och utforskar det här genom en arkitektur för landmärkeslokalisering där utbildning med klassetiketter fungerar som en hjälpsignal för att vägleda landmärkeslokaliseringen på omärkt data. En viktig aspekt av vårt förhållningssätt är att felen kan återförfördelas genom en komplett landmärkeslokaliseringsmodell. För det andra föreslår och utforskar vi en oövervakad inlärningsteknik för landmärkeslokalisering baserad på att ha en modell som förutsäger likvärdiga landmärken med avseende på transformationer som tillämpas på bilden. Vi visar att dessa tekniker, förbättra landmärkesförutsägelser avsevärt och kan lära sig effektiva detektorer även när endast en liten del av datasetet har landmärkesetiketter. Vi presenterar resultat på två leksaksdataset och fyra riktiga dataset, med händer och ansikten, och rapporterar nya state-of-the-art på två dataset i det vilda, t.ex. Med endast 5% av märkta bilder överträffar vi tidigare toppmoderna utbildningar i AFLW-datasetet. | Honari m.fl. REF undersökte situationen där exakta kommentarer endast ges för en liten delmängd. | 4,428,019 | Improving Landmark Localization with Semi-Supervised Learning | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 8,988 |
I många online-tillämpningar av maskininlärning kommer de beräkningsresurser som finns tillgängliga för klassificering att variera från tid till annan. De flesta tekniker är utformade för att fungera inom gränserna för de minsta förväntade resurserna och misslyckas med att utnyttja ytterligare resurser när de är tillgängliga. Vi föreslår en ny när som helst klassificeringsalgoritm, när som helst genomsnittliga probabilistiska estimatorer (AAPE), som är kapabel att leverera stark förutsägelse noggrannhet med lite CPU-tid och utnyttja ytterligare CPU-tid för att öka klassificering noggrannhet. Tanken är att köra en ordnad sekvens av mycket effektiva Bayesian probabilistic estimators (enkel förbättring steg) tills klassificeringstiden tar slut. Teoretiska studier och empiriska valideringar visar att genom att korrekt identifiera, beställa, åberopa och likställa enskilda förbättringssteg kan AAPE uppnå korrekt klassificering närhelst det avbryts. Det är också möjligt att producera klasssannolikhet uppskattningar utöver enkla 0/1-förlust klassificeringar, samt skickligt hantera inkrementellt lärande. | REF införde alla tiders genomsnittliga probabilistiska estimatorer (AAPE) för att utnyttja ytterligare beräkningsresurser under klassificeringen. | 1,855,468 | Classifying under computational resource constraints: anytime classification using probabilistic estimators | {'venue': 'Machine Learning', 'journal': 'Machine Learning', 'mag_field_of_study': ['Computer Science']} | 8,989 |
Abstrakt. Avbild-till-klass (I2C) avstånd används först i Naive-Bayes Nearest-Neighbor (NBNN) klassificering för bildklassificering och har framgångsrikt hanterat dataset med stora intra-klass varianser. Detta avstånds prestanda beror dock i hög grad på det stora antalet lokala funktioner i träningssetet och testbilden, som kräver tunga beräkningskostnader för sökning i närmaste granne (NN) i testfasen. Om man använder ett litet antal lokala funktioner för att påskynda NN-sökningen kommer resultatet att bli dåligt. I detta dokument föreslår vi en stor marginalram för att förbättra diskrimineringen av I2C-avstånd, särskilt för ett litet antal lokala särdrag genom att lära sig per-klass Mahalanobis-mått. Våra I2C avstånd är anpassningsbara till olika klasser genom att kombinera med den inlärda metriska för varje klass. Dessa multipla Per-klass mätvärden lärs samtidigt genom att bilda ett konvext optimeringsproblem med de begränsningar som I2C avstånd från varje träningsbild till dess tillhörande klass bör vara mindre än avståndet till andra klasser med stor marginal. En gradient nedstigning metod tillämpas för att effektivt lösa detta optimeringsproblem. För ökad effektivitet och prestanda, antar vi också idén om rumslig pyramid begränsning och lärande I2C distans funktion för att förbättra denna I2C avstånd. Vi visar i experiment att den föreslagna metoden avsevärt kan överträffa den ursprungliga NBNN i flera vanliga bilddatauppsättningar, och våra bästa resultat kan uppnå state-of-the-art prestanda på de flesta datauppsättningar. | Genom att införliva I2C avståndsmätning i distans metrisk inlärning, Wang et al. REF antog idén om stor marginal från SVM och föreslog en metod som heter I2C distans metrisk inlärning (I2CDML) för att lära sig en distans metrisk specifik för varje klass. | 18,741,138 | Image-to-class distance metric learning for image classification | {'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,990 |
Visuell objektigenkänning kräver att en bild matchas med en uppsättning modeller som lagras i minnet. I detta dokument föreslår vi en strategi för erkännande där ett 3-D-objekt representeras av den linjära kombinationen av 2-D-bilder av objektet. Om JLk 'M1.......................................................................................................... .Mk} är den uppsättning bilder som representerar ett givet objekt och P är 2-D bilden av ett objekt som ska kännas igen, då P anses vara en instans av M om P= C~=,aiMi för vissa konstanter (pi. Vi visar att detta tillvägagångssätt hanterar rätt styva 3D-transformationer av objekt med skarpa såväl som släta gränser och kan även hantera icke-rigida transformationer. Papperet är uppdelat i två delar. I den första delen visar vi att de olika vyer som skildrar samma objekt under olika omvandlingar ofta kan uttryckas som linjära kombinationer av ett litet antal vyer. I den andra delen föreslår vi hur denna linjära kombinationsegenskaper kan användas i igenkänningsprocessen. Index Terms-Alignment, linjära kombinationer, objektigenkänning, igenkänning, 3-D objektigenkänning, visuell igenkänning. Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. Erkännande av Alignment V ISUAL OBJECT-igenkänning kräver att en bild matchas med en uppsättning modeller som lagras i minnet. Låt M = {Ml,. , M,} vara uppsättningen lagrade modeller och P vara bilden som ska kännas igen. I allmänhet kan det visade objektet, avbildat av P, skilja sig från alla tidigare sedda bilder av samma objekt. Det kan till exempel vara bilden av ett tredimensionellt objekt sett från en ny visningsposition. För att kompensera för dessa variationer kan vi tillåta modellerna (eller det visade objektet) att genomgå vissa kompenserande transformationer under matchningssteget. Om 7 är den uppsättning tillåtna omvandlingar, det matchande skedet kräver valet av en modell A4, E M och en omvandling T E 7, så att det visade objektet P och den omvandlade modellen TM, kommer att vara så nära som möjligt. Det allmänna systemet kallas anpassningsmetod eftersom en anpassningsomvandling tillämpas på modellen (eller på det visade objektet) före eller under matchningssteget. Ett sådant tillvägagångssätt används i [S] I detta dokument föreslår vi ett annat tillvägagångssätt, där varje modell representeras av den linjära kombinationen av 2-D-bilder av objektet. Det nya tillvägagångssättet har flera fördelar. För det första hanterar den alla stela 3-D-omvandlingar, men det är inte begränsat till sådana omvandlingar. För det andra finns det inget behov i detta system av att uttryckligen återvinna och representera objektens 3D-struktur. För det tredje är beräkningarna ofta enklare än i tidigare system. Papperet är uppdelat i två delar. I det första (avsnitt I) visar vi att de olika vyer som skildrar samma objekt under olika omvandlingar ofta kan uttryckas som linjära kombinationer av ett litet antal vyer. I den andra delen (avsnitt II) föreslår vi hur denna linjära kombinationsegenskaper kan användas i igenkänningsprocessen. Modelleringen av objekt med linjära kombinationer av bilder baseras på följande observation. För många kontinuerliga omvandlingar av intresse för erkännande, såsom 3-D rotation, översättning och skalning, kan alla möjliga vyer av det omvandlande objektet uttryckas helt enkelt som en linjär kombination av andra vyer av samma objekt. Koefficienter för dessa linjära kombinationer följer ofta utöver vissa funktionella begränsningar. I de två följande avsnitten visar vi att uppsättningen möjliga bilder av ett objekt som genomgår stela 3-D-omvandlingar och skalning är inbäddad i ett linjärt utrymme och spänns av ett litet antal 2-D-bilder. De bilder vi kommer att överväga är 2-D kantkartor som produceras i bilden av den (ortografiska) projektionen av de avgränsande konturerna och andra synliga konturer på 3-D-objekt. Vi kommer att använda oss av följande definitioner. Med tanke på ett föremål och en siktriktning är fälgen uppsättningen av alla punkter på objektets yta vars normala är vinkelrät mot siktriktningen [13]. Denna uppsättning kallas också konturgeneratorn [17]. En siluett är en bild som genereras av den ortografiska projektionen av fälgen. I analysen nedan antar vi att varje punkt längs silhuetten genereras av en enda fälg 0162~8828/91$01.00 0 1991 IEEE | Den använder en linjär kombination av två prototyper i ett funktionsutrymme, medan ett 3-D-objekt i REF representeras av en linjär kombination av 2-D-gränskartor över objektet och kunskap om avbildningsparametrar krävs inte. | 8,989,489 | Recognition by Linear Combinations of Models | {'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']} | 8,991 |
Abstrakt. Detta dokument presenterar en kognitiv vision för att erkänna en uppsättning intressanta aktiviteter i det dagliga livet (ADL) för äldre i hemmet. Det föreslagna tillvägagångssättet består av en videoanalyskomponent och en verksamhetsigenkänningskomponent. En videoanalyskomponent innehåller persondetektering, personspårning och igenkänning av människans hållning. En mänsklig positionsigenkänning består av en uppsättning hållningsmodeller och en dedikerad mänsklig positionsigenkänningsalgoritm. Aktivitetsigenkänningskomponenten innehåller en uppsättning videoevenemangsmodeller och en dedikerad algoritm för videohändelseigenkänning. I denna studie samarbetar vi med medicinska experter (gerontologer från sjukhuset i Nice) för att definiera och modellera en rad scenarier relaterade till de äldres intressanta aktiviteter. En del av dessa aktiviteter kräver att man upptäcker en fin beskrivning av människokroppen, till exempel kroppsställningar. För detta ändamål föreslår vi tio 3D-viktiga mänskliga ställningar som är användbara för att känna igen en uppsättning intressanta mänskliga aktiviteter oavsett miljö. Med hjälp av dessa 3D-nyckelställningar har vi modellerat trettiofyra videohändelser, enkla sådana som "en person står" och sammansatta sådana som "en person känner sig svag". Vi har också anpassat en video händelseigenkänningsalgoritm för att i realtid upptäcka vissa aktiviteter av intresse genom att lägga till hållning. Nytt med vårt tillvägagångssätt är de föreslagna 3D-nyckelställningarna och uppsättningen aktivitetsmodeller för äldre människor som bor ensamma i sitt eget hem. För att validera våra föreslagna modeller har vi utfört en uppsättning experiment i Gerhome laboratoriet som är en realistisk plats som reproducerar miljön i en typisk lägenhet. För dessa experiment har vi förvärvat och bearbetat tio videosekvenser med en skådespelare. Varaktigheten av varje videosekvens är ca tio minuter och varje video innehåller ca 4800 bilder. | I ett exempel på erkännande av verksamheten REF, tio stater relaterade till verksamheten i det dagliga livet utmärktes med en genomsnittlig noggrannhet på 74,1 %. | 11,917,822 | Monitoring activities of daily living (adls) of elderly based on 3d key human postures | {'venue': 'In Proc. of International Cognitive Vision Workshop', 'journal': None, 'mag_field_of_study': ['Psychology', 'Computer Science']} | 8,992 |
Abstract-Interactive visualisering kräver översättning av data till ett skärmutrymme med begränsad upplösning. Medan för närvarande ignoreras av de flesta visualiseringsmodeller, innebär denna översättning en förlust av information och införandet av ett antal artefakter som kan vara användbara, (t.ex., aggregering, strukturer) eller distraherande (t.ex., över-plotering, skräp) för analysen. Detta fenomen observeras i parallella koordinater, där överlappande linjer mellan angränsande axlar bildar olika mönster, som representerar förhållandet mellan variabler som de ansluter. Men även för ett litet antal dimensioner är utmaningen att effektivt förmedla relationerna för alla kombinationer av dimensioner. Storleken på datasetet och ett stort antal dimensioner ökar bara komplexiteten i detta problem. För att ta itu med dessa frågor föreslår vi Pargnostik, parallella koordinater diagnostik, en modell baserad på skärm-rymd mätvärden som kvantifierar de olika visuella strukturer. Pargnostikmätningar beräknas för par av axlar och tar hänsyn till displayens upplösning samt potentiella axelinversioner. Metriskerna omfattar antalet korsningar, korsningsvinklar, konvergens, överexplotering, etc. För att skapa en visualiseringsvy kan användaren välja från en rankad display som visar par av koordinataxlar och strukturerna mellan dem, eller undersöka alla möjliga kombinationer av axlar på en gång i en matrisskärm. Att välja de bästa axlarna layout är ett NP-komplett problem i allmänhet, men vi ger ett sätt att automatiskt optimera displayen enligt användarens preferenser baserat på våra mått och modell. | Den så kallade Pargnostics approach REF använder åtgärder för par av koordinater som antal linjekorsningar för att rangordna och välja bra vyer. | 11,702,189 | Pargnostics: Screen-Space Metrics for Parallel Coordinates | {'venue': 'IEEE Transactions on Visualization and Computer Graphics', 'journal': 'IEEE Transactions on Visualization and Computer Graphics', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 8,993 |
Abstract-Resource management för storskaliga högpresterande datorsystem innebär svåra utmaningar för systemadministratörer. Den extrema skalan av dessa moderna system kräver schemaläggningsalgoritmer som kan hantera minst miljontals uppgifter och tusentals maskiner. Dessa stora datorsystem förbrukar stora mängder el vilket leder till höga driftskostnader. Systemadministratörer försöker samtidigt minska driftskostnaderna och erbjuda toppmoderna resultat, men detta är ofta motstridiga mål. Högt skalbara algoritmer är nödvändiga för att schemalägga uppgifter effektivt och för att hjälpa systemadministratörer att få insikt i energi / prestanda kompromisser av systemet. Systemadministratörer kan undersöka denna trade-off utrymme för att kvantifiera hur mycket en skillnad i prestandanivå kommer att kosta i el, eller analysera hur mycket prestanda kan förväntas inom en energibudget. I denna studie designar vi en ny linjär programmeringsbaserad resursalgoritm för ett heterogent datasystem för att effektivt beräkna högkvalitativa lösningar för att samtidigt minimera energi och makespan. Dessa lösningar används för att binda Pareto fronten till lätt byte av energi och prestanda. De nya algoritmerna är mycket skalbara i både lösningskvalitet och beräkningstid jämfört med befintliga algoritmer, särskilt när problemstorleken ökar. | Vårt arbete i REF presenterar algoritmer och tekniker för att bygga Pareto fronter för att kompromissa energi och makespan tillsammans med gränser på dessa Pareto fronter. | 15,644,502 | Energy and Makespan Tradeoffs in Heterogeneous Computing Systems using Efficient Linear Programming Techniques | {'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']} | 8,994 |
Abstract-Som ljus överförs från subjekt till observatör absorberas det och sprids av det medium det passerar igenom. I medier med stora suspenderade partiklar, såsom dimma eller grumligt vatten, kan effekten av spridning drastiskt minska kvaliteten på bilder. I detta papper presenterar vi en algoritm för att ta bort effekterna av ljusspridning, kallas dehazaring, i undervattensbilder. Vårt viktigaste bidrag är att föreslå en enkel, men effektiv, innan som utnyttjar den starka skillnaden i dämpning mellan de tre bildfärgskanalerna i vatten för att uppskatta djupet av scenen. Vi använder sedan denna uppskattning för att minska den rumsligt varierande effekten av dis i bilden. Vår metod fungerar med en enda bild och kräver ingen specialiserad hårdvara eller förkunskaper om scenen. Som en biprodukt av avfaringsprocessen produceras en karta över scenen i skala. Vi presenterar resultat över flera verkliga undervattensbilder och över en kontrollerad testuppsättning där målavstånd och sanna färger är kända. | Å andra sidan utnyttjar REF dämpningsskillnaderna mellan RGB-kanalerna i vatten för att uppskatta scenens djup, och använder sedan modellen för bildbildning under vattnet för att korrigera bilden. | 6,067,722 | Initial results in underwater single image dehazing | {'venue': 'OCEANS 2010 MTS/IEEE SEATTLE', 'journal': 'OCEANS 2010 MTS/IEEE SEATTLE', 'mag_field_of_study': ['Engineering']} | 8,995 |
Vi föreslår GeoNet, ett gemensamt oövervakat inlärningsramverk för monokulärt djup, optiskt flöde och egorörelseuppskattning från videor. De tre komponenterna är kopplade till karaktären av 3D scen geometri, gemensamt lärt av vårt ramverk på ett end-to-end sätt. Särskilt, geometriska relationer extraheras över förutsägelser av enskilda moduler och sedan kombineras som en bild rekonstruktion förlust, resonemang om statiska och dynamiska scendelar separat. Dessutom föreslår vi en adaptiv förlust av geometrisk konsekvens för att öka robustheten mot extremister och icke-Lambertiska regioner, som löser ocklusioner och texturproblem på ett effektivt sätt. Experimentering på KITI kördata visar att vårt system uppnår toppmoderna resultat i alla de tre uppgifterna, presterar bättre än tidigare oövervakade metoder och jämförs med övervakade. | Yin m.fl. REF föreslog GeoNet, en ram för djup- och optisk flödesberäkning från monokulära sekvenser. | 3,714,620 | GeoNet: Unsupervised Learning of Dense Depth, Optical Flow and Camera Pose | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 8,996 |
Sammanfattning av denna webbsida: I många tillämpningar är det önskvärt att analysera parametriska kurvor för oönskade funktioner som cusps och ectionpunkter. Tidigare kända algoritmer för att analysera sådana funktioner är begränsade till kubik och i många fall är endast för plana kurvor. Vi presenterar en allmän metod för att upptäcka cusps i polynomiska eller rationella rymdkurvor av godtycklig grad. Om en kurva inte har någon cursp i sitt de ning intervall, har den en regelbunden parametrisering och vår algoritm beräknar det. I synnerhet visar vi att om en kurva har en riktig parametrisering då det nödvändiga och tillräckliga villkoret för existensen av cusps ges av försvinnandet av den rst härledda vektorn. Vi presenterar en enkel algoritm för att beräkna korrekt parametrisering av en polynomisk kurva och minska problemet med att upptäcka cusps i en rationell kurva till en polynomisk kurva. Slutligen använder vi de vanliga parametriseringarna för att analysera i utlösningspunkter. | REF presenterade en metod för att upptäcka cusps på rationella kurvor av godtycklig grad och beskrev användningen av Sturm sekvens för att hitta böjningspunkter. | 9,897,918 | Detecting cusps and inflection points in curves | {'venue': 'Computer Aided Geometric Design', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 8,997 |
Skalningsteknik (CBCS) för en kallkatodlysrörslampa (CCFL) bakgrundsbelyst TFT-LCD-skärm. Den föreslagna tekniken syftar till att bevara kraften genom att minska bakgrundsbelysningen samtidigt som bildens trohet bibehålls genom att bildens kontrast bevaras. För det första förklarar vi hur CCFL fungerar och visar hur man modellerar icke-linjäriteten mellan bakgrundsbelysning och strömförbrukning. Därefter föreslår vi kontrastförvrängningsmåttet för att kvantifiera bildkvalitetsförlusten efter bakgrundsljusskalning. Slutligen formulerar vi och löser optimalt CBCS optimeringsproblem med målet att minimera troheten och effektmåtten. Experimentella resultat visar att ett genomsnitt på 3,7X effektbesparing kan uppnås med endast 10% av kontrastförvrängning. | De formulerade och optimalt löst CBCS optimering problem med målet att minimera trohet och effekt mätvärden REF. | 56,633,936 | Power minimization in a backlit TFT-LCD display by concurrent brightness and contrast scaling | {'venue': 'Proceedings Design, Automation and Test in Europe Conference and Exhibition', 'journal': 'Proceedings Design, Automation and Test in Europe Conference and Exhibition', 'mag_field_of_study': ['Computer Science']} | 8,998 |
Att göra en kostsam ursäkt eller orsaka självbestraffning efter en oavsiktlig överträdelse kan tjäna som en kostsam signal om överträdarens välvilliga avsikt. I den nuvarande forskningen, efter en oavsiktlig överträdelse (dvs. ojämn resursfördelning mellan sig och en partner), gavs deltagarna möjlighet att skicka ett ursäktsbudskap till sin partner (i experiment 1 och 2) eller att privat dra av en del belopp från sin egen belöning (i experiment 2 och 3). Genom dessa experiment visade ungefär hälften av deltagarna att de var villiga att ådra sig vissa kostnader för att producera dessa kostsamma signaler. I experiment 1 förändrade varken historia eller förväntan på interaktion med en partner frekvensen av en kostsam ursäkt. I Experiment 2, trots uttryckliga instruktioner att deras partner inte skulle informeras om huruvida de hade orsakat självbestraffning, frekvensen av självbestraffning var ungefär lika med en kostsam ursäkt. Dessa resultat tyder på att de två typerna av kostsamma signaler inte enbart riktades till offret. Experiment 3 visade att dessa kostsamma signalerare stödde jämställdhetsprincipen mer än de icke-signalers. Detta resultat är förenligt med tanken att de två formerna av kostsamma signaler tjänar till att skydda signalörens rykte som en rättvis person. | I REF tjänar en kostsam ursäkt och självbestraffning som dyra signaler för att skydda en överträdares rykte efter en oavsiktlig överträdelse. | 143,728,314 | Costly apology and self-punishment after an unintentional transgression | {'venue': None, 'journal': 'Journal of Evolutionary Psychology', 'mag_field_of_study': ['Psychology']} | 8,999 |
Oöverträffad bild-till-bild-översättning syftar till att lära sig en gemensam distribution av bilder i olika domäner genom att använda bilder från de marginella distributionerna i enskilda domäner. Eftersom det finns en oändlig uppsättning gemensamma distributioner som kan komma fram till de givna marginella distributionerna, kunde man inte dra några slutsatser om den gemensamma distributionen från marginaldistributionerna utan ytterligare antaganden. För att ta itu med problemet, vi gör en delad-latent utrymme antagande och föreslå en oövervakad bild-till-bild översättning ramar baserat på Pared GANs. Vi jämför det föreslagna ramverket med konkurrerande metoder och presenterar högkvalitativa bildöversättningsresultat på olika utmanande oövervakade bildöversättningsuppgifter, inklusive street scen bildöversättning, djur bildöversättning, och ansiktsbild översättning. Vi tillämpar också den föreslagna ramen för domänanpassning och uppnår toppmoderna resultat på referensdatauppsättningar. Kod och ytterligare resultat finns tillgängliga på https://github.com/mingyuliutw/unit. | I REF föreslogs ett oövervakat översättningsnätverk för bild till bild baserat på en variationell autoencoder och GAN. | 3,783,306 | Unsupervised Image-to-Image Translation Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 9,000 |
Detta arbete presenterar Collaborative Transport Control Protocol (CTCP), ett nytt transportprotokoll för sensornätverk. Det syftar till att ge fullständig tillförlitlighet och anpassar sig till olika tillämpningar genom en mekanism med två nivåer av tillförlitlighetsvariationer. CTCP uppnår dessa egenskaper med hjälp av hop-by-hop-erkännanden och en lagringsstyrningsalgoritm som fungerar vid varje nod längs ett flöde. Det konstaterades att distribuerad felåterställning ökar 98% den genomsnittliga leveranshastigheten och att dubblering av lagringsansvar minimerar meddelandeförlusten. Dess kontroll av överbelastning skiljer kommunikationsförluster från buffertspill. CTCP kallas samarbete eftersom alla noder upptäcker och agerar på trängselkontroll och även eftersom det omfattar distribuerat lagringsansvar. Den är skalbar och oberoende av det underliggande nätverksskiktet. Protokollet energiförbrukning overhead beräknades och diskuterades för två tillförlitlighetsnivåer. | I protokollet om gemensam transportkontroll (CTCP) REF görs en åtskillnad mellan kommunikationsförluster och buffertar över ows, tillsammans med att man uppnår detektering och kontroll av överbelastning med hjälp av alla noder. | 3,098,174 | CTCP: Reliable Transport Control Protocol for sensor networks | {'venue': '2008 International Conference on Intelligent Sensors, Sensor Networks and Information Processing', 'journal': '2008 International Conference on Intelligent Sensors, Sensor Networks and Information Processing', 'mag_field_of_study': ['Computer Science']} | 9,001 |
Sammanfattning av denna webbsida: Platsdata är bland de mest använda kontextuella data i sammanhangsmedvetna och allmänt förekommande datorapplikationer. Många system med tydliga installationskostnader och positioneringsnoggrannhet har utvecklats under det senaste årtiondet för inomhuspositioneringsändamål. Den mest användbara metoden fokuserar på den mottagna signalstyrkan (RSS) och ger en uppsättning signalöverföringspunkter. Dessutom är de flesta positioneringssystem baserade på non-line-of-sight (NLOS) snarare än line-of-sight (LOS) villkor, och detta orsakar varierande fel för lokaliseringsprognoser. Därför, manuellt sammanställa en fingeravtryck databas mäta RSS innebär höga kostnader och är därmed opraktiskt i online förutsägelser miljöer. I vår föreslagna metod härleds en jämförelsemetod utifrån trosintervall, som föreslås i Dempster-Shafer-teorin, och signalegenskaperna karakteriseras på LOS- och NLOS-förhållandena för olika fältexperiment. Systemprestandanivåerna undersöktes med olika egenskaper och under olika miljöer genom robust testning och genom att använda flera allmänt använda maskininlärningsmetoder. Resultaten visade att den föreslagna metoden inte bara kan behålla positioneringsnoggrannheten utan också spara beräkningstid i lokaliseringsprognoser. | För att skilja mellan NLOS och LOS miljö, Wu et al. REF härledde en jämförelsemetod på grundval av trosintervall och karakteriserade signalegenskaperna på LOS- och NLOS-förhållandena för olika fältexperiment. | 3,561,465 | Belief Interval of Dempster-Shafer Theory for Line-of-Sight Identification in Indoor Positioning Applications | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Computer Science', 'Medicine']} | 9,003 |
Säkerhet kompromisser har tidigare fastställts för enkelriktat engagemang. Vi studerar denna kompromiss i två supervalmiljöer. Vi visar att för en "abeliansk" superurvalsregel (exemplifierad av partikelbevarande) håller standardutjämningen mellan tätning och bindande egenskaper fortfarande. För det icke-abelianska fallet (exemplifierat av vinkelkraftbevarande) kan säkerhetsutjämningen vara mer subtil, vilket vi illustrerar genom att visa att om bitåtagandet tvingas vara ancillafritt, är ett asymptotiskt säkert kvantbitsåtagande möjligt. | DiVincenzo, Smolin och Terhal valde ett annat tillvägagångssätt REF, vilket visar att om biten engagemang är tvungen att vara ancilla-fri, en typ av asymptotic säkerhet är fortfarande möjligt. | 17,822,268 | Security Trade-offs in Ancilla-Free Quantum Bit Commitment in the Presence of Superselection Rules | {'venue': 'New Journal of Physics 6, 80 (2004)', 'journal': None, 'mag_field_of_study': ['Physics']} | 9,004 |
Grasping har alltid varit en stor utmaning för robotar på grund av dess bristande förmåga att väl förstå de upplevda sensationsdata. I detta arbete föreslår vi en end-to-end djup vision nätverksmodell för att förutsäga möjliga bra grepp från verkliga bilder i realtid. För att påskynda hastigheten på detekteringen av greppet är referensrektanglar utformade för att föreslå potentiella greppplatser och sedan förfinas för att indikera robotiska grepp i bilden. Med den föreslagna modellen kan de greppbara poängen för varje plats i bilden och motsvarande förutsedda grepprektanglar erhållas i realtid med en hastighet av 80 bilder per sekund på en grafisk bearbetningsenhet. Modellen utvärderas på en riktig robot-samlad data uppsättning och olika referens rektangel inställningar jämförs för att ge den bästa detektionen prestanda. De experimentella resultaten visar att det föreslagna tillvägagångssättet kan hjälpa roboten att lära sig den greppbara delen av objektet från bilden på ett snabbt sätt. | En end-to-end djupseende nätverksmodell föreslogs för att förutsäga möjliga bra grepp, som fungerar i realtid på en Baxter robot med en hastighet av 80 ramar per sekund med hjälp av ett GPU-system REF. | 63,398,646 | Deep vision networks for real-time robotic grasp detection | {'venue': None, 'journal': 'International Journal of Advanced Robotic Systems', 'mag_field_of_study': ['Computer Science']} | 9,005 |
För att minska toppbelastningen och elräkningen samtidigt som användarkomforten bevaras föreslogs en erfarenhetskvalitet (QoE)-medveten algoritm för styrning av smarta apparater för energihantering i hemmet (sHEMS) med förnybara energikällor (RES) och elfordon (EV). Den föreslagna algoritmen minskar den maximala belastningen och elräkningen genom att skjuta upp starttiderna för delay-tolerant apparater från topp till off-peak timmar, styra temperaturinställningen för uppvärmning, ventilation och luftkonditionering (HVAC), och korrekt schemalägga av- och laddningsperioder för en EV. I detta dokument utvärderas användarkomforten med hjälp av QoE-funktioner. För att bevara användarens QoE begränsas fördröjningen av starttiden för en hushållsapparat och temperaturinställningen för HVAC av en QoE-tröskel. Dessutom utformades en luddig logisk styrenhet för dynamisk justering av QoE-tröskeln för att optimera användarens QoE för att lösa problemet mellan minskningen av toppbelastning/elräkning och användarens QoE. Simuleringsresultat visar att den föreslagna algoritmen för styrning av smarta apparater med en luddig QoE-tröskel avsevärt minskar belastningen och elräkningen samtidigt som användarens QoE bevaras optimalt. Jämfört med grundscenariot sänker det föreslagna systemet elräkningen med 65 % enligt scenariot med förnybara energikällor och elfordon. Jämfört med metoden för optimal schemaläggning av apparater i litteraturen uppnår det föreslagna systemet dessutom mycket bättre prestanda för maximal belastningsreduktion och användarens QoE. | Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. REF föreslår en luddig logisk styrenhet för dynamisk justering av erfarenhetströskelns kvalitet för att optimera användarnas komfort. | 59,361,199 | QoE-Aware Smart Home Energy Management Considering Renewables and Electric Vehicles | {'venue': None, 'journal': 'Energies', 'mag_field_of_study': ['Engineering']} | 9,006 |
Nyhetsrekommendationen är mycket viktig för att hjälpa användare att hitta intresserade nyheter och minska informationsöverbelastningen. Olika användare har vanligtvis olika intressen och samma användare kan ha olika intressen. Således kan olika användare klicka på samma nyhetsartikel med uppmärksamhet på olika aspekter. I detta dokument föreslår vi en neural nyhetsrekommendation modell med personlig uppmärksamhet (NPA). Kärnan i vår strategi är en nyhetsrepresentationsmodell och en användarrepresentationsmodell. I nyhetsrepresentationsmodellen använder vi ett CNN-nätverk för att lära oss dolda representationer av nyhetsartiklar baserat på deras titlar. I användarrepresentationsmodellen lär vi oss representationer av användare baserat på representationer av deras klickade nyhetsartiklar. Eftersom olika ord och olika nyhetsartiklar kan ha olika informativhet för att representera nyheter och användare, föreslår vi att tillämpa både ord- och nyhetsnivå uppmärksamhetsmekanism för att hjälpa vår modell att ta hand om viktiga ord och nyhetsartiklar. Dessutom kan samma nyhetsartikel och samma ord ha olika information för olika användare. Således föreslår vi en personlig uppmärksamhet nätverk som utnyttjar inbäddning av användar-ID för att generera frågevektorn för ord-och nyhetsnivå uppmärksamhet. Omfattande experiment utförs på en verklig nyhetsrekommendation dataset samlas in från MSN nyheter, och resultaten bekräftar effektiviteten i vår strategi för nyhetsrekommendation. | REF föreslår en uppmärksamhetsmodell som kan utnyttja inbäddning av användar-ID för att generera personliga dokument representationer. | 196,181,724 | NPA: Neural News Recommendation with Personalized Attention | {'venue': None, 'journal': 'Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining', 'mag_field_of_study': ['Computer Science']} | 9,007 |
I den här artikeln studerar vi uppgiften att välja svar för multi-turn människa-dator konversation. Tidigare metoder tar ord som en enhet och visa sammanhang och svar som sekvenser av ord. Denna typ av metoder tar inte uttryckligen varje uttalande som en enhet, därför är det svårt att fånga information och beroenden på talnivå. I detta dokument föreslår vi en multi-view response selection-modell som integrerar information från två olika vyer, dvs. ordsekvensvy och talsekvensvy. Vi modellerar gemensamt de två vyerna via djupa neurala nätverk. Experimentella resultat på en offentlig corpus för kontextkänsligt svarsval visar effektiviteten hos den föreslagna multi-view-modellen, som avsevärt överträffar andra en-view-baslinjer. | REF behandlade varje varv i multi-turn sammanhang som en enhet och förenade ordsekvens vy och uttalande sekvens vy tillsammans av djupa neurala nätverk. | 2,867,243 | Multi-view Response Selection for Human-Computer Conversation | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,008 |
Abstrakt. Inledning: Ett tillvägagångssätt för att bygga en hybridsimulering av patientflödet introduceras med en kombination av datadrivna metoder för automatisering av modellidentifiering. Metoden beskrivs med en konceptuell ram och grundläggande metoder för kombination av olika tekniker. Genomförandet av den föreslagna metoden för simulering av akut koronarsyndrom (ACS) utvecklades och användes i en experimentell studie. Metoder: Kombination av data-, text- och processutvinningstekniker och maskininlärningsmetoder för analys av elektroniska patientjournaler med diskret-eventssimulering (DES) och köteori för simulering av patientflöde föreslogs. Den utförda analysen av EHR för ACS-patienter möjliggör identifiering av flera klasser av kliniska vägar (CPs) som användes för att genomföra en mer realistisk simulering av patientflödet. Den utvecklade lösningen implementerades med hjälp av Python bibliotek (SimPy, SciPy, och andra). Det föreslagna tillvägagångssättet möjliggör en mer realistisk och detaljerad simulering av patientflödet inom en grupp av relaterade avdelningar. Experimentell studie visar att den förbättrade simuleringen av patientlängd för ACS patientflöde från EHRs i Federal Almazov North-West Medical Research Centre i Sankt Petersburg, Ryssland. Slutsats: Det föreslagna tillvägagångssättet, metoderna och lösningarna ger ett konceptuellt, metodologiskt och programmeringsramverk för genomförande av simulering av komplexa och varierande scenarier inom ett flöde av patienter för olika ändamål: beslutsfattande, utbildning, optimering av hanteringen med flera. | I REF föreslogs en metod för processextrahering och maskininlärning för elektronisk hälsoanalys (EHR) med diskret händelsesimulering (DES) och köteori. | 14,429,841 | Simulation of Patient Flow in Multiple Healthcare Units using Process and Data Mining Techniques for Model Identification | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Medicine', 'Computer Science']} | 9,009 |
Abstract-I detta papper, vi anser temporal mönster i trafikflöde tidsserier, och genomföra en djupt lärande modell för trafikflöde förutsägelse. Nedbrytningsbaserade metoder bryter ner den ursprungliga flödesserien till trend- och restserier, där trend beskriver det fasta tidsmönstret i trafikflöden och residualserier används för förutsägelse. Inspirerad av deträndningsmetoden föreslår vi DeepTrend, ett djupt hierarkiskt neuralt nätverk som används för trafikflödesförutsägelse som tar hänsyn till och extraherar den tid-varianta trenden. DeepTrend har två staplade lager: extraktionslager och förutsägelselager. Extraktionsskiktet, ett helt uppkopplat lager, används för att extrahera den tidsvarianta trenden i trafikflödet genom att mata den ursprungliga flödesserien med motsvarande enkla trendserier. Förutsägelselager, ett LSTM-skikt, används för att göra flödesförutsägelse genom att mata den erhållna trenden från utvinningslagrets utdata och beräknade residualserier. För att göra modellen mer effektiv behöver DeepTrend först förträngda lager för lager och sedan finjusteras i hela nätverket. Experiment visar att DeepTrend märkbart kan öka förutsägelsens prestanda jämfört med några traditionella förutsägelsemodeller och LSTM med deträndningsbaserade metoder. | Att ta hänsyn till effektivare tidsmodellering, Dai et al. REF föreslog ett djupt hierarkiskt neuralt nätverk för trafikflödesprognoser, som består av ett extraktionslager för att extrahera tidsvarianta trender i trafikflödet och ett förutsägelselager för slutlig crowd flow-prognoser. | 35,644,104 | DeepTrend: A Deep Hierarchical Neural Network for Traffic Flow Prediction | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,010 |
Belöning funktion design och prospektering tid är utan tvekan de största hindren för införandet av förstärkande lärande (RL) agenter i den verkliga världen. I många verkliga uppgifter, utforma en lämplig belöning funktion kräver betydande manuell konstruktion och ofta kräver ytterligare och potentiellt synliga sensorer för att installeras bara för att mäta om uppgiften har utförts framgångsrikt. Dessutom består många intressanta uppgifter av flera steg som måste utföras i följd. Även när slutresultatet kan mätas ger det inte nödvändigtvis användbar feedback om dessa implicita mellanliggande steg eller delmål. För att ta itu med dessa frågor, föreslår vi att utnyttja abstraktion kraften av mellanliggande visuella representationer lärt av djupa modeller för att snabbt infer perceptual belöning funktioner från ett litet antal demonstrationer. Vi presenterar en metod som kan identifiera de viktigaste mellanliggande stegen i en uppgift från bara en handfull demonstrationssekvenser, och automatiskt identifiera de mest diskriminerande funktioner för att identifiera dessa steg. Denna metod använder sig av egenskaperna i en förtränad djupmodell, men kräver ingen explicit undermålig övervakning. De resulterande belöningsfunktionerna, som är täta och smidiga, kan sedan användas av en RL-agent för att lära sig att utföra uppgiften i verkliga inställningar. För att utvärdera de inlärda belöningsfunktionerna presenterar vi kvalitativa resultat på två verkliga uppgifter och en kvantitativ utvärdering mot en människodesignad belöningsfunktion. Vi visar också att vår metod kan användas för att lära sig en komplex dörröppning med hjälp av en riktig robot, även när den demonstration som används för att belöna lärande tillhandahålls av en människa med egen hand. Enligt vår kunskap är detta de första resultaten som visar att komplexa robotiska manipulationsfärdigheter kan läras direkt och utan övervakade etiketter från en video av en människa som utför uppgiften. * Arbete som görs som en del av Google Brain Residency-programmet (t.ex.co/brainresidency). | Arbete rapporterat av Sermanet et al. REF hävdar att det är den första visionsbaserade belöningsinlärningsmetoden som kan lära sig en komplicerad robotisk manipulering. | 21,650,267 | Unsupervised Perceptual Rewards for Imitation Learning | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 9,011 |
Informationsöverbelastning på webben har skapat enorma utmaningar för kunder som väljer produkter för nätinköp och för onlineföretag som försöker identifiera kundernas preferenser på ett effektivt sätt. Olika rekommenderade system med olika datarepresentationer och rekommendationsmetoder används för närvarande för att ta itu med dessa utmaningar. I denna forskning har vi utvecklat en grafmodell som ger en generisk datarepresentation och kan stödja olika rekommendationsmetoder. För att visa dess användbarhet och flexibilitet utvecklade vi tre rekommendationsmetoder: direkt återhämtning, föreningsbrytning och höggradig föreningshämtning. Vi använde en datauppsättning från en bokhandel online som vår testbädd. Utvärderingsresultaten visade att en kombination av produktinnehållsinformation och historisk kundinformation uppnådde mer exakta förutsägelser och relevanta rekommendationer än att endast använda samarbetsinformation. Jämförelser mellan olika metoder visade dock att höggradig associationshämtning inte presterade signifikant bättre än associationsbrytningsmetoden eller den direkta återvinningsmetoden i vår testbädd. Den stora mängden produktinformation på webben innebär stora utmaningar för både kunder och online-företag i e-handelsmiljön. Kunderna upplever ofta svårigheter att söka efter produkter på webben, medan online-företag ofta överväldigas av de rika data de har samlat in och har svårt att marknadsföra produkter som är lämpliga för specifika kunder. Överbelastning av produkt- och transaktionsinformation på webben väcker en praktisk fråga: Hur kan den stora mängden produkt- och användningsinformation som finns tillgänglig från transaktioner online effektivt användas för att stödja bättre beslutsfattande av både köpare och säljare? För att hantera denna information överbelastning problem, forskare har föreslagit recommender system som automatiskt analysera användarnas användningsdata för att filtrera webbsida innehåll, kategorisera diskussionsgrupper meddelanden, och rekommendera bra information resurser (Resnick & Varian, 1997). Vanligtvis analyserar ett recommender system data om objekt 1 eller om interaktioner mellan användare och objekt för att hitta associationer bland objekt och användare. Resultaten presenteras som rekommendationer. Med hjälp av detta koncept, har vissa online-företag, såsom Amazon.com och eBay.com, använt rekommendationssystem som ett affärsverktyg. Sådana system rapporteras ha ökat e-handelsförsäljningen genom att konvertera webbläsare till köpare, öka korsförsäljning och bygga kundlojalitet (Schafer, Konstan, & Riedl, 2001). I den här artikeln går vi igenom tidigare forskning i rekommendationssystem för att identifiera ofta använda metoder och representationer. Fyra rekommendationer granskades: kunskapsutveckling, samverkansfiltrering, ett innehållsbaserat tillvägagångssätt och ett hybridtillvägagångssätt. Olika rekommendationsstrategier kan genomföras med hjälp av olika analysmetoder. Vanligen använda metoder är kvartersbildning, förening regel gruvdrift, maskininlärning tekniker, etc. Systemutvecklare med rekommendationer står ofta inför två utmaningar. En är hur man representerar olika information om användare och objekt. Den andra är hur man bygger en modell som är tillräckligt flexibel för att införliva olika rekommendationer. Vi föreslår en grafmodell för att representera användar-produktinformationen. Grafmodellen innehåller noder (kunder och produkter) och länkar (transaktioner och likheter) som fångar olika typer av e-handelsinformation. Modellen stöder också olika rekommendationer. För att visa sin flexibilitet har vi utvecklat tre analysmetoder som omfattar ett brett spektrum av allmänt använda och nyligen införda rekommendationsmetoder: direkt hämtning, föreningsbrytning och höggradig associationshämtning. Med tre metoder som alla utvecklats med hjälp av en gemensam modell, kunde vi få direkta jämförelser av prestanda av olika rekommendationsmetoder enligt de tre tillvägagångssätten i det samarbete som mottogs den 19 februari 2003; reviderade 13 augusti 2003 filtrering, innehållsbaserade, och hybrida tillvägagångssätt. Vi använde en kinesisk bokhandel online som vår testbädd för att implementera ett recommender-system baserat på den modell och de metoder vi utvecklat. En systematisk empirisk utvärdering genomfördes och resultaten sammanfattades. De första resultaten på grafmodellen och de höggradiga associationshämtningsmetoderna har rapporterats i en färsk konferenspublikation (Huang, Chung, Ong, & Chen, 2002). Rekommenderar system hjälper användare att välja lämpliga informationsartiklar eller produkter från en stor uppsättning av alternativ. I sådana system skapas personliga rekommendationer om objekt (information, produkter eller tjänster) genom att prediktera användarnas preferenser. Medan "recommender system" ses som en synonym till "retrieval system" av vissa forskare (Furner, 2002) hävdar vi att recommender system skiljer sig från typiska hämtningssystem genom att betona modellering av användaregenskaper och användarobjekt interaktioner i systemet. I rekommenderade system, latent användarinställningar antas anges av ett brett spektrum av observerbara data: funktioner hos användaren, funktioner i de objekt som köpts av användaren, beteende användare med (uppskattade) liknande inställningar, etc. Målet med recommender system är att uppskatta sådana latenta användarinställningar och ge förutsägelser om lämpliga objekt till specifika användare. Traditionella hämtningssystem inriktade sig vanligtvis på att tillhandahålla relevanta informationsobjekt som motsvarar den explicita formen av användarpreferenser (dvs. frågor) och betonade inte modellering av latenta användarpreferenser. Rekommendationssystem kan införas för att förbättra traditionella system för hämtning, samtidigt som de även omfattar ett brett spektrum av nya tillämpningsområden, särskilt i e-handelsmiljön. Sedan det första recommender-systemet utvecklades för tio år sedan (Goldberg, Nichols, Oki, & Terry, 1992) har olika tekniker använts i olika applikationsspecifika recommender-system. Tidiga rekommendationssystem hjälpte användare att sålla igenom ett stort antal dokument som Usenet nyhetsartiklar eller webbsidor. Med den senaste tidens spridning av e-handel, rekommenderar system har blivit ett kraftfullt affärsverktyg för att förbättra kundernas förmåga att övervinna problemet produktinformation överbelastning. I detta avsnitt sammanfattar vi litteraturen och föreslår en taxonomi av rekommendationssystem som karakteriserar ett typiskt rekommendationssystem i tre stora dimensioner: systeminmatning, datarepresentation och rekommendationsmetod. Inmatningen av ett recommender-system kan ske i tre former: (1) användarens faktiska data såsom namn, kön och adress; (2) transaktionsdata som fångas upp genom användarnas uttryckliga betyg eller implicita feedback som observerats från deras beteende; och (3) objekt faktadata såsom produktmärke och pris. Många rekommenderade system har använt användares uttryckliga feedback i form av betyg (Balabanovic & Shoham, 1997; Basu, Hersh, & Cohen, 1998; Claypool m.fl., 1999; Condliff, Lewis, Madigan, & Posse, 1999; Mooney & Roy, 2000; Passani & Billsus, 1997; Sarwar m.fl., 1998; Terveen, Hill, Amento, Mcdonald, & Creter, 1997). Till exempel använde Syskills och Webert användarbetyg på en webbsida som indata (Passani & Billsus, 1997). Basu m.fl. (1998) använde användarbetyg på filmer som indata till deras system. Denna metod lider av kallstartsproblem, där nysläppta produkter kan få bara ett fåtal betyg och därför inte rekommenderas även om de är relevanta. För att lösa detta problem har vissa system också använt implicit feedback som erhållits under användarens användningssession. Systemet analyserar systemloggar för att hitta användarnas preferenser. Befintliga recommender system använder olika typer av data representationer som vanligtvis fångar tre grundläggande element i en recommender system-användare representation, objekt representation, och transaktion representation. Användarinformationen kan representeras på fyra sätt: (1) med hjälp av användarattribut (vanligtvis demografiska uppgifter som kön, födelsedatum, lön osv.).), (2) av tillhörande poster (t.ex. de produkter som användaren har uttryckt intresse för, har gett betyg till eller faktiskt köpt), (3) av transaktioner (attributer som extraherats ur användarens transaktionshistorik såsom tid, frekvens och belopp, kan delvis representera en användares beteendemönster), eller (4) av objektat (t.ex., en användare kan karakteriseras som att gilla romantiska berättelser och gynna låga priser baserat på attributen i de böcker hon har köpt). De flesta rekommenderade system representerar användare som en uppsättning tillhörande objekt; Basu et al., 1998; Claypool et al., 1999; Condliff et al., Fu, Budzick, & Hammond, 2000; Lieberman, 1995; Mladenic, 1996; Pazzani, 1999; Passani & Billsus, 1997; Sarwar et al., 1998; Shwab, Phol, & Koychev, 2000). Till exempel, system som Fab (Balabanovic & Shoham, 1997), Personalized Tango (Claypool et al., 1999), SurfLen (Fu et al., 2000), och Personalized WebWatcher (Mladenic, 1996) använde webbsidor användaren hade betygsatt eller tidigare besökt för att representera användaren, medan system som GroupLens (Sarwar et al., 1998) använde filmer och böcker för att representera användarnas intressen. Som ett annat viktigt element i recommender-system, är objekt oftast representeras av objektattribut (såsom pris, innehåll, varumärke, etc.) eller av associerade användare (t.ex. de kunder som har köpt denna produkt tidigare). Vissa rekommenderade system använder också transaktioner som ett grundläggande element, vanligtvis representerar dem med transaktionsattribut (t.ex. tid, belopp, etc.) eller genom poster i transaktionerna. Forskare har också inkluderat vissa transaktionsattribut såsom tid och plats som ytterligare dimensioner och stödja en annan typ av rekommendation som kan baseras på olika kombinationer av dimensioner, såsom rekommendation av webbinnehåll till en viss kund på helger, eller rekommendationen av bästa tid för att marknadsföra vissa produkter till en viss kund (Adomavicius & Tuzhilin, 2001). De flesta befintliga rekommenderade system fokuserar dock på analysen av de två dimensionerna av användare och objekt. samverkansfiltrering, innehållsbaserade och hybrida metoder. Den kunskapstekniska metoden syftar till att upptäcka de faktorer som påverkar användarnas preferenser i valet av produkter. Det krävs betydande mänskliga ansträngningar för att få detta tillvägagångssätt att fungera. Expertise Recommendeder (McDonald & Ackerman, 2000) rekommenderar exempelvis programvaruteknikexpertis till programmerare som använder heuristik baserad på versionsförändringshistorik och tekniska supportposter. Heuristikerna skapades med hjälp av resultaten från en 5-månaders etnografisk studie. System för brevfiltrering och dokumenthanteringssystem har i stor utsträckning använt sig av en sådan regelbaserad metod. ISCREEN (Polloc, 1988), ett tidigt arbete inom detta område, använde användardefinierade regler för att skärma textmeddelanden. Reglerna var personliga för varje användare, och reglerna var främst baserade på innehåll och attribut för textmeddelanden (såsom avsändare, längd, höjdpunkter, etc.). Den kunskapstekniska metoden kan generera användarspecifika regler för rekommendationsändamål baserade på ett brett utbud av information, inklusive objektfunktioner, användarfunktioner och annan domänspecifik information. Den stora skillnaden mellan detta tillvägagångssätt och följande tillvägagångssätt är att processen för att ta fram sådana regler inte är automatiserad och omfattande mänskliga insatser normalt krävs. Den samverkande filtreringsmetoden får allmän samarbetsinformation från användare för att bilda aggregerade regler eller trender samt sammanslutningar mellan användare och/eller objekt för att förutsäga enskilda användares intresse. Ett exempel är filmrekommendationen, där kundbetyg på filmer användes för att rekommendera filmer till specifika användare.. Användarbaserat samarbete använder historiska data för att bilda användarkvarter. Till exempel, Pazzani (1999) bildade en stadsdel av liknande användare baserat på deras uttryckta preferenser och rekommenderade restauranger baserade på grannskapet förhållandet. Postbaserad samarbetsrekommendation bygger på föreningar bland punkter för att fastställa rekommendationer. Dessa föreningar bygger på historiska interaktioner mellan objekt och användare, såsom samköp eller preferenser från samma kund. Befintliga e-handel rekommenderar system brukar använda denna teknik i tillämpningar såsom presentrekommendation (Schafer et al., 2001 ). Andra samarbetsrekommendersystem har använt användarobjektparet som grund för analysen, snarare än bara ett av dem. I vissa system där användarens identitet inte är tillgänglig kan samverkansfiltrering också tillämpas på grundval av transaktioner. Flera analystekniker, inklusive grannskapsbildning, förening regel gruvdrift, och maskininlärning tekniker, har vanligtvis tillämpats för att generera rekommendationer. Grannar bildades genom att använda likhetsfunktioner som cosinusbaserad likhet och korrelationsbaserade likhetsfunktioner och klustertekniker (Mobasher et al., 2000; Nasraoui et al.). 1999; Sarwar m.fl., 2001 ). Association rule mining användes för att extrahera mönster association bland objekt och användare från transaktionshistoriken (Fu et al., 2000). Maskininlärningsmetoder användes också för att upptäcka mönster från transaktionsdata (Basu et al., 1998; Pazzani & Billsus, 1997). Samverkansfiltrering fungerar dock inte bra när en produkt nyligen introduceras eller en användare bara börjar använda systemet, eftersom systemet inte har mycket betygsinformation om vare sig produkten eller användaren ("kallstartsproblem"). Dessutom, när det finns många objekt men relativt få användare, samarbetsfiltrering kan inte ge en bra rekommendation helt enkelt eftersom det finns få betyg ("parsitetsproblem"). Dessutom kan vissa användare med genomgående avvikande åsikter från gruppyttrandena inte dra nytta av samverkansfiltrering ("gray får problem") (Claypool m.fl., 1999). Den innehållsbaserade metoden lånar tekniker från informationssökning för att analysera innehållet i objekt. Grannskapsfunktioner (Claypool et al., 1999; Liberman, 1995; Mladenic, 1996) och klassificeringstekniker (Mooney & Roy, 2000; Mostafa, Mukhopadhyay, Lan, & Palakal, 1997) har ofta tillämpats för att analysera och samla textinnehållet i objekt och rekommendationer genereras baserat på matchning mellan objektegenskaper och användarprofiler. Även om vissa system har utforskat mycket omfattande objekt representationer [till exempel Watters och Wang (2000) föreslog en nyhetsobjekt representation som bestod av en rik uppsättning av rubriker, innehåll, och beteende attribut för online nyhetsartikel rekommendation], har den innehållsbaserade metoden flera grundläggande begränsningar. Den fångar endast partiell information om objektets egenskaper, vanligtvis textinformation. Annan innehållsinformation såsom ljud eller visuellt innehåll ignoreras vanligen. Detta tillvägagångssätt tenderar att endast rekommendera poster med liknande egenskaper (även känt som "överspecificeringsproblem"). Endast målanvändarens feedback används i detta tillvägagångssätt, även om användarens intresse också kan påverkas av andra användares preferenser (Balabanovic & Shoham, 1997). För att förbättra kvaliteten på rekommendationen har många insatser gjorts för att kombinera innehållsbaserade och samarbetsinriktade strategier för att genomföra en hybridstrategi. Rekommenderar system som använder en hybrid metod kan löst kategoriseras i tre klasser. System i den första kategorin försöker integrera de två tillvägagångssätten genom att helt enkelt slå samman de två rekommendationsresultaten separat genererade av innehållsbaserade och samverkande tillvägagångssätt (Claypool m.fl., 1999). System i den andra kategorin kombinerar de två metoderna på representationsnivå, där produktinformation och transaktionsinformation ingår i en enda representation. Några av dessa system har baserats på samverkansfiltrering och lagt till innehållsinformation om objekt i användarrepresentationen eller lagt till betyg baserat på innehållet i objekten (Pazzani, 1999; Sarwar m.fl., 1998; Singh, Yu, & Venkatraman, 2001 ). Fab upprätthöll till exempel användarprofiler baserade på innehållsanalys av dokument som klassats av användare. Den jämförde sedan användarprofiler för att identifiera liknande användare för att generera en samarbetsrekommendation Balabanovic & Shoham, 1997). Andra försökte tillämpa innehållsbaserad analys och lade till användarinformation i objektet representation (Goldberg et al., 1992). Vissa andra system har byggts på en omfattande modell som innehåller olika informationskällor (Basu m.fl., 1998; Condliff m.fl., 1999). Ansari, Essegaier och Kohli (2000) har nyligen utarbetat en formell statistisk metod för att modellera användarbetygen som en funktion av objektattribut, användaregenskaper och expertutvärderingar. Oobserverade källor till heterogenitet i användarpreferenser och objekt överklagandestrukturer redovisades med hjälp av detta tillvägagångssätt. System i den tredje kategorin hybridinflygning använder kunskapsteknik utöver samarbetsfiltrering. Burke föreslog till exempel en ram för hybridrekommendation där samverkansfiltrering användes för att postfiltrera de rekommendationsresultat som erhållits genom den kunskapsbaserade filtreringsmetoden (Burke, 2000). I tabell 1 presenteras taxonomi för rekommendationssystem som beskrivs ovan. Vi sammanfattar i tabellen vilka typer av systeminmatning, representationsmetoder och rekommendationsmetoder som används i befintliga rekommendationssystem. Flera system i litteraturen listas i tabell 2 och karakteriseras i tabell 3 under de dimensioner som införs i taxonomin. Vi fann att de flesta av de rekommenderade systemen använde samarbetsfiltrering för att generera rekommendationer. Dessutom var de metoder som användes i dessa system till stor del tillämpningsspecifika. Detta begränsade de dataindata och -representationer som kunde användas. Vi anser att en modell inte bara måste vara tillräckligt omfattande för att stödja olika insatser och representationer, utan också tillräckligt flexibel för att stödja olika rekommendationsstrategier. För att tillgodose behoven av omfattande representation och för att stödja flexibla rekommendationer föreslår vi en grafmodell för att bygga e-handelsrekommendationer. Två senaste arbeten på recommender system föreslår graf-teoretiska modeller eller tillvägagångssätt. Aggarwal, Wolf, Wu och Yu (1999) införde en riktad graf av användare i rekommenderade system, där de riktade kanterna motsvarar begreppet förutsägbarhet. Baserat på denna graf, personliga rekommendationer kan genereras via några någorlunda korta (starkt förutsägbara) riktade vägar som förenar flera användare. Mirza (2001) föreslog också en grafteoretisk modell för samverkansfiltrering, där objekt och användare båda representeras som noder och kanter representerar rekommendationsdatamängden (interaktion mellan användare och objekt). Ett socialt nätverk diagram över användare skapas sedan baserat på den ursprungliga grafen, och rekommendationer genereras genom att navigera kombinationen av den ursprungliga grafen och användaren sociala nätverk graf. I likhet med dessa tidigare grafteoretiska modeller i vissa avseenden fokuserar den modell som vi föreslår mer på att ge en enhetlig representation för de olika typer av systemindata som sammanfattas i den taxonomi som presenterades tidigare. Flexibla rekommendationer ska också undersökas med hjälp av en sådan grafmodell. I följande avsnitt beskriver vi först modellen och analyserar sedan dess egenskaper och tillämpning. Eftersom vi fokuserar på e-handel rekommenderar system, kommer vi att diskutera produkter (i stället för objekt) och kunder (i stället för användare) i följande avsnitt. Figur 1 visar en tvåskikts grafmodell, där de två lagren av noder representerar produkter respektive kunder. Tre typer av länkar mellan noder fångar in indata: produktinformation, kundinformation och transaktionsinformation. Varje länk mellan två produkter fångar likhet mellan dem. Olika typer av produktinformation kan användas för att beräkna likheten. För produkter som böcker och filmer kan innehållet i produktbeskrivningen (bok introduktioner, film recensioner) också användas för att beräkna produktlikhet. På samma sätt fångar varje länk mellan två kunder likheten mellan dem. Den stora mängden demografiska data från kunder som finns på e-handelssajter kan användas för att beräkna kundernas likhet. Övrig information om kunder kan också läggas till, såsom kundernas svar på frågeformulär, förfrågningar, webbanvändningsmönster och så vidare. Interlayer länkar bildas baserat på den transaktionsinformation som fångar föreningar mellan kunder och produkter. Vissa vanliga transaktionsinformation inkluderar köphistorik, kundernas betyg, eller beter beteende som involverar produkten. Varje köp av en produkt av en kund representeras av en mellanskiktslänk i vår modell. Olika typer av transaktionsinformation kan kombineras i modellen genom att olika vikter tilldelas för att återspegla olika associationsstyrkor. Till exempel kan ett högt betyg på en produkt vägas högre än en webbaktivitet, eftersom det förstnämnda återspeglar kundens intresse mer direkt. Litteraturgenomgången visade att området för recommender system kräver en omfattande och generisk modell. Denna modell bör kunna representera olika typer av dataindata och stödja olika rekommendationsstrategier med hjälp av olika tekniker. Här visar vi hur vår tvålagers grafmodell uppfyller dessa krav. Vi analyserar först egenskaperna hos vår modell och introducerar tre rekommendationsmetoder som vi har utvecklat för att visa modellens användbarhet och flexibilitet. Den stora skillnaden mellan representationen i vår modell och andra representationer är att vår modell kräver omvandling av de ursprungliga indata, såsom produkt- och kundattribut, till likhetsåtgärder. Andra har använt de ursprungliga indata i sig som | Det finns i allmänhet fyra rekommendationsstrategier: samverkansfiltrering, innehållsbaserad, hybrid och kunskapsbaserad REF. | 16,942,431 | A Graph Model for E-Commerce Recommender Systems | {'venue': 'Journal of the American Society for Information Science and Technology', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,012 |
I detta dokument tar vi upp problemet med att utvärdera om resultaten från en e-handelssökmotor för en fråga är bra eller inte. är en kritisk fråga vid utvärderingen av eventuella sökmotorer för e-handel. Även om denna fråga traditionellt besvaras med hjälp av enkla mått som frågeklick-genomhastighet (CTR), Vi observerar att i e-handelssökning, sådana mått kan vara vilseledande. Vid inspektion, vi nd fall där CTR är hög men resultaten är dåliga och vice versa. Liknande fall finns för andra mått som tid att klicka som o en också används för att utvärdera sökmotorer. Vi strävar efter att lära oss kvaliteten på de resultat som tillhandahålls av sökmotorn baserat på användarnas interaktioner med resultaten. Även om detta problem har studerats i webbsökningssammanhang, är detta den första studien för e-handelssökning, så vitt vi vet. Trots vissa likheter med att utvärdera sökmotorer, det finns flera stora skillnader såsom underliggande orsaker till sökfel, och tillgång till rika användarinteraktionsdata med produkter (t.ex. Lägga till en produkt i varukorgen). Vi studerar storskaliga användarinteraktionsloggar från Flipkarts 1 sökmotor, analyserar beteendemässiga pa erns och bygger modeller för att klassificera frågor baserat på användarens beteendesignaler. Vi visar på genomförbarheten och noggrannheten hos sådana modeller i att exakt förutsäga frågeprestanda. Vår classi er kan uppnå en genomsnittlig AUC på 0,75 på en utdragen testuppsättning. | Kumar m.fl. REF påpekade att predikteringen av frågeprestandan i produktsökningen inte bara kan baseras på standardmått såsom klick-genom-hastighet (CTR), eftersom CTR kan vara hög medan resultaten är dåliga, i termer av relevans perspektiv. | 51,895,025 | Did We Get It Right? Predicting Query Performance in E-commerce Search | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 9,013 |
Abstrakt. Att uppskatta grundläggande matriser är ett klassiskt problem i datorseendet. Traditionella metoder är starkt beroende av riktigheten av uppskattade nyckelpunktkorrespondenser, som kan vara bullriga och opålitliga. Som ett resultat av detta är det svårt för dessa metoder att hantera bildpar med stor ocklusion eller betydligt olika kameraposer. I detta dokument föreslår vi nya neurala nätverk arkitekturer för att uppskatta grundläggande matriser på ett end-to-end sätt utan att förlita sig på punktkorrespondenser. Nya moduler och skikt introduceras för att bevara den grundläggande matrisens matematiska egenskaper som en homogen rank-2-matris med sju frihetsgrader. Vi analyserar prestandan hos de föreslagna modellerna med hjälp av olika mått på KITTI-datasetet, och visar att de uppnår konkurrenskraftiga prestanda med traditionella metoder utan behov av att extrahera korrespondenser. Nyckelord: Grundläggande Matrix · Epipolär geometri · Djupinlärning · Stereo. Grundmatrisen (F-matris) innehåller mycket information om två stereobilder. Förmågan att uppskatta grundläggande matriser är avgörande för många datorseende applikationer såsom kamerakalibrering och lokalisering, bildkorrigering, djupuppskattning och 3D-rekonstruktion. Den nuvarande inställningen till detta problem bygger på att upptäcka och matcha lokala funktionspunkter, och med hjälp av de erhållna korrespondenser för att beräkna den grundläggande matrisen genom att lösa ett optimeringsproblem om epipolära begränsningar [27, 16]. Resultaten av sådana metoder är i hög grad beroende av noggrannheten hos de lokala funktionsmatcherna, som är baserade på algoritmer som SIFT [28]. Men dessa metoder är inte alltid tillförlitliga, särskilt när det finns ocklusion, stor översättning eller rotation mellan bilder av scenen. I detta dokument föreslår vi end-to-end trainingable convolutional neural networks för F-matrisuppskattning som inte är beroende av nyckelpunktkorrespondenser. Den största utmaningen med att direkt regressera F-matrisens ingångar är att bevara dess matematiska egenskaper som en homogen rank-2-matris med sju frihetsgrader. Vi föreslår en rekonstruktionsmodul och ett normaliseringslager (Sec. 2.2) att ta itu med denna utmaning. Vi visar att genom att använda dessa lager, kan vi exakt uppskatta den grundläggande matrisen, medan en enkel regressionsstrategi inte ger goda resultat. Vår detaljerade * Anger lika bidrag | Ett annat arbete, också fokuserat på att uppskatta den grundläggande matrisen, introducerar en CNN-modell som uttryckligen tar hänsyn till de matematiska egenskaperna hos den grundläggande matrisen som en homogen rank-2 matris med sju grader av frihet REF. | 52,912,496 | Deep Fundamental Matrix Estimation without Correspondences | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 9,014 |
Enhetsdrivrutiner är den enskilt största bidragsgivaren till operativsystemets källkod med över 5 miljoner kodrader i Linuxkärnan, och orsakar betydande komplexitet, fel och utvecklingskostnader. Under de senaste åren har det varit mycket forskning som syftar till att förbättra tillförlitligheten och förenkla förarnas utveckling. Man vet dock inte mycket om vad som utgör denna enorma kodsamling utöver den lilla uppsättning av förare som används för forskning. I denna uppsats studerar vi källkoden för Linuxdrivrutiner för att förstå vad drivrutiner faktiskt gör, hur aktuell forskning gäller för dem och vilka möjligheter som finns för framtida forskning. Vi avgör om antaganden som gjorts av förarforskning, till exempel att alla förare tillhör en klass, verkligen är sanna. Vi analyserar också förarkod och abstractions för att avgöra om förare kan dra nytta av kodomorganisation eller hårdvarutrender. Vi utvecklar en uppsättning statiska analysverktyg för att analysera förarkod över olika axlar. I vår studie tar vi i stort sett upp tre aspekter av förarkoden (i) vilka är egenskaperna hos förarkodens funktionalitet och hur tillämplig är förarforskningen för alla förare, (ii) hur interagerar förarna med kärnan, enheterna och bussarna, och (iii) finns det likheter som kan abstrakteras in i biblioteken för att minska förarens storlek och komplexitet? Vi anser att många antaganden som gjorts av förarforskningen inte gäller alla förare. Minst 44 % av förarna har kod som inte fångas av en klassdefinition, 28 % av förarna stöder mer än en enhet per förare, och 15 % av förarna gör betydande beräkningar av data. Från förarinteraktionsstudien finner vi att USB-bussen erbjuder ett effektivt bussgränssnitt med betydande standardiserad kod och grovkornig åtkomst, perfekt för att köra förare isolerat. Vi finner också att förare för olika bussar och klasser har mycket varierande nivåer av interaktion mellan enheter, vilket tyder på att kostnaden för isolering kommer att variera beroende på klass. Slutligen, från vår studie av förarens likhet, finner vi att 8 % av alla förarkoder i stort sett liknar koder på andra håll och kan tas bort med nya abstraktioner eller bibliotek. | Kadav och Swift REF studerade den effektiva API-exporten av Linuxkärnan till enhetsdrivrutiner, samt enhetsdrivrutinernas interaktion med Linux-kompletterande till vår studie av hur program interagerar med kärnan eller kärnbiblioteken. | 4,512,024 | Understanding modern device drivers | {'venue': 'ASPLOS XVII', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,015 |
Abstract-Vi tar itu med problemet med helautomatisk objekt lokalisering och rekonstruktion från en enda bild. Detta är både ett mycket utmanande och mycket viktigt problem som fram till nyligen har fått begränsad uppmärksamhet på grund av svårigheter att segmentera objekt och förutsäga deras poser. Här drar vi nytta av den senaste tidens framsteg när det gäller att lära sig konvolutionella nätverk för objektdetektering och segmentering och inför ett kompletterande nätverk för uppgiften att förutsäga kamerans synvinkel. Dessa prediktorer är mycket kraftfulla, men ändå inte perfekta med tanke på de stränga kraven på form rekonstruktion. Vårt huvudsakliga bidrag är en ny klass av deformerbara 3D-modeller som robust kan monteras på bilder baserade på bullriga pose- och siluettberäkningar som beräknas uppströms och som kan läras direkt från 2D-anteckningar som finns i objektdetekteringsdata. Våra modeller fångar information uppifrån och ner om de viktigaste globala formvariationerna inom en klass som ger en "lågfrekvent" form. För att fånga fina instans-specifika formdetaljer, smälter vi ihop den med en högfrekvent komponent som återvinns från skuggande färger. En omfattande kvantitativ analys och ablation studie av PASCAL 3D+ datauppsättning validerar metoden eftersom vi visar helt automatiska rekonstruktioner på PASCAL VOC samt stora förbättringar av uppgiften att synvinkel förutsägelse. | Tulsiani m.fl. REF kombinerar objekt lokalisering och rekonstruktion från en enda bild med CNNs för detektion och segmentering, och synvinkel uppskattning. | 12,849,904 | Learning Category-Specific Deformable 3D Models for Object Reconstruction | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 9,016 |
Diagramkluster är en grundläggande uppgift som upptäcker samhällen eller grupper i nätverk. Nya studier har främst fokuserat på att utveckla djupt lärande metoder för att lära sig en kompakt graf inbäddning, på vilken klassiska klustermetoder som k-medel eller spektral kluster algoritmer tillämpas. Dessa tvåstegsramverk är svåra att manipulera och leder vanligtvis till suboptimala prestanda, främst för att grafen som inbäddas inte är målriktad, dvs. utformad för den specifika klusteruppgiften. I detta dokument föreslår vi en målinriktad strategi för djupt lärande, djup uppmärksamhet inbäddad grafkluster (DAEGC kort sagt). Vår metod fokuserar på tilldelade grafer för att tillräckligt utforska de två sidorna av information i grafer. Genom att använda ett uppmärksamhetsnätverk för att fånga betydelsen av de angränsande noderna till en målnod kodar vår DAEGC-algoritm topologisk struktur och nodinnehåll i en graf till en kompakt representation, där en inre produktdekoder tränas för att rekonstruera grafstrukturen. Dessutom skapas mjuka etiketter från grafen som inbäddar sig själv för att övervaka en självträningsgrafklusterprocess, som iterativt förfinar klusterresultaten. Självträningsprocessen är gemensamt inlärd och optimerad med grafen inbäddad i en enhetlig ram, för att ömsesidigt gynna båda komponenterna. Experimentella resultat jämfört med toppmoderna algoritmer visar hur överlägsen vår metod är. | Djup uppmärksamhet inbäddade graf kluster Ref använder ett uppmärksamhetsnätverk för att fånga betydelsen av angränsande noder och använder KL-divergence förlust från DEC för att övervaka utbildningsprocessen för graf kluster. | 189,928,183 | Attributed Graph Clustering: A Deep Attentional Embedding Approach | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,017 |
Abstract-The Disruption Tolerant Networks (DTNs) är sårbara för insiderattacker, där de legitima noderna äventyras och motståndaren ändrar leveransmåtten för noden för att starta skadliga attacker i nätverken. De traditionella metoderna för att upptäcka säkra routingprotokoll kan inte hantera sådana insiderangrepp i DTN. I detta dokument föreslår vi ett system för ömsesidig korrelationsdetektering (MUTON) för att ta itu med dessa insiderangrepp. MUTON tar hänsyn till den transitiva egenskapen vid beräkningen av paketleverans sannolikheten för varje nod och korrelerar den information som samlas in från andra noder. Vi utvärderade vår strategi genom omfattande simuleringar med hjälp av både Random Way Point och Zebranet mobilitetsmodeller. Våra resultat visar att MUTON kan upptäcka insiderattacker effektivt med hög upptäcktsfrekvens och låg falsk positiv frekvens. | Ren och al. Ref tar hänsyn till nodens transitivitet och föreslår ett system för ömsesidig korrelationsdetektering. | 2,298,525 | MUTON: Detecting Malicious Nodes in Disruption-Tolerant Networks | {'venue': '2010 IEEE Wireless Communication and Networking Conference', 'journal': '2010 IEEE Wireless Communication and Networking Conference', 'mag_field_of_study': ['Computer Science']} | 9,018 |
Nya verktyg har utformats för att hjälpa utvecklare att förstå den potentiella runtime strukturen av objekt i ett system vid kompileringstid. Sådana verktyg låter utvecklare interaktivt utforska diagram över objektets struktur. Men ställer utvecklare frågor om objektstrukturen? Om ja, när då? Vi genomförde en liten pilotstudie av utvecklare som arbetar med att koda uppgifter som är utformade för att kräva att tänka på relationer mellan objekt. Utvecklare ställde faktiskt ett antal frågor om olika typer av relationer såsom inneslutning, ägande, objektidentiteter och alias. Slutligen visade en del av våra resultat att verktyg för användbarhetsutmaningar bör ta itu med för att på ett mer effektivt sätt besvara dessa frågor. | Före denna studie genomförde vi en undersökande studie för att identifiera om utvecklare ställer frågor om objektrelationer under kodningsuppgifter REF. | 8,336,906 | Questions about object structure during coding activities | {'venue': "CHASE '10", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,019 |
Moderna neurala nätverk är mycket kraftfulla prediktiva modeller, men de är ofta oförmögna att känna igen när deras förutsägelser kan vara fel. Nära relaterat till detta är uppgiften att upptäcka utanför distributionen, där ett nätverk måste avgöra om en inmatning är utanför den uppsättning som det förväntas utföra på ett säkert sätt. För att gemensamt ta itu med dessa frågor, föreslår vi en metod för att lära förtroende uppskattningar för neurala nätverk som är enkelt att genomföra och producerar intuitivt tolkabara utgångar. Vi visar att när det gäller detektion av out-of-distribution, överträffar vår teknik nyligen föreslagna tekniker som bygger förtroende baserat på nätverkets utdata distribution, utan att kräva några ytterligare etiketter eller tillgång till out-of-distribution exempel. Dessutom tar vi upp problemet med kalibrering utanför distributionsdetektorer, där vi visar att felklassificerade exempel på distribution kan användas som en proxy för exempel utanför distributionen. | På samma sätt föreslog DeVries och Taylor Ref en hybrid med en konfidenstid för att förbättra detektionen av out-of-distribution. | 3,271,220 | Learning Confidence for Out-of-Distribution Detection in Neural Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,020 |
Abstrakt. Game-playing är ett sätt att skriva säkerhetsbevis som är lätta att verifiera. I detta tillvägagångssätt, säkerhetsdefinitioner och svåråtkomliga problem skrivs som program som kallas spel och reduktionistiska säkerhetsbevis är sekvenser av spel transformationer. Denna partiskhet mot programmeringsspråk föreslår införandet av ett verktyg som bygger på kompilatorteknik (syntaktiska programomvandlingar) för att bygga säkerhetsbevis, men det väcker också frågan om sundheten i ett sådant verktyg. I detta papper förespråkar vi formalisering av spel-spel i en proof assistent som ett verktyg för att bygga säkerhetsbevis. I en bevisassistent, som utgår från den formella definitionen av ett probabilistiskt programmeringsspråk, kan alla egenskaper som krävs i spelbaserade säkerhetsbevis bevisas internt som lemmas vars sundhet säkerställs genom bevisteori. Konkret visar vi hur man formaliserar spel-spel ram Bellare och Rogaway i Coq bevis assistent, hur man visar formellt återanvändbara lemmas såsom den grundläggande lemma av spel-spel, och hur man använder dem för att formellt bevisa PRP / PRF Byta Lemma. | Hittills har genomförandet av Ref endast använts för att bevisa att PRP/PRF byter lemma, men ännu inte ett fullfjädrat kryptografiskt system. | 10,197,098 | Formal proof of provable security by game-playing in a proof assistant | {'venue': 'In ProvSec 2007', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,021 |
Temporal epistemisk logik är en väletablerad ram för att uttrycka agenternas kunskap och hur den utvecklas över tiden. Inom språkbaserad säkerhet är detta centrala frågor, till exempel i samband med avklassificering. Vi föreslår att dessa två områden sammanförs. Papperet presenterar en beräkningsmodell och en epistemisk temporal logik som används för att resonera om kunskap som förvärvats genom att observera programutgångar. Detta tillvägagångssätt visar sig på ett elegant sätt fånga upp standardbegrepp om icke-interferens och avklassificering i litteraturen samt informationsflödesegenskaper där känsliga och offentliga data sammanblandas på känsliga sätt. | Balliu m.fl. REF introducerar en tidsmässig epistemisk logik för att uttrycka informationsflödespolicyer. | 2,810,483 | Epistemic temporal logic for information flow security | {'venue': "PLAS '11", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,022 |
Modellfria djupt förstärkande inlärningsalgoritmer har visat sig kunna lära sig ett brett spektrum av robotiska färdigheter, men kräver vanligtvis ett mycket stort antal prover för att uppnå god prestanda. Modellbaserade algoritmer, i princip, kan ge mycket effektivare lärande, men har visat sig svåra att utvidga till expressiva modeller med hög kapacitet såsom djupa neurala nätverk. I detta arbete, visar vi att neurala nätverksdynamik modeller kan i själva verket kombineras med modell prediktiv kontroll (MPC) för att uppnå utmärkt prov komplexitet i en modellbaserad förstärkning lärande algoritm, producerar stabila och rimliga gångarter som utför olika komplexa locomotion uppgifter. Vi föreslår vidare att man använder modeller för djup neural nätverksdynamik för att initiera en modellfri inlärare, för att kombinera proveffektiviteten hos modellbaserade metoder med den höga uppgiftsspecifika prestandan hos modellfria metoder. Vi demonstrerar empiriskt på MuJoCo locomotion uppgifter att vår rena modellbaserade metod tränas på bara slumpmässiga åtgärder data kan följa godtyckliga banor med utmärkt proveffektivitet, och att vår hybridalgoritm kan påskynda modellfri inlärning på höghastighetsriktmärke uppgifter, uppnå prov effektivitetsvinster på 3 − 5× på simmare, gepard, tratt och myragenter. Videor finns på https://sites.google.com/view/mbmf | Ett annat tillvägagångssätt används av REF, som använder neurala nätverksdynamik modeller, i kombination med modell Predictive Control (MPC) och modellfri finjustering för att uppnå effektiv kontroll och stabila gångar i MuJoCos baslinjemiljö. | 206,853,161 | Neural Network Dynamics for Model-Based Deep Reinforcement Learning with Model-Free Fine-Tuning | {'venue': '2018 IEEE International Conference on Robotics and Automation (ICRA)', 'journal': '2018 IEEE International Conference on Robotics and Automation (ICRA)', 'mag_field_of_study': ['Mathematics', 'Engineering', 'Computer Science']} | 9,023 |
I ett traditionellt konvolutionslager håller sig de lärda filtren fast efter träningen. Däremot introducerar vi ett nytt ramverk, Dynamic Filter Network, där filter skapas dynamiskt beroende på en ingång. Vi visar att denna arkitektur är kraftfull, med ökad flexibilitet tack vare dess adaptiva karaktär, men utan en överdriven ökning av antalet modellparametrar. En mängd olika filtreringsåtgärder kan läras på detta sätt, inklusive lokala rumsliga omvandlingar, men också andra som selektiv (de)blurring eller adaptiv funktionsextraktion. Dessutom kan flera sådana lager kombineras, t.ex. i en återkommande arkitektur. Vi demonstrerar effektiviteten i det dynamiska filternätverket på de uppgifter video och stereo förutsägelser, och nå state-of-the-art prestanda på den rörliga MNIST dataset med en mycket mindre modell. Genom att visualisera de lärda filtren illustrerar vi att nätverket har plockat upp flödesinformation genom att bara titta på omärkta träningsdata. Detta tyder på att nätverket kan användas för att förbereda nätverk för olika övervakade uppgifter på ett oövervakat sätt, som optiskt flöde och djupuppskattning. | Konceptet har visat sig ha lovande resultat när det gäller mer långsiktiga förutsägelser om rörliga MNIST dataset i REF. | 2,097,418 | Dynamic Filter Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,024 |
Likvärdighetsbevarande hasch är en allmänt använd metod för närmaste grannsökning i storskaliga bildsökningsuppgifter. För de flesta befintliga hashing metoder, är en bild först kodas som en vektor för hand-engineering visuella funktioner, följt av en annan separat projektion eller kvantisering steg som genererar binära koder. Sådana visuella vektorer kan dock inte vara optimalt kompatibla med kodningsprocessen, vilket ger upphov till suboptimala hashkoder. I detta dokument föreslår vi en djup arkitektur för övervakad hashing, där bilder kartläggs i binära koder via noggrant utformade djupa neurala nätverk. Rörledningen för den föreslagna djupa arkitekturen består av tre byggstenar: 1) ett delnätverk med en hög av konvolutionslager för att producera de effektiva mellanliggande bildfunktionerna; 2) en modul för delning och kod för att dela upp de mellanliggande bildfunktionerna i flera grenar, var och en kodad till en hashbit; och 3) en triplet rankingförlust utformad för att karakterisera att en bild är mer lik den andra bilden än den tredje. Omfattande utvärderingar av flera referensbilddata visar att den föreslagna simultana funktionen inlärning och hash kodning pipeline ger betydande förbättringar jämfört med andra toppmoderna övervakade eller oövervakade hashing metoder. | Lai m.fl. REF föreslog en enstegs övervakad hashningsmetod som tar tre bilder som indata och bevarar relativa likheter med formen "bild I är mer lik bild I + än bild I −". | 1,307,328 | Simultaneous Feature Learning and Hash Coding with Deep Neural Networks | {'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 9,025 |
Forumdiskussioner online innehåller ofta stora mängder frågor som är fokus för diskussioner. Att ta fram sammanhang och svar tillsammans med frågorna ger inte bara en sammanhållen forumsammanfattning utan också en värdefull kunskapsbas för kvalitetssäkring. I detta dokument föreslår vi en allmän ram baserad på villkorliga slumpmässiga fält (CRF) för att upptäcka sammanhang och svar på frågor från forumtrådar. Vi förbättrar den grundläggande ramen av Skip-chain CRFs och 2D CRFs för att bättre anpassa funktionerna i forum för bättre prestanda. Experimentella resultat visar att våra tekniker är mycket lovande. | REF använde CRF för att upptäcka sammanhang och svar på frågor från forumtrådar. | 13,243,922 | Using Conditional Random Fields to Extract Contexts and Answers of Questions from Online Forums | {'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,026 |
Abstract-Det höga antalet spektralband som förvärvas av hyperspektralsensorer ökar förmågan att särskilja fysiska material och objekt, vilket innebär nya utmaningar för bildanalys och klassificering. Denna bokstav presenterar en ny metod för exakt spektral-spatial klassificering av hyperspektral bilder. Den föreslagna tekniken består av två steg. I det första steget, en probabilistisk stöd vektor maskin pixelwise klassificering av hyperspektral bild tillämpas. I det andra steget används rumslig kontextuell information för att förfina de klassificeringsresultat som erhållits i det första steget. Detta uppnås med hjälp av en Markov slumpmässig fältreglering. Experimentella resultat presenteras för tre hyperspektral luftburna bilder och jämförs med de som erhållits genom nyligen föreslagna avancerade spektral-spatiala klassificeringsmetoder. Den föreslagna metoden förbättrar klassificeringsnoggrannheten jämfört med andra klassificeringsmetoder. Index Terms-klassificering, hyperspektral bilder, Markov slumpmässigt fält (MRF), stöd vektor maskin (SVM). | Dessutom, i REF, en Markov slumpmässig fältreglering tillämpas på resultatet av en pixel-wise klassificering av hyperspektral bilder med hjälp av en probabilistisk stöd vektor maskin. | 15,617,677 | SVM- and MRF-Based Method for Accurate Classification of Hyperspectral Images | {'venue': 'IEEE Geoscience and Remote Sensing Letters', 'journal': 'IEEE Geoscience and Remote Sensing Letters', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,027 |
Barriärtäckning är en kritisk fråga i trådlösa sensornätverk för olika slagfälts- och hemlandssäkerhetstillämpningar. Målet är att effektivt upptäcka inkräktare som försöker penetrera området av intresse. En sensorbarriär bildas av en ansluten sensorkluster över hela den utplacerade regionen, som fungerar som en "trip wire" för att upptäcka eventuella korsande inkräktare. I detta dokument studerar vi hur man effektivt kan förbättra barriärtäckningen med hjälp av mobila sensorer med begränsad rörlighet. Efter den första installationen kan mobila sensorer flytta till önskade platser och ansluta till andra sensorer för att skapa nya barriärer. Att helt enkelt flytta sensorer för att bilda ett stort lokalt kluster ger dock inte nödvändigtvis ett globalt hinder. Denna globala typ av barriärtäckning gör det till en utmanande uppgift att utforma effektiva system för sensorrörlighet. Dessutom bör ett bra system för sensorrörlighet effektivt förbättra barriärtäckningen under de begränsningar som finns hos tillgängliga mobila sensorer och deras rörliga räckvidd. Vi undersöker först de grundläggande gränserna för sensorrörlighet på barriärtäckning och presenterar ett system för sensorrörlighet som konstruerar maximalt antal barriärer med minsta sensorrörelseavstånd. Vi presenterar sedan en effektiv algoritm för att beräkna förekomsten av barriärtäckning med sensorer med begränsad rörlighet, och undersöka effekterna av antalet mobila sensorer och deras rörliga områden på barriärtäckningsförbättringen. Både analysresultaten och algoritmernas prestanda utvärderas genom omfattande simuleringar. | Slutligen, problemet med att bygga sensorbarriär med mobil sensor studeras i REF. | 9,823,432 | Barrier coverage with sensors of limited mobility | {'venue': "MobiHoc '10", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,028 |
Abstrakt. Affärsprocessmodellering har blivit ett viktigt verktyg för att hantera organisationsförändringar och för att fånga krav på programvara. Ett centralt problem på detta område är att förvärv av as-is-modeller förbrukar upp till 60 % av den tid som läggs på projekt för processledning. Detta är paradoxalt eftersom det ofta finns omfattande dokumentation tillgänglig i företag, men inte i bruksfärdigt format. I detta dokument tar vi itu med detta problem på grundval av ett automatiskt tillvägagångssätt för att generera BPMN-modeller från text i naturligt språk. Vi kombinerar befintliga verktyg från naturligt språk bearbetning på ett innovativt sätt och förstärkt dem med en lämplig Anaphora upplösningsmekanism. Utvärderingen av vår teknik visar att för en uppsättning av 47 text-modeller par från industrin och läroböcker, kan vi generera i genomsnitt 77% av modellerna korrekt. | Den omvända metoden för affärsmodell modeller generation från naturliga språk texter presenterades i REF. | 1,631,332 | Process Model Generation from Natural Language Text | {'venue': 'in: CAiSE 2011, Vol. 6741 of LNCS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,029 |
Vi ger en noll-kunskap argument för aritmetisk krets satisfiability med en kommunikations komplexitet som växer logaritmiskt i storleken på kretsen. Den runda komplexiteten är också logaritmisk och för en aritmetisk krets med fläkt-in 2 grindar är beräkningen av provaren och kontrollören linjär i kretsens storlek. Sundheten i vårt argument bygger enbart på väletablerade diskreta logaritm antagande i prime order grupper. Kärnan i vårt nya argumentsystem är ett effektivt nollkunskapsargument för kunskap om öppningar av två Pedersen-multiåtaganden som uppfyller ett inre produktförhållande, vilket är av oberoende intresse. Det inre produktargumentet kräver logaritmisk kommunikation, logaritmisk interaktion och linjär beräkning för både provaren och kontrollören. Vi utvecklar också ett system för att binda oss till ett polynom och senare avslöja utvärderingen vid en godtycklig punkt, på ett kontrollerbart sätt. Detta används för att bygga en optimerad version av den konstant runda kvadratrot komplexitet argument Groth (CRYPTO 2009), vilket minskar både kommunikation och rund komplexitet. Informellt involverar ett nollkunskapsargument två parter, bevisaren och kontrollören, och gör det möjligt för kontrollören att bevisa för kontrollören att ett visst påstående är sant, utan att avslöja något annat om själva uttalandet. Uttalanden är av formen u på L, där L är ett språk i NP. Vi kallar w ett vittne för ett uttalande u om (u, w) R, där R är en polynom tid decidable binär relation i samband med L. Vi kräver noll-kunskap argument för att vara komplett, ljud och noll-kunskap. En bevisare med ett vittne kan övertyga kontrollanten om detta faktum. Ljudstyrka: En provtagare kan inte övertyga en kontrollör när u / på L. Zero-kunskap: Interaktionen bör inte avslöja något för kontrollören förutom att u på L. I synnerhet bör det inte avslöja provkroppens vittne w. Vårt mål är att bygga ett effektivt argumentsystem för satisfiability för en aritmetisk krets, dvs. en krets som består av addition och multiplikation grindar över ett ändligt fält Z p. Dessutom vill vi basera säkerheten i detta argument enbart på diskret logaritm antagande: detta kommer att ge både starka säkerhetsgarantier och god effektivitet eftersom det inte finns några kända attacker bättre än generiska för väl valda elliptiska kurvundergrupper. De mest effektiva argumenten för nollkunskap enbart baserat på det diskreta logaritm antagandet är Groths protokoll baserat på linjär algebra [Gro09b] och dess variant av Seo [Seo11]. Båda dessa protokoll har en kommunikations komplexitet som är proportionell mot kvadratroten av kretsens storlek. Denna kvadratrot komplexitet har sedan dess framträtt som en (kanske grundläggande) barriär för diskret logaritm-baserade argument för krets satisfiability. Vi tillhandahåller en ärlig kontrollör noll-kunskap argument för aritmetisk krets satisfiability baserat på diskret logaritm antagande som bara kräver en logaritmisk kommunikation komplexitet. Vårt argument har perfekt fullständighet och perfekt speciell ärlig kontrollör noll-kunskap. Ljudstyrka är beräkningsmässig och baseras på det diskreta logaritm antagandet. Vi behöver ett logaritmiskt antal drag, och både provaren och kontrollören har linjär beräknings komplexitet. Argumentet är därför effektivt på alla parametrar med den största förbättringen av kommunikationens komplexitet. Förbättrad kvadratrot Komplexitet Argument. Vi börjar från kretsen satisfiability argument Groth [Gro09b], som kräver 7 drag och har kvadratrot kommunikation komplexitet i det totala antalet portar. I detta argument förbinder sig provtagaren till alla ledningar med hjälp av homomorfa multiåtaganden, kontrollerar additionsportar med hjälp av homomorfa egenskaper och använder ett produktargument för att visa att multiplikationsportarna är uppfyllda. Vi förbättrar först Groth argument i en 5 drag argument med kvadratrot kommunikation komplexitet i antalet multiplikation grindar endast. Vi är här. | Den bästa interaktiva nollkunskap protokoll baserat på diskret logaritm antagande för aritmetiska kretsar REF ger en logaritmisk kommunikation komplexitet, men kräver ett icke-konstant antal rundor. | 16,184,742 | Efficient Zero-Knowledge Arguments for Arithmetic Circuits in the Discrete Log Setting | {'venue': 'IACR Cryptology ePrint Archive', 'journal': 'IACR Cryptology ePrint Archive', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 9,030 |
Alternativprissättning är ett av de svåra problemen med beräkningsfinansiering. Naturinspirerade algoritmer har fått en framträdande plats i verkliga optimeringsproblem som i mobila ad hoc-nätverk. Problemet med alternativ prissättning passar mycket väl in i denna kategori av problem på grund av marknadens ad hoc-karaktär. Partikel svärm optimering (PSO) är en av de nya globala sök algoritmer som bygger på svärm intelligens. Vi visar först att PSO skulle kunna användas effektivt för problemet med alternativ prissättning. Resultaten jämförs med den klassiska Black-Scholes-Merton-modellen för enkla europeiska alternativ. I denna studie utvecklade vi två algoritmer för optionsprissättning med hjälp av partikelsvamoptimering (PSO). Den första algoritmen vi utvecklade är synkron alternativprissättningsalgoritm med PSO (SPSO), och den andra är parallell synkron alternativprissättningsalgoritm. Priserna för dessa algoritmer är nära jämfört med klassiska Black-Scholes-Merton modell för enkla europeiska alternativ. Vi testar vår parallella synkrona PSO-algoritm i tre arkitekturer: delad minnesmaskin med OpenMP, distribuerad minnesmaskin med MPI och på en homogen flerkärnig arkitektur som kör MPI och OpenMP (hybridmodell). Resultaten visar att hybridmodellen hanterar belastningen väl och att vi ökar antalet partiklar i simuleringen samtidigt som motsvarande noggrannhet bibehålls. | REF föreslog en parallell synkron alternativprissättningsalgoritm för att prissätta enkla europeiska alternativ med hjälp av partikelsvärmoptimering: en naturinspirerad global sökalgoritm baserad på svärminformation. | 12,406,902 | A parallel Particle swarm optimization algorithm for option pricing | {'venue': '2010 IEEE International Symposium on Parallel & Distributed Processing, Workshops and Phd Forum (IPDPSW)', 'journal': '2010 IEEE International Symposium on Parallel & Distributed Processing, Workshops and Phd Forum (IPDPSW)', 'mag_field_of_study': ['Computer Science']} | 9,032 |
Detta papper introducerar en neural modell för koncept-till-text generation som skalar till stora, rika domäner. Det genererar biografiska meningar från faktatabeller på en ny uppsättning av biografier från Wikipedia. Denna uppsättning är en storleksordning större än befintliga resurser med över 700k prover och en 400k ordförråd. Vår modell bygger på villkorliga neurala språkmodeller för textgenerering. För att hantera det stora ordförrådet utökar vi dessa modeller för att blanda ett fast ordförråd med kopieringsåtgärder som överför exempelspecifika ord från indatadatabasen till den genererade utdatameningen. För att hantera strukturerade data tillåter vi modellen att bädda in ord på olika sätt beroende på vilka datafält de förekommer i. Vår neurala modell överträffar betydligt en mallerad Kneser- Ney språkmodell med nästan 15 BLEU. | REF konstruerade en datauppsättning av biografier från Wikipedia och byggde en neural modell baserad på de villkorliga neurala språkmodellerna. | 1,238,927 | Neural Text Generation from Structured Data with Application to the Biography Domain | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,033 |
Att lära sig förutsäga framtida bilder från en videosekvens innebär att man konstruerar en intern representation som modellerar bildutvecklingen exakt, och därför i viss mån dess innehåll och dynamik. Det är därför pixel-rymd video förutsägelse kan ses som en lovande väg för oövervakad funktionsinlärning. Dessutom, medan optiskt flöde har varit ett mycket studerat problem i datorseende för en lång tid, framtida ram förutsägelse sällan närma sig. Ändå kan många vision program dra nytta av kunskapen om nästa bilder av videor, som inte kräver komplexiteten i att spåra varje pixel bana. I detta arbete utbildar vi ett konvolutionellt nätverk för att generera framtida ramar med tanke på en ingångssekvens. För att hantera de inneboende suddiga förutsägelser som erhålls från den standard Mean Squared Error (MSE) förlust funktion, föreslår vi tre olika och kompletterande funktioner lärande strategier: en flerskalig arkitektur, en kontradiktorisk utbildningsmetod, och en bild gradient skillnad förlust funktion. Vi jämför våra förutsägelser med olika publicerade resultat baserade på återkommande neurala nätverk på UCF101 datasetet. | I REF kombineras den gemensamma målfunktionen "mean-square-terror" med en kontradiktorisk utbildningskostnad för att generera skarpare prover. | 205,514 | Deep multi-scale video prediction beyond mean square error | {'venue': 'ICLR 2016', 'journal': 'arXiv: Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 9,034 |
Motiverad av framgången med kraftfulla medan dyra tekniker för att känna igen ord på ett holistiskt sätt [1, 2, 3], objektförslag tekniker fram som ett alternativ till de traditionella textdetektorer. I detta dokument introducerar vi en ny metod för objektförslag som är särskilt utformad för text. Vi förlitar oss på en likhetsbaserad region gruppering algoritm som genererar en hierarki av ordhypoteser. Över noderna i denna hierarki är det möjligt att tillämpa en holistisk ordigenkänningsmetod på ett effektivt sätt. Våra experiment visar att den presenterade metoden är överlägsen i sin förmåga att producera goda kvalitet ordförslag jämfört med klassoberoende algoritmer. Vi visar imponerande återkallelsefrekvenser med några tusen förslag i olika standardriktmärken, inklusive fokuserade eller tillfälliga textdatauppsättningar, och flerspråkiga scenarier. Dessutom visar kombinationen av våra objektförslag med befintliga hela ordkännare [2, 3] konkurrenskraftiga resultat i end-to-end word spotting, och i vissa riktmärken överträffar tidigare publicerade resultat. Konkret, i den utmanande ICDAR2015 Incidental Text dataset, vi övervinna i mer än 10 procent f-score den bäst presterande metoden i den senaste ICDAR Robust Reading Competition [4]. Källkod för hela end-to-end-systemet finns på https://github.com/lluisgomez/TextProposals. | Gomez och Al. Ref föreslår istället en textspecifik objektförslagsmetod som bygger på att generera en hierarki av ordhypoteser baserat på en likhet region gruppering algoritm. | 10,221,194 | TextProposals: a Text-specific Selective Search Algorithm for Word Spotting in the Wild | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,035 |
Med parallella uppmärksamhetsnätverk är neuraltransformer mycket snabb att träna. På grund av den autoregressiva arkitekturen och självuppmärksamheten i dekodern blir avkodningsförfarandet dock långsamt. För att lindra denna fråga, föreslår vi ett genomsnittligt uppmärksamhetsnätverk som ett alternativ till självuppmärksamhetsnätverket i avkodaren av den neurala Transformer. Det genomsnittliga uppmärksamhetsnätet består av två lager, med ett genomsnittsskikt som modellerar beroenden på tidigare positioner och ett gatingskikt som staplas över det genomsnittliga lagret för att öka expressiviteten i det föreslagna uppmärksamhetsnätet. Vi använder detta nätverk på dekoderdelen av neuraltransformer att ersätta den ursprungliga målsidan själv-attention modell. Med maskeringstrick och dynamisk programmering gör vår modell det möjligt för neuraltransformer att avkoda meningar över fyra gånger snabbare än sin ursprungliga version med nästan ingen förlust i träningstid och översättningsprestanda. Vi utför en rad experiment på WMT17 översättningsuppgifter, där på 6 olika språk par, vi får robusta och konsekventa speed-ups i avkodning. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. | I REF föreslås genomsnittlig uppmärksamhet som ett alternativ till nätverket för självuppmärksamhet i Transformer-dekodern för att påskynda avkodningen. | 25,113,027 | Accelerating Neural Transformer via an Average Attention Network | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 9,036 |
: Endast med hjälp av en enda uppsättning parametrar, vår exempelbaserade metod kan exakt rigga olika modeller såsom fyrdubblade djur (a), människor (b, c) och mycket deformerbara modeller (d). Vår metod kan även generera benstrukturer för utmanande delar, såsom munnen och kattens två öron (a), kjolen (b) och den elastiska komodellen (d). Vår metod är robust: med endast 9 ramar, kan det generera ett skelett med 28 ben för kattmodellen (a); notera att även om det givna exemplet poser av kattmodellen har asymmetriska poser, det fortfarande kan generera en nästan symmetriska skelett utan att införa några symmetri begränsningar. Vi introducerar en exempelbaserad riggningsmetod för att automatiskt generera linjär blandning av hudmodeller med skelettstruktur. Baserat på en uppsättning exempel poser, vår strategi kan producera sitt skelett, gemensamma positioner, linjär blandning av hudvikter, och motsvarande benomvandlingar. Utgången kan användas direkt för att ställa in skelettbaserad animation i olika 3D-modellering och animeringsprogram samt spelmotorer. Speciellt formulerar vi lösningen av en linjär blandning flå modell med ett skelett som en optimering med gemensamma begränsningar och vikt jämnhet legalisering, och lösa det med hjälp av en iterativ rigg algoritm som (i) alternativt uppdaterar flå vikter, gemensamma platser, och benomvandlingar, och (ii) automatiskt beskär redundant ben som kan genereras av en överskattad ben initialisering. På grund av den automatiska redundanta benbeskärningen är vår strategi mer robust än befintliga exempelbaserade riggmetoder. Dessutom, när det gäller riggning noggrannhet, även med en enda uppsättning parametrar, vår strategi kan mycket väl överträffa state of the art metoder på olika typer av experimentella dataset inklusive människor, fyrdubblade djur, och mycket deformerbara modeller. | Genom att formulera en linjär blandning flå som en optimering och lösa det med en iterativ rigg algoritm, Le och Deng införde en exempelbaserad riggning metod för att få skelett, gemensamma positioner, vikter och motsvarande benomvandlingar REF. | 14,390,548 | Robust and accurate skeletal rigging from mesh sequences | {'venue': 'TOGS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,037 |
Utmaningar när det gäller att organisera improviserade aktiviteter är de krav som ställs på att i rätt tid göra inbjudningar i enlighet med de platser där de sökande deltar och den sociala relationen mellan dem. Det är önskvärt att hitta en grupp deltagare nära en samlingsplats och se till att de utvalda deltagarna har en god social relation för att skapa en god atmosfär i verksamheten. Därför föreslår detta dokument Socio-Spatial Group Query (SSGQ) att välja en grupp av närliggande deltagare med snäva sociala relationer. Effektiv bearbetning av SSGQ är mycket utmanande på grund av avvägningen inom de rumsliga och sociala områdena. Vi visar att problemet är NP-hård via ett bevis och designa en effektiv algoritm SSGSelect, vilket inkluderar effektiva beskärningstekniker för att minska körtiden för att hitta den optimala lösningen. Vi föreslår också en ny indexstruktur, Social R-Tree för att ytterligare förbättra effektiviteten. Användarstudie och experimentella resultat visar att SSGSselect avsevärt överträffar manuell samordning i både lösningskvalitet och effektivitet. | Yang m.fl. REF introducerade en Socio-Spatial Group Query (SSGQ) som hämtar en grupp användare som har viss social anslutning styrka och summan av deras rumsliga avstånd minimeras. | 15,389,734 | On socio-spatial group query for location-based social networks | {'venue': 'KDD', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,038 |
I denna studie tillämpade vi en djup LSTM-struktur för att klassificera dialogakter (DA) i öppna domänsamtal. Vi fann att ordet inbäddar parametrar, avhopp legalisering, sönderfallsfrekvens och antal lager är de parametrar som har störst effekt på den slutliga systemnoggrannheten. Med hjälp av resultaten från dessa experiment har vi utbildat ett djupt LSTM-nätverk som överträffar den senaste tekniken på växeln med 3,11%, och MRDA med 2,2%. | REF har tillämpat en djupgående LSTM-struktur för att få fram de senaste resultaten om växel- och MRDA-korpuser. | 712,309 | Dialogue Act Classification in Domain-Independent Conversations Using a Deep Recurrent Neural Network | {'venue': 'COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,039 |
På senare tid har betydande insatser gjorts för djup domänanpassning i datorvisions- och maskininlärningssamhällen. Det mesta av det befintliga arbetet koncentrerar sig dock bara på att lära sig en gemensam funktionsrepresentation genom att minimera skillnaderna mellan olika områden. På grund av det faktum att alla domänanpassningar endast kan minska, men inte ta bort domänbytet, är måldomänprover som distribueras nära kanten av kluster, eller långt från deras motsvarande klasscenter lätt att felklassificeras av hyperplanet lärt sig från källdomänen. För att mildra denna fråga föreslår vi att man gemensamt anpassar domänerna till varandra och lär sig olika funktioner, vilket skulle kunna gynna både områdesanpassningen och den slutliga klassificeringen. Särskilt föreslås en instans-baserad discriminativ funktion inlärningsmetod och en center-baserad discriminativ funktion inlärningsmetod, som båda garanterar domänen invarianta funktioner med bättre intra-klass kompaktitet och mellanklass separerbarhet. Omfattande experiment visar att kunskap om de diskriminerande egenskaperna i det delade funktionsutrymmet avsevärt kan öka prestandan hos metoder för djupdomänanpassning. | Därför, de målprover som distribueras nära kanten av kluster, eller långt från deras motsvarande klass centers är mest sannolikt att felklassificeras av hyperplane lärt sig från källdomänen REF. | 52,115,042 | Joint Domain Alignment and Discriminative Feature Learning for Unsupervised Deep Domain Adaptation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 9,040 |
Distribuerade begränsningsoptimeringsproblem (DCOPs) har studerats som grundläggande problem i multiagentsystem. Max-Sum algoritmen har föreslagits som en lösningsmetod för DCOPs. Algoritmen är baserad på faktorgrafer som består av två typer av noder för variabler och funktioner. Även om Max-Sum är en exakt metod för acykliska faktor-grafer, i det fall att faktorgrafen innehåller cykler, är det en inexakt metod som inte kan konvergera. I denna studie föreslår vi en metod som bryter ner cyklerna baserat på korsade pseudo-träd på faktor-grafer. Vi presenterar också ett grundläggande schema av distribuerade sökalgoritmer som generaliserar kompletta sökalgoritmer på restriktionsgrafer och Max-Sum algoritm. | Pseudoträd på faktordiagram över DCOPs har föreslagits i REF. | 35,432,980 | Complete Distributed Search Algorithm for Cyclic Factor Graphs | {'venue': 'ICAART', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,041 |
Flerspråkigt talspråk corpora är oumbärlig för forskning om områden för talspråkskommunikation, såsom tal-till-tal översättning. Den tal- och språkbehandling som är nödvändig för flerspråkig språkforskning kräver en enhetlig struktur och annotering, till exempel märkning. I denna studie beskriver vi en erfarenhet av flerspråkig språkkorpusutveckling vid vår forskningsinstitution, med fokus i synnerhet på taligenkänning och behandling av naturligt språk för talöversättning av resesamtal. En integrerad tal- och språkdatabas, Spoken Language DataBase (SLDB) planerades och konstruerades. Basic Travel Expression Corpus (BTEC) planerades och konstruerades för att täcka en mängd olika situationer och uttryck. BTEC och SLDB är utformade för att komplettera varandra. BTEC är en samling japanska meningar och deras översättningar, och SLDB är en samling transkriptioner av tvåspråkiga talade dialoger. BTEC omfattar en mängd olika resedomäner, medan SLDB täcker en begränsad domän, dvs. hotellsituationer. BTEC innehåller ungefär 588k uttryck i talstil, medan SLDB innehåller omkring 16k uttalanden. Maskinstödda dialoger (MAD) utvecklades som en utvecklingskorpus, och både BTEC och SLDB kan användas för att hantera MAD-liknande uppgifter. Fältexperimentdata (FED) utvecklades som utvärderingskortus. Vi genomförde ett experiment, och baserat på analys av vår uppföljning frågeformulär, ungefär hälften av ämnena i * ATR Talad | Författarna använde en översatt version av Basic Traveling Expression Corpus (BTEC) REF. | 982,984 | Multilingual Spoken Language Corpus Development for Communication Research | {'venue': 'IJCLCLP', 'journal': 'IJCLCLP', 'mag_field_of_study': ['Computer Science']} | 9,042 |
Förmågan att skala upp modeller har varit avgörande för att få till stånd ett fördjupat lärande. För ett typiskt nätverk växer nödvändiga beräkningsresurser och träningstid dramatiskt med modellstorlek. Villkorlig beräkning är ett lovande sätt att öka antalet parametrar med en relativt liten ökning av resurserna. Vi föreslår en träningsalgoritm som flexibelt väljer neurala moduler baserade på de data som ska behandlas. Både nedbrytningen och modulerna är inlärda end-to-end. I motsats till befintliga metoder, utbildning inte förlitar sig på legalisering för att genomdriva mångfald i modulanvändning. Vi tillämpar modulära nätverk både för bildigenkänning och språkmodellering, där vi uppnår överlägsen prestanda jämfört med flera baslinjer. Introspektion avslöjar att moduler specialiserar sig på tolkningsbara sammanhang. | REF föreslår en EM-stil algoritm för att lära sig svart-box moduler och deras layout för bildigenkänning och språkmodellering uppgifter. | 53,293,038 | Modular Networks: Learning to Decompose Neural Computation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,043 |
Abstract-Möjligheterna för sensor nätverksenheter ökar i snabb takt. Det är därför inte opraktiskt att anta att framtida avkänningsoperationer kommer att innebära realtidstrafik (inelastisk) såsom ljud- och videoövervakning, som har strikta bandbreddsbegränsningar. Detta innebär i sin tur att framtida sensornätverk måste tillgodose en blandning av elastisk (utan krav på bandbreddsbegränsningar) och oelastisk trafik. Dagens toppmoderna hastighetsstyrningsprotokoll för trådlösa sensornätverk är dock utformade med fokus på elastisk trafik. I detta arbete, genom att anpassa en nyligen utvecklad teori om nyttoproportionerlig hastighet kontroll för trådbundna nätverk till en trådlös inställning, och kombinera den med en stokastisk optimering ram som resulterar i en elegant kö backpressure-baserad algoritm, har vi utformat den första någonsin hastighet kontroll protokoll som effektivt kan hantera en blandning av elastisk och inelastisk trafik i ett trådlöst sensornätverk. Vi implementerar detta nya protokoll i en verklig sensor nätverk stack, TinyOS-2.x kommunikations stack för IEEE 802.15.4 radio och utvärdera den verkliga prestanda av detta protokoll genom omfattande experiment på 20 och 40-node undernätverk av USC:s 94-node Tutornet trådlösa sensor nätverk testbädd. | I REF utformar författarna det köbaserade kurskontrollprotokollet för att hantera den oelastiska trafiken i trådlösa sensornätverk. | 1,961,949 | Handling inelastic traffic in wireless sensor networks | {'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']} | 9,044 |
Vi presenterar BAYESUM (för "bayesian summering"), en modell för meningsextraktion i frågefokuserad summering. BAYESUM utnyttjar det vanliga fallet där flera dokument är relevanta för en enda fråga. Med hjälp av dessa dokument som förstärkning för frågetermer, BAYESUM påverkas inte av bristen på information i korta frågor. Vi visar att ungefärlig slutsats i BAYESUM är möjlig på stora datamängder och resulterar i ett toppmodernt summeringssystem. Dessutom visar vi hur BAYESUM kan förstås som en motiverad frågeexpansionsteknik i språkmodellering för IR-ramverk. | REF presenterar BAYESUM ("Bayesian summering"), en modell för utdrag av meningar för frågefokuserad summering. | 6,241,932 | Bayesian Query-Focused Summarization | {'venue': 'International Conference On Computational Linguistics And Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,045 |
Vi presenterar en konceptuellt enkel, flexibel och allmän ram för få shot-inlärning, där en klassificerare måste lära sig att känna igen nya klasser som ges bara några få exempel från varje. Vår metod, som kallas Relation Network (RN), är tränad från början till slut. Under meta-learning lär den sig att lära sig ett långt avståndsmått för att jämföra ett litet antal bilder inom avsnitt, som var och en är utformad för att simulera den få-shot-inställningen. En gång tränad, en RN kan klassificera bilder av nya klasser genom att beräkna relation poäng mellan frågebilder och några exempel på varje ny klass utan att ytterligare uppdatera nätverket. Förutom att ge bättre resultat på få shot-inlärning är vårt ramverk enkelt att utöka till noll shot-inlärning. Omfattande experiment på fem riktmärken visar att vårt enkla tillvägagångssätt ger en enhetlig och effektiv strategi för båda dessa två uppgifter. | RelationNet REF syftar till att lära sig en djup sträcka metrisk för att jämföra ett litet antal bilder. | 4,412,459 | Learning to Compare: Relation Network for Few-Shot Learning | {'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 9,046 |
Abstract-Spectral band val är ett grundläggande problem i hyperspektral databehandling. I detta brev föreslås en ny metod för urval av band baserad på ömsesidig information (MI). MI mäter det statistiska beroendet mellan två slumpvariabler och kan därför användas för att utvärdera den relativa nyttan av varje band för klassificering. En ny strategi beskrivs för att uppskatta felfunktionsindikatorn med hjälp av en förkunskaper om scenen, minska beroendet av en referenskarta "grundsanning", genom att behålla band med höga tillhörande MI värden (med förbehåll för de så kallade "kompletterande" villkoren). Simuleringar av klassificeringsprestanda för 16 klasser av vegetation från datauppsättningen AVIRS 92AV3C visar metodens effektivitet, vilket överträffar en MI-baserad metod med hjälp av den tillhörande referenskartan, en entropibaserad metod och en korrelationsbaserad metod. Den är också konkurrenskraftig med den brantaste stigningsalgoritmen till mycket lägre beräkningskostnad. | Till exempel, den ömsesidiga information (MI)-baserade REF-metoden beräknar MI mellan observerade spektra och referensspektralbiblioteket, väljer sedan banden med den relativt högre MI. | 14,627,423 | Band Selection for Hyperspectral Image Classification Using Mutual Information | {'venue': 'IEEE Geoscience and Remote Sensing Letters', 'journal': 'IEEE Geoscience and Remote Sensing Letters', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,048 |
Dual-pivot snabbsort avser varianter av klassisk snabbsort där i partitionering steg två pivot används för att dela in i tre segment. Detta kan göras på olika sätt, vilket ger upphov till olika algoritmer. Nyligen fick en dual-pivot algoritm på grund av Yaroslavskiy mycket uppmärksamhet, eftersom den ersatte den välkonstruerade snabbväxande algoritmen i Oracles Java 7 runtime bibliotek. Nebel och Wild (ESA 2012) analyserade denna algoritm och visade att den i genomsnitt använder 1,9n ln n + O(n) jämförelser för att sortera en inmatning av storlek n, slå standard snabbsort, som använder 2n ln n + O(n) jämförelser. Vi introducerar en modell som fångar alla dual-pivot algoritmer, ger en enhetlig analys, och identifiera nya dual-pivot algoritmer som minimerar det genomsnittliga antalet nyckeljämförelser bland alla möjliga algoritmer upp till en linjär term. Detta minimum är 1,8 n ln n + O(n). För det fall att pivoterna väljs från ett litet prov, inkluderar vi en jämförelse av dual-pivot snabbsort och klassisk snabbsort. Speciellt visar vi att dual-pivot snabbsort drar nytta av en skev val av pivoter. Vi utvärderar våra algoritmer experimentellt och jämför dem med Yaroslavskiys algoritm och den nyligen beskrivna 3-pivot-quicksort-algoritmen Kushagra et al. Europaparlamentets och rådets förordning (EU, Euratom) nr 966/2012 av den 25 oktober 2012 om finansiella regler för unionens allmänna budget och om upphävande av rådets förordning (EG, Euratom) nr 1605/2002 (EUT L 298, 26.10.2012, s. 1). | Dessutom föreslog REF en 2-pivot algoritm som gör 2n ln n + O(n) jämförelser och 0,6n ln n + O(n) swappar i genomsnitt ingen förbättring jämfört med klassisk snabbsort i båda kostnadsåtgärder-, men beter sig mycket bra i praktiken. | 16,963,667 | Optimal Partitioning for Dual-Pivot Quicksort | {'venue': 'TALG', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 9,049 |
I detta dokument studerar vi när och hur B Byzantine avtal protokoll kan han använda i allmänna databashanteringssystem. Vi presenterar en översikt över den misslyckade modell som används för Bysantinska överenskommelsen, och över själva protokollet. Vi presenterar sedan korrekthetskriterier för databasbehandling i denna felmiljö och diskuterar strategier för att tillfredsställa dem. Genom att göra detta presenterar vi nya felmodeller för input/output noder och studerar sätt att distribuera indatatransaktioner till bearbetning noder under dessa modeller. Slutligen undersöker vi tillämpningen av Bysantinska avtalsprotokoll i den mer vanliga felmiljön där processorer antas stanna efter ett fel. | Garcia-Molina m.fl. REF har tillämpat Bysantine-avtalet på distribuerade databassystem, särskilt för att distribuera transaktioner till bearbetningsnoder. | 1,568,386 | Applications of Byzantine agreement in database systems | {'venue': 'TODS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,050 |
Vi inför en metod för att generera vektoriska representationer av visuella klassificeringsuppgifter som kan användas för att resonera om arten av dessa uppgifter och deras relationer. Med tanke på en datauppsättning med mark-truth-etiketter och en förlustfunktion bearbetar vi bilder genom ett "sondnätverk" och beräknar en inbäddning baserad på uppskattningar av Fisher-informationsmatrisen i samband med sondnätverksparametrarna. Detta ger en fast-dimensionell inbäddning av uppgiften som är oberoende av detaljer såsom antalet klasser och kräver ingen förståelse för klassetiketten semantik. Vi visar att detta inbäddning kan förutsäga uppgift likheter som matchar vår intuition om semantiska och taxonomiska relationer mellan olika visuella uppgifter. Vi visar det praktiska värdet av detta ramverk för meta-task att välja en förtränad funktionsextraktor för en ny uppgift. Vi presenterar en enkel meta-lärande ram för att lära sig ett mått på inbäddningar som är kapabel att förutsäga vilka funktionsextraktorer kommer att utföra väl vilken uppgift utan att faktiskt finjustera modellen. Välja en funktionsextraktor med uppgift inbäddning ger prestanda nära den bästa tillgängliga funktionsextraktor, med betydligt mindre beräkningsansträngning än uttömmande utbildning och utvärdering av alla tillgängliga modeller. | Mer nyligen har Fisher Information också tillämpats på uppgifter som metainlärning REF. | 60,440,365 | Task2Vec: Task Embedding for Meta-Learning | {'venue': '2019 IEEE/CVF International Conference on Computer Vision (ICCV)', 'journal': '2019 IEEE/CVF International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 9,051 |
Ansiktsneuromuskulära dysfunktion påverkar kraftigt adaptivt och uttrycksfullt beteende och emotionell hälsa. Lämplig behandling underlättas av kvantitativ och effektiv bedömning av ansiktsförsämring. Vi validerade en nyutvecklad metod för att kvantifiera ansiktsrörelse, automatiserad ansiktsanalys (AFA), genom att jämföra den med en etablerad manuell märkningsmetod, Maximal Static Response Assay (MSRA). I AFA, rörelse av ansiktsfunktioner spåras automatiskt av datorseende utan behov av placering av fysiska markörer eller begränsningar av stel huvudrörelse. Nio patienter (sju kvinnor och två män) med en medelålder på 39,3 år och olika ansiktsnervsjukdomar (fem med Bells pares, tre med trauma, och en med tumörresektion) deltog. Patienterna videofilmades när de utförde frivilliga ansiktsaktiviteter (brow-höjning, ögonslutning och leende). För jämförelse med MSRA placerades fysiska markörer på ansiktsmarkeringar. Bildsekvenser digitaliserades till 640 på 480 på 24-bitars pixelmatriser på 30 bilder per sekund (1 pixel på 0,3 mm). Enligt definition för MSRA, koordinaterna för mitten av varje markör registrerades manuellt i de inledande och slutliga digitaliserade ramar, som motsvarar vila och maximal respons. För AFA spårades dessa punkter automatiskt i bildsekvensen. Pearson korrelationskoefficienter användes för att utvärdera överensstämmelsen mellan manuella (MSRA) och automatiserade (AFA) spårningsmetoder, och parade t tester användes för att bedöma den genomsnittliga skillnaden mellan metoder för funktionsspårning. Feature åtgärder var mycket konsekventa mellan olika metoder, Pearson r 0.96 eller högre, p med 0,001 för var och en av åtgärdsuppgifterna. De genomsnittliga skillnaderna mellan metoderna var små; det genomsnittliga felet mellan metoderna var jämförbart med felet inom den manuella metoden (mindre än 1 pixel). AFA visade en stark samtidig giltighet med MSRA för pixelvis förskjutning. Spårningen var helt automatiserad och gav rörelsevektorer, vilket kan vara användbart för att styra kirurgiska och rehabiliterande metoder för att återställa ansiktsfunktionen hos patienter med ansiktsneuromuskulära sjukdomar. (Plast. - Reconstr. - Vad är det? - Reconstr. Kirurg. 107: 1124, 2001 Ansiktsneuromuskulär dysfunktion påverkar kraftigt adaptivt och uttrycksfullt beteende och emotionellt välbefinnande. Patienten med ansiktsneuromuskulära störningar har ofta svårt att utföra grundläggande dagliga funktioner som att äta, dricka och svälja och förmedla sina känslor och avsikter till andra personer. Risken för måttlig till allvarlig depression och ångest ökar hos denna person. | En metod för att kvantifiera ansiktsrörelser föreslogs av REF. | 7,825,370 | Automated Tracking of Facial Features in Patients with Facial Neuromuscular Dysfunction | {'venue': 'Plastic and reconstructive surgery', 'journal': 'Plastic and reconstructive surgery', 'mag_field_of_study': ['Medicine']} | 9,052 |
Abstract-This paper föreslår LBA, en livstid balanserad dataaggregation system för asynkrona och duty cykel sensor nätverk enligt ett applikationsspecifikt krav på end-to-end data leverans fördröjning bunden. I motsats till befintliga aggregeringssystem som fokuserar på att minska energiförbrukningen och förlänga den operativa livslängden för varje enskild nod, har LBA ett unikt designmål för att balansera nodallivslängden och därmed förlänga nätverkets livslängd mer effektivt. För att uppnå detta mål på ett distribuerat sätt, justerar LBA adaptivt aggregering innehavstiden mellan angränsande noder för att balansera deras nodal livstid; som sådan balansering sker i alla stadsdelar, noder i hela nätverket kan gradvis justera sin nodal livstid mot den globalt balanserade status. Experimentella studier på en testbädd för sensornätverk visar att LBA kan uppnå designmålet, ge längre nätverkslivslängd än andra icke-adaptiva och nodala system för aggregering av data under hela livstiden, och närma sig den teoretiska överbundna prestandan, särskilt när noderna har mycket olika nodallivslängd. | Dessutom föreslogs ett livscykelbalanserat system för dataaggregation för DC WSN i REF. | 3,100,298 | LBA: Lifetime balanced data aggregation in low duty cycle sensor networks | {'venue': '2012 Proceedings IEEE INFOCOM', 'journal': '2012 Proceedings IEEE INFOCOM', 'mag_field_of_study': ['Computer Science']} | 9,053 |
Abstract ProbLog är en nyligen införd probabilistisk förlängning av Prolog (De Raedt, et al. vid arbetet vid den 20:e internationella gemensamma konferensen om artificiell intelligens, s. [2468][2469][2470][2471][2472][2473] 2007). Ett ProbLog-program definierar en distribution över logiska program genom att för varje klausul ange sannolikheten för att det tillhör ett slumpmässigt provprogram, och dessa sannolikheter är ömsesidigt oberoende. Semantiken av ProbLog definieras sedan av framgångsannolikheten för en fråga i ett slumpmässigt provprogram. Detta papper introducerar teorin komprimering uppgift för ProbLog, som består av att välja den delmängd av klausuler i ett givet ProbLog program som maximerar sannolikheten w.r.t. en uppsättning positiva och negativa exempel. Experiment i samband med upptäckt av länkar i verkliga biologiska nätverk visar den praktiska tillämpligheten av tillvägagångssättet. | De Raedt m.fl. ge en annan lösning i inställningen av teorikompression för ProbLog, en probabilistisk Prolog REF. | 7,184,789 | Compressing probabilistic Prolog programs | {'venue': 'Machine Learning', 'journal': 'Machine Learning', 'mag_field_of_study': ['Computer Science']} | 9,054 |
Denna uppsats presenterar en Word Sense Disambiguation metod baserad på idén om semantisk densitet mellan ord. Disambitionen görs inom ramen för WordNet. Internet används som rå korpora för att tillhandahålla statistisk information för ordföreningar. Ett mått introduceras och används för att mäta den semantiska densiteten och för att rangordna alla möjliga kombinationer av sinnena med två ord. Denna metod ger en precision på 58% för att ange den korrekta betydelsen för båda orden samtidigt. Precisionen ökar när vi överväger fler val: 70% för topp två rankad och 73% för topp tre rankad. Word Sense Disambiguation (WSD) är ett öppet problem i Natural Language Processing. Lösningen påverkar andra uppgifter som diskursen, referensresolutionen, samstämmigheten, slutsatsen och andra. WSD-metoder kan i stort delas in i tre typer: 1. WSD som utnyttjar informationen från maskinläsbara ordböcker (Cowie et a1.1992), (Miller et a1.1994), (Agirre och Rigau, 1995), (Li et a1.1995), (McRoy, 1992), 2. WSD som använder information som samlats in från utbildning på en corpus som redan har semantiskt deambiguerats (övervakade utbildningsmetoder) (Gale, Church et al., 1992), (Ng och Lee, 1996}; 3. WSD som använder information som samlats in från rå corpora (oövervakade utbildningsmetoder) (Yarowsky 1995) (Resnik 1997). Det finns också hybridmetoder som kombinerar flera kunskapskällor såsom lexikoninformation, heuristik, samlokalisering m.fl. (McRoy, 1992) (Bruce och Wiebe, 1994) (Ng och Lee, 1996) (Rigau, Asterias m.fl., 1997). Statistiska metoder ger hög noggrannhet resultat för ett litet antal förvalda ord. Bristen på allmänt tillgängliga semantiskt märkta corpora utesluter nästan övervakade inlärningsmetoder. Å andra sidan har disambitionen med oövervakade metoder den nackdelen att sinnena inte är väl definierade. Så vitt vi vet disambigerar ingen av de statistiska metoderna adjektiv eller adverber hittills. En metod för WSD är att bestämma det begreppsmässiga avståndet mellan ord, det vill säga att mäta den semantiska närheten av orden inom ett semantiskt nätverk. I huvudsak. Det är längden på den kortaste vägen som förbinder begreppen (Rada et a1.1989), (Rigau. Asterias m.fl., 1997). Genom att mäta det begreppsmässiga avståndet mellan ord, är det möjligt att bestämma sannolikheten för ord sense associationer. Till exempel försöker den metod som föreslås i (Li et a1.1995) bestämma den möjliga betydelsen av ett substantiv som förknippas med ett verb med hjälp av WordNet och en stor text. Baserat på andra förekomster av verbet eller semantiskt relaterade verb i texten bestäms det möjliga objektet genom att mäta den semantiska likheten mellan substantivobjekten. Metoder som inte behöver stora corpora är vanligtvis uteslutande baserade på MRD. Ett förslag i denna mening har lagts fram i (Agirre och Rigau, 1995): de mäter den begreppsmässiga densiteten mellan substantiv, med hjälp av WordNet, men den metod som föreslås i deras papper kan inte användas för att mäta ett begreppsmässigt avstånd mellan ett verb och ett substantiv, eftersom det inte finns några direkta kopplingar i MRD mellan substantiv och verbhierarkier. En WordNet-baserad metod för att mäta den semantiska likheten mellan substantiv föreslogs också i (Richardson et ai., 1994). Deras metod består av att använda hierarkiska begrepp grafer konstruerade från WordNet datafiler, och en semantisk likhet formel. Ändå ger metoden inte ett samband mellan olika del-av-tal ord. Vårt tillvägagångssätt Det tillvägagångssätt som beskrivs i detta dokument bygger på idén om semantisk densitet. Detta kan mätas med antalet vanliga ord som ligger inom ett semantiskt avstånd av två eller flera ord. Ju närmare det semantiska förhållandet mellan två ord, desto högre är den semantiska densiteten mellan dem. Hur det definieras här. Den semantiska densiteten fungerar bra när det gäller enhetlig MRD. I verkligheten finns det luckor i kunskapsrepresentationerna och den semantiska densiteten kan endast ge en uppskattning av den faktiska semantiska relationen mellan ord. Vi introducerar den semantiska densiteten eftersom det är I I I I I I I I I I I I I I I I I I I I relativt lätt att mäta den på en MRD som WordNet. Detta görs genom att räkna antalet begrepp två ord har gemensamt. Ett mått introduceras i denna bemärkelse som när det tillämpas på alla möjliga kombinationer av sinnena av två eller flera ord som det rankar dem. En annan idé med denna tidning är att använda Internet som en rå korpora. Således har vi två informationskällor: (1) Internet för insamling av statistik och (2) WordNet för mätning av semantisk densitet. Som kommer att visas nedan, en rankning av ord sinnen härrör från var och en av dessa två källor. Frågan nu är hur man ska kombinera dessa två rankningar för att ge en övergripande rankning. En möjlighet är att använda dem parallellt och den andra är att använda dem serievis. Vi har försökt både och det seriella tillvägagångssättet gav bättre resultat. Således, för ett verb - substantiv par, WSD metoden består av två Algoritmer, den första ranka substantiv sinnen, av vilka vi behåller endast de bästa två sinnen; och en andra Algoritm tar den produktion som produceras av den första Algoritmen och rankar par av verb - substantiv sinnen. Utökningar av denna metod till andra par än verb - noun diskuteras, och större fönster med mer än två ord beaktas. En viktig aspekt av WSD-metoden som presenteras här är att vi ger en racking av möjliga associationer mellan ord i stället för ett binärt ja/nej beslut för varje möjlig sense kombination. Detta möjliggör en kontrollerbar precision som andra moduler kan kunna skilja senare den korrekta känsla association från en sådan liten pool. WordNet är en fin korn MRD och detta gör det svårare att hitta rätt mening kombination eftersom det finns många att välja mellan och många är semantiskt nära. För tillämpningar som maskinöversättning, finkornig disambiguation fungerar bra men för information extrahering och vissa andra applikationer är detta en overkill, och vissa sinnen kan klumpas ihop. En enkel mening eller fråga kan vanligtvis kortfattat beskrivas med en handling och ett objekt; till exempel huvudidén från meningen Han måste undersöka alla rapporter kan beskrivas av handlingen-objekt paret undersöka-rapport. Även frasen kan" vara tvetydig genom att ha ett dåligt sammanhang, fortfarande resultaten av en sökning eller gränssnitt baserat på en sådan mening kan förbättras om de möjliga sambanden mellan sinnena i verbet och substantivet bestäms. I WordNet (Miller 1990) ger glansen i ett verb synset ett substantiv-kontext för det verbet, d.v.s. eventuella substantiv som förekommer i samband med det särskilda verbet. Glansen används här på samma sätt som en corpus används. För att förbättra precisionen i att bestämma den begreppsmässiga densiteten mellan ett verb och ett substantiv, bör substantivets sinnen rangordnas, till exempel för att med en rimlig noggrannhet indikera de första möjliga sinnen som det kan ha. Det tillvägagångssätt som vi har övervägt för denna uppgift är användningen av oövervakade statistiska metoder på stora texter. Ju större samling texter, desto större är sannolikheten att ge en korrekt rankning av sinnen. Som det största antalet elektroniskt lagrade texter - och därmed gynna en automatisk bearbetning - finns på webben, tänkte vi använda Internet som en källa till korpora för att rangordna sinnena i orden. Detta första steg i vår metod tar hänsyn till verb-noun par V -N, och det skapar par där verbet förblir konstant, dvs.. V, och substantivet ersätts av orden i dess likhetslistor. Med WordNet skapas en likhetslista för varje substantiv. och det innehåller: orden från substantivet synset och orden från substantiv hypernym synset. De par som kan bildas är:. Sök igenom [nternet och ranka sinnen. En sökning som utförs på Internet för var och en av dessa grupper kommer att indikera en ranking över de möjliga sinnena av substantivet N. I våra experiment använde vi (AhaVista) eftersom det är en av de mest kraftfulla sökmotorer för närvarande tillgängliga. där asterisken (*) används som ett jokertecken som anger att vi vill hitta alla ord som innehåller en matchning för det angivna mönstret av bokstäver. Med hjälp av en av dessa frågor, kan vi få antalet träffar för varje känsla i av substantivet och detta ger en rankning av m sinnen av substantivet som de relaterar till verbet V. Vi testade denna metod för 80 verb-nomen par extraherade från SemCor 1.5 av Brown corpus, i Använda frågeformulär (a) som en ingång till sökmotorn, fick vi en noggrannhet på 83% i att ge en rankning över substantiv sinnen, såsom den betydelse som anges i SemCor var en av de första två sinnen i denna klassificering. [n Tabell 1, Vi presenterar ett urval av de resultat vi fick. Kolumnen Resultat i denna tabell presenterar rankningen över substantiv sinnena: a I i denna kolumn innebär att den betydelse som anges i SemCor också anges av vår metod: 2 innebär att den betydelse som anges i SemCor var i topp två av den betydelse rankning som tillhandahålls av vår metod; på liknande sätt, 3 eller 4 indikerar att betydelsen av substantivet, som anges i :~emCor, var i de tre, respektive fyra, av 1; hans mening rankning. Vi u., även frågeformuläret (b), men de resultat vi fick har visat sig vara liknande; med hjälp av operatören NEAR, ett större antal träffar rapporteras, men känslan ranking förblir densamma. Det är i:aterresting att observera att även vi skapar frågor som börjar med ett verb-noun par, det är ITh~: verb-noun par har extraherats från filen br-aO:. inte garanterad att sökningen på webben kommer att identifiera endast ord kopplade till en sådan lexikal relation. Vi baserade vår idé på det faktum att: (1) substantivet direkt efter ett verb är högst sannolikt att vara ett objekt för verbet (som i uttrycket "Verb* Noun*") och (2) för vår metod, vi är faktiskt intresserade av att bestämma möjliga sinnen av ett verb och ett substantiv som kan dela ett gemensamt sammanhang. 2. Utgångspunkten är följande: Med hjälp av den metod som beskrivs i avsnitt 3 rangordnas substantivets sinnen. Endast de två första möjliga sinnen som indikeras av detta steg kommer att övervägas. 3. Vad är det som händer? För varje möjligt par Vi --n) beräknas den begreppsmässiga densiteten enligt följande: a) extrahera alla glanser från underhierarkin inklusive vi (den metod som används för att bestämma dessa underhierarkier förklaras nedan) b) Bestäm substantiven från dessa glanser. Dessa utgör verbets substantivkontext. Alla dessa substantiv lagras tillsammans med nivån på det tillhörande verbet inom underhierarkin av vi. För att bestämma de underhierarkier som ska användas för vl och nj använde vi statistik från SemCor, en sense taggad version av Brown corpus (Francis och Kucera, 1967) (Miller, Leacock et al., 1993), som innehåller 250.000 ord. Varje ord (nom, verb, adjektiv, adverb) visas i en synset inom en hierarki. Topparna på dessa hierarkier definierar ordets klass. Känslan i SemCor för ett ord W anges av klass C av ordet W, och betydelsen av ordet inom klass C. Till exempel, SemCor posten: Tabell 2, klass av substantivet indikerar med en sannolikhet av 85% en korrekt känsla 1 inom den klassen. Således, för denna algoritm, anser vi för ett substantiv hierarkin inklusive substantivet (om klassen av substantivet ni är C', då metoden betraktar alla substantiv från klass C). Detta fungerar inte för verben, eftersom sannolikheten för att indikera en korrekt känsla att känna klassen är mycket mindre (endast 60%). Av denna anledning, och baserat på de experiment vi beräknade, underhierarkin 19 inklusive ett verb vi bestäms enligt följande: (i) överväga hypernym hi av verbet oi och (ii) anser hierarkin ha hi som topp. Det är nödvändigt att överväga en större hierarki då bara en som tillhandahålls av synonymer och direkta hyponymer, eftersom ge noggrannhet i en metrisk beräkning behöver stora korpora. Som vi ersatt corpora med glans, bättre resultat uppnås om mer glans övervägs. Men vi behöver inte utvidga sammanhanget alltför mycket för att inte missa de rätta svaren. För att bestämma den begreppsmässiga densiteten mellan ett substantiv ni och ett verb vj, tar algoritmen hänsyn till: • listan över substantiv sv~ som förknippas med verbens glans inom hierarkin som bestäms av hi: (svk, w~), där: -hj är hypernym av vj -w~ är nivån i denna hierarki • listan över substantiv snt inom klassen ni : De vanliga orden mellan dessa två listor (svk, wk) och (snt) kommer att producera en lista över gemensamma begrepp med tillhörande vikter cdij < w~ >. Den begreppsmässiga densiteten mellan rli och vj ges av formeln: där: • Icdijl är antalet gemensamma begrepp mellan nis och ujs hierarkier • w~ är de vikter som hör ihop med substantiven från verbets substantiv-context vj • desci är det totala antalet ord inom subnomens hierarki Eftersom substantiven med en stor hierarki tenderar att indikera ett stort värde för Icdijl, måste den viktade summan av gemensamma begrepp normaliseras i förhållande till subnomhierarkins dimension. Detta beräknas som logaritmen för det totala antalet ättlingar i hierarkin (dvs. Io9(desci) )............................................................................................................. Vi tog också hänsyn till andra mått, som: (2) Antalet vanliga begrepp mellan substantiv och verbhierarkier, utan att beakta vikterna. En möjlig förbättring av metriska (1) är att beakta vikterna för nivåerna i substantivhierarkin, förutom nivåerna i verbhierarkin. Ett exempel Betrakta som exempel på ett verb-nomen parar frasen revidera lau¢. Den verb revideras har två möjliga sinnen i WordNet 1.5: Sense 1 revidera, göra ändringar i glans: (revidera en avhandling, till exempel) =~ skriva om, skriva annorlunda, ändra genom att skriva glans: ("Studenten skriva om sin avhandling") Sense 2 re verktyg, revidera =~ omorganisation, skaka upp, organisera ett substantiv lag har 7 möjliga sinnen Sense 1 lag, rättspraxis glans: (samling av regler på grund av myndighet; ~ civilisation förutsätter respekt för lagen") insamling, ansamling, ansamling, assemblage glans: (flera saker grupperade tillsammans) Sense 2 lagglans: (en av en uppsättning regler som styr en viss verksamhet eller ett rättsligt dokument som sätter fram en sådan regel; "det finns en lag mot kidnappning" ~, regel, preskriptionsglans: (preskrid guide för uppförande eller handling) =~ rättsligt instrument, ofl~icial dokument, instrument glans: (ett organ av regler för att agera som är inneboende i människans natur och väsentliga för eller bindande för det mänskliga samhället) ~, regel, preskription, preskription: (en guide guide guide guide för beteende eller förutsägning) rättsskipning: Iden lärda yrket som behärskas av forskarstudier i en juridikskola och som är ansvarig för rättssystemet; "han studerade juridik på Yale") :*. Inlärd yrkesglans: (ett av de tre yrken som traditionellt ansetts kräva avancerade [tjänande och höga principer) Vi sökte på lnternet, med AltaVista, för alla möjliga par V-N som kan skapas med hjälp av översyn och orden från likhetslistorna över lag. Över sju möjliga sinnen för detta substantiv, det första steget i vår metod indikerade följande ranking (vi anger antalet träffar mellan parenteser):law#e(2829),!aw#3(648), lag#4(640), lag#6(397), 1aw#1(224), 1aw#5(37), taw#7(0). Således är endast känslan #• och #3 i substantivlagen berättigade att användas för nästa algoritm. För var och en av de två sinnena i verbet bestämde vi subkontext, inklusive substantiven från glansen i verbets underhierarki, och tillhörande vikter. För var och en av substantivets två möjliga sinnen bestämde vi substantiven från varje sinnesklass. I tabell 3 presenterar vi: (1) Tester mot SemCor Vi testade denna metod genom att använda verb-noun par från SemCor. Ett slumpmässigt utvalt prov från hela tabellen med 80 par visas i tabell 4. För varje par verb-nomen anger vi verbets betydelse (kolumn B). Känslan av substantivet (kolumn C), som de är resultatet av SemCor; det totala antalet möjliga sinnen för båda verbet (kolumn D) 2Notationen #iln betyder sense i out of n possible. I I I I I I I I I I I I I I I I I I I I I I I I I I I I I dessa fall, bör NEAR operatören användas för det första steget i denna algoritm). 2. Utgångspunkten är följande: Antalet ord som beaktas vid en tidpunkt kan ökas, från två till tre, fyra eller ännu fler ord. I denna uppsats har vi presenterat en metod för WSD som bygger på att mäta den begreppsmässiga densiteten mellan ord med WordNet. Den föreslagna metrisken kan förbättras ytterligare genom att hänsyn tas till vikterna för verb och substantiv. Känslorna av orden rankas, och en användare kan välja det första valet eller de första få valen, beroende på ansökan. Vi har också föreslagit att använda Internet som en källa till statistik om en rå korpora. Metoden sträcker sig väl till att överväga mer än två ord i taget, och även för alla delar av talet som omfattas av WordNet. Det är svårt att jämföra den precision som erhålls genom denna metod med andra metoder, eftersom vi här betraktar den kollektiva betydelsen av två eller flera ord, medan de flesta andra metoder betraktar ett ord i taget. Men, en uppskattning kan göras genom att extrahera kvadratroten av noggrannheten för ett par verb-nomen ord; och det är 76,15% för det första valet, 83,66% för de första två valen och 85,44% för de första tre valen. Eftersom deambiguationsprecisionen för substantiv vanligtvis är högre än för verb, ger dessa tal bara ett genomsnitt. Sammanfattning Detta dokument beskriver en probabilistisk modell som bildas genom integration av en analytisk och empirisk komponent. Den analytiska komponenten är ett Bayesianskt nätverk från WordNet, och den empiriska komponenten består av kompatibla probabilistiska modeller formulerade från taggade träningsdata. Komponenterna är integrerade i en forreal, enhetlig ram baserad på semantik av orsakssamband. I dokumentet undersöks olika representationsfrågor som måste tas upp när man formulerar en Bayesian nätverk representation av lexical iaformation som den som uttrycks i WordNet. Dessa frågor är väsentliga för utformningen av ett sådant nätverk och de har inte tidigare undersökts. Vi beskriver två val för representation av lexiska objekt och två val för representation lexiska relationer. Effekten av varje kombination av val på bevisspridningen i nätverket diskuteras. Hänvisningar | Förkunskaper om sannolikheten för olika sinnen eller semantiska klasser härleds heuritiskt genom att skicka frågor (t.ex. stor orkan) till AltaVista sökmotor och extrapolera från antalet returnerade dokument frekvensen av adjektiv-noun par (se REF för detaljer om denna teknik). | 8,804,548 | Word Sense Disambiguation Based On Semantic Density | {'venue': 'Workshop On Usage Of WordNet In Natural Language Processing Systems', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,055 |
Abstract-En metod för förlustfri data gömmer i bilder med heltal wavelet transform och histogram flytta för grå skala bilder föreslås. Metoden skiftar en del av histogrammet, för att skapa utrymme för inbäddning av vattenstämpel informationsbitar. Metoden bäddar in vattenstämpeln samtidigt som den visuella kvaliteten bibehålls väl. Metoden är helt reversibel. Den ursprungliga bilden och vattenstämpel data kan återvinnas utan förlust. | Jinna och Ganesan REF föreslog en metod för förlustfri data gömmer i bilder med hjälp av heltal wavelet transform IWT och histogram flytta Metoden skiftar en del av histogrammet för att skapa utrymme för att inbädda den hemliga information bitar. | 13,442,273 | Reversible Image data Hiding using Lifting wavelet Transform and Histogram Shifting | {'venue': 'IJCSIS, Vol. 7 No. 3, March 2010, 283-289', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 9,056 |
Målet med cybersäkerhetsvisualisering är att hjälpa analytiker att öka säkerheten och sundheten i våra digitala infrastrukturer genom att tillhandahålla effektiva verktyg och arbetsutrymmen. Visualisering forskare måste göra visuella verktyg mer användbara och övertygande än de textbaserade verktyg som för närvarande dominerar cyberanalytiker verktyg kistor. En arbetsmiljö för cyberanalys bör möjliggöra flera, samtidiga undersökningar och informationssökning, samt ge en lösning utrymme för att organisera data. Vi beskriver vår studie av cybersäkerhetsproffs och visualiseringar i en stor, högupplöst display arbetsmiljö och de analytiska uppgifter denna miljö kan stödja. Vi formulerar en uppsättning designprinciper för användbara cyberanalytiska arbetsytor som våra studier har fört fram i ljuset. Slutligen presenterar vi prototyper som är utformade för att uppfylla våra riktlinjer och en användbarhetsbedömning av miljön. Cyberanalys; cybersäkerhet; visualisering; användbarhet; stora, högupplösta displayer; kognitiv uppgiftsanalys. Cyberanalytiker som försvarar våra datorinfrastrukturer använder primitiva, kommandoradsverktyg som är ineffektiva vid den höga volymen och hastigheten av de data de måste bearbeta. De har gjort motstånd med hjälp av visualiseringar, delvis på grund av att ingen visualisering ännu har tillgodosett deras komplexa behov. Vi tror att detta beror på att deras uppgifter, arbetsmiljöer och krav ännu inte har studerats tillräckligt. Vi behöver mer användarcentrerad design i de lösningar vi erbjuder. Stora displayer har varit värdefulla i andra applikationer med massiva data [1], och vi misstänker att de kan vara till hjälp även i denna applikation. Cyberanalys är en ny vetenskap av analys för att förstå beteendet hos datorer och datornätverk från de data de genererar-diskutera historien gömd inuti massiva cyberdata. Många arbetsbeskrivningar inkluderar cyberanalytiska uppgifter, såsom systemadministration, cybersäkerhet, design och underhåll av datorinfrastrukturer. I detta dokument fokuserar vi på cyberanalys för att säkra företag och stora infrastrukturer i relaterade organisationer. Vi fann beteendet hos cyberanalytikerna vi studerade skilde sig från beteendet hos analytiker inom andra områden såsom intelligensanalys. För cybersäkerhetspersonal bör ett användbart arbetsutrymme stödja flera, samtidiga, öppna utredningar. Separata uppgifter som uppstår från distinkta tips-off-punkter kan så småningom ansluta, vilket innebär behovet av en översikt över alla aktiva uppgifter och deras relationer. Analytiker vill hitta kopplingar som pekar på källorna till hot mot det system de försvarar. Med hjälp av analogi av information födosök [2], cyberanalytiker spårar stort spel. Enskilda ledtrådar är bara värdefulla om de stöder andra ledtrådar som pekar på samma grundorsak. För att förvärva flera, kompletterande information poster, cyberanalytiker snabbt växla mellan analytiska undersökningar, multi-tasking och förfina eller bredda frågor som de undersöker potentiella leads. Analytiker behöver verktyg som samverkar. Deras verktyg (och frågor) är mycket specialiserade, och de tillbringar mycket av sin tid att gå data tabeller och översätta information mellan verktyg. Ofta är den historia de söker dold inom komplexa korrelationer som ingen enskild syn på ett adekvat sätt avslöjar. Detta dokument innehåller resultaten av vår studie av cybersäkerhetsanalytiker, våra föreslagna lösningar på utvalda problem och användarnas reaktioner på våra lösningar. Vi identifierar lärdomar och presenterar en uppsättning designprinciper för användbara IT-analysarbetsplatser. Våra mål var att identifiera sensemaking processer i cyberanalytiskt arbete och kritiska användbarhetsfrågor i cyberanalysarbetsplatser, och att få fram cyberanalytikers idéer om hur stora, högupplösta displayer kan hjälpa dem att arbeta mer effektivt. Vi observerade cyberanalytiker med hjälp av stora displayer med ett urval problem. Sedan skapade vi mockups som identifierar effektiv användning av stora displayer i cyberanalys. Vi sökte feedback på våra prototyper från de användare som deltog i vår studie. Många visualiseringar för cybersäkerhetsdata är special-purpose representationer av en viss typ av data. Få verktyg stöder interoperabilitet med andra tillämpningar och verktyg. De flesta verktyg är varken tillräckligt snabba eller tillräckligt flexibla för cyberanalytiker. Det finns visualiseringar [3] [4][5] för paket-huvuden, nätverksflöden, systemloggfiler, IDS-varningar etc. Optimering av ett verktyg för en typ av data separerar verktyget från ramen för en övergripande undersökning. Om inte ett visualiseringsverktyg passar in i det breda sammanhanget av den övergripande undersökningen kommer det att begränsa dess nytta till analytikern. Till exempel, en cyberanalytiker kan hitta några intressanta varningar via en Snort IDS varning visualisering och sedan vill undersöka nätverksflöden, paket, värdlogg poster, programloggar, etc., som är relaterade till dessa varningar. De flesta visualiseringar stöder inte denna typ av snabb, öppen födoaktivitet. Snap-tillsammans visualisering [6] ger ett flexibelt visualiseringssystem av samordnade vyer som länkar äldre verktyg på databas (relation-query) nivå. Således en användardefinierad serie av visualiseringar kan drivas från direkt interaktion med någon visualisering i serien. Snap skulle ge kraften och flexibiliteten i databas och kommandoradsverktyg, men det har inte tillämpats på cyberanalys. Vi tror att ett samordnat visualiseringssystem som tolkar interaktioner och samordnar vyer i relation till varandra är en viktig byggsten i en användbar cyberanalytisk arbetsyta. Displayer av den storlek vi använde i vår studie är inte i bred användning, så det är inte förvånande att många visualiseringar inte är optimerade för denna miljö. Begränsningar som flikfönster som hjälper till att spara utrymme i små displayer är kontraproduktiva i en stor display. För att kunna använda dessa displayer måste vi utveckla nya fönster- och displayhanteringstekniker. | Inom problemområdet cybersäkerhet utvecklade REF en uppsättning principer för visualiseringsdesign med fokus på högupplösta displayer och presenterade prototyper enligt dessa designprinciper. | 52,270 | Visualizing cyber security: Usable workspaces | {'venue': '2009 6th International Workshop on Visualization for Cyber Security', 'journal': '2009 6th International Workshop on Visualization for Cyber Security', 'mag_field_of_study': ['Computer Science']} | 9,057 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.