src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Abstract-I detta dokument har vi föreslagit ett nytt koncept som kallas Hilch-hiking för att minska energiförbrukningen för hroadcast-tillämpningar för trådlösa nätverk. Hitch-hiking drar nytta av den fysiska lagerdesign som underlättar konihining av partiella signaler för att ohtain den kompletta informatinn. Konceptet att kombinera partiella signaler med ~i m i i n a l ratio combiner [13] har använts för att förbättra kommunikationskanalens reliatilitet men har aldrig utnyttjats för att minska energikonsumptinn. Vi föreslår en centraliserad heuristisk algoritm kallad Wireless Multicast med Hitch-hiking (WMH) för att konstruera ett energieffektivt träd med Hitch-hiking och även presentera en distrihuted version av heuristic. Vi utvärderar också de föreslagna heuristikerna genom simnlation. Simulatinn resultat visar att Hitch-hiking kan minska överföringskostnaden för sändning hy så mycket som 5 0 4. Dessutom prnpnse och utvärdera en protcrol kallas F'SBT som minskar energiförbrukningen av hroadcast hy eliminera redundans i ta emot nperatinn. Slutligen föreslår vi en algoritm som utnyttjar både Hitch-hiking och PSBT för att bevara energi.
I REF utnyttjar den föreslagna Hitch-Hiking-modellen det fysiska skiktet för att kombinera partiella signaler som innehåller samma data för att avkoda ett komplett meddelande.
361,499
Energy efficient broadcast in wireless ad hoc networks with Hitch-hiking
{'venue': 'IEEE INFOCOM 2004', 'journal': 'IEEE INFOCOM 2004', 'mag_field_of_study': ['Computer Science']}
12,018
Abstract-Svåra väderförhållanden såsom regn och snö påverkar negativt den visuella kvaliteten på bilder som fångas under sådana förhållanden vilket gör dem värdelösa för ytterligare användning och delning. Dessutom påverkar sådana degenererade bilder drastiskt synsystemens prestanda. Därför är det viktigt att lösa problemet med av-utbildning/av-snowing. Detta är dock ett svårt problem att lösa på grund av dess inneboende illa placerade natur. Befintliga metoder försöker införa förhandsinformation för att omvandla den till ett välplacerat problem. I detta dokument undersöker vi en ny ståndpunkt när det gäller att ta itu med problemet med att avbilda en enda bild. I stället för att bara fokusera på att bestämma vad som är ett bra tidigare eller ett bra ramverk för att uppnå goda kvantitativa och kvalitativa prestanda, ser vi också till att den avbildade bilden i sig inte försämrar prestandan hos en viss algoritm för datorseende, såsom detektion och klassificering. Med andra ord bör det avstängda resultatet vara oskiljaktigt från dess motsvarande tydliga bild till en given discriminator. Detta kriterium kan direkt införlivas i optimeringsramverket genom att använda de nyligen införda villkorliga generariska kontradiktoriska nätverken (GAN). För att minimera artefakter som introduceras av GANs och säkerställa bättre visuell kvalitet, införs en ny förfinad förlustfunktion. Baserat på detta, föreslår vi en ny enda bild av-utbildning metod som kallas Image Av-utbildning Villkorlig General Adversarial Network (ID-CGAN), som anser kvantitativa, visuella och även diskriminerande prestanda i den objektiva funktionen. Experiment som utvärderats på syntetiska bilder och verkliga bilder visar att den föreslagna metoden överträffar många senaste state-of-the-art single image de-raining metoder i termer av kvantitativ och visuell prestanda.
Zhang m.fl. REF använder det generativa kontrariska nätverket (GAN) för att förhindra degeneration av bakgrundsbilden när den extraheras från regnbild, och utnyttja den perceptuella förlusten för att ytterligare säkerställa bättre visuell kvalitet.
11,922,819
Image De-raining Using a Conditional Generative Adversarial Network
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
12,019
Att säkra medicinska bilder mot avsiktlig eller oavsiktlig modifiering är en allmän fråga inom modern radiologi. Vattenmärkning, med dess datacentriska säkerhet, är mycket praktiskt för detta ändamål. Vi föreslog en ny metod för fullt reversibel vattenmärkning i medicinsk avbildning genom att kombinera fördelarna med tre traditionella metoder-Reversible, Zero och RONI vattenmärkning. Den nya metoden uppnår exceptionellt höga värden av Peak Signal to Buller Ratio och Structural Likhet index. Artikeln utvärderar för- och nackdelar med nuvarande metoder för vattenmärkning i medicinsk avbildning. Att behålla fördelarna och eliminera nackdelarna med metoderna möjliggör ett nytt tillvägagångssätt. Särskilda metoder väljs ut och deras tillämpning beskrivs i praktiken i detalj. Tillämpningen av den föreslagna metoden på en databas med 6000 medicinska bilder från gemensam sjukhusverksamhet ger mycket lovande resultat som diskuteras i slutet av artikeln.
Ett nyare tillvägagångssätt kombinerar funktionerna reversibel, noll och RONI vattenmarkeringsmetoder REF.
38,081,258
A new approach to fully-reversible watermarking in medical imaging with breakthrough visibility parameters
{'venue': 'Biomed. Signal Process. Control.', 'journal': 'Biomed. Signal Process. Control.', 'mag_field_of_study': ['Computer Science']}
12,020
Abstract-Vi introducerar en svagt övervakad strategi för att lära mänskliga handlingar modelleras som interaktioner mellan människor och objekt. Vårt förhållningssätt är mänskligt centrerat: Vi lokaliserar först en människa i bilden och bestämmer sedan det objekt som är relevant för handlingen och dess rumsliga förhållande till människan. Modellen lärs automatiskt från en uppsättning stillbilder som endast kommenteras med åtgärdsetiketten. Vårt tillvägagångssätt bygger på en mänsklig detektor för att initiera modellen lärande. För robusthet till olika siktgrader bygger vi en detektor som lär sig att kombinera en uppsättning befintliga deldetektorer. Med utgångspunkt från människor som upptäcks i en uppsättning bilder som skildrar handlingen bestämmer vårt tillvägagångssätt handlingens objekt och dess rumsliga förhållande till människan. Dess slututgång är en probabilistisk modell av samspelet mellan människan och objektet, d.v.s. den rumsliga relationen mellan människan och objektet. Vi presenterar en omfattande experimentell utvärdering av data om idrottsaktiviteter från [1], PASCAL Action 2010 datauppsättning [2], och en ny människa-objekt interaktion data uppsättning.
Prest m.fl. I REF föreslås en modell som man kan lära sig av en uppsättning bilder som endast kommenteras med åtgärdsetiketten.
1,819,788
Weakly Supervised Learning of Interactions between Humans and Objects
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
12,021
Med hjälp av begränsade tillgångar försöker en interdiktor förstöra delar av ett kapaciterat nätverk genom vilket en motståndare därefter maximerar flödet. Vi formulerar och löser en stokastisk version av interdiktorns problem: Minimera det förväntade maximala flödet genom nätverket när interdiction framgångar är binära slumpvariabler. Extensioner görs för att hantera osäkra båge kapaciteter och andra realistiska variationer. Dessa två-steg stokastiska heltal program har applikationer för att interdiktera olagliga droger och för att minska effektiviteten av en militär styrka rörliga materiel, trupper, information, etc., genom ett nätverk i krigstid. Två likvärdiga modellformuleringar gör att Jensens ojämlikhet kan användas för att beräkna både lägre och övre gränser på målet, och dessa gränser förbättras inom en sekventiell approximationsalgoritm. Framgångsrika beräkningsresultat rapporteras på nätverk med över 100 noder, 80 interdikterbara bågar och 180 totala bågar. T hans papper undersöker stokastiska varianter av ett nätverk interdiction problem där en "interdictor," med hjälp av begränsade tillgångar, "interdicts" (förstörare eller åtminstone stoppa användningen av) delar av ett kapaciated nätverk genom vilket en motståndare senare maximerar flödet. Det deterministiska problemet är att minimera det maximala möjliga flödet genom nätet med förbehåll för begränsningar av interdictionresurser. I de stokastiska varianterna kan interdiction framgångar vara osäkra och / eller båge kapacitet kan vara slumpmässiga variabler. Målet med dessa stokastiska nät interdiction problem är att minimera det förväntade maximala flödet genom nätverket genom att välja den bästa uppsättningen av bågar att interdiktera, eller att försöka interdiktera. Det deterministiska interdictionproblemet har studerats i McMasters och Mustin (1970), Steinrauf (1991), Phillips (1992 ), och Wood (1993, med militära tillämpningar och med tillämpningar till interdiction av olagliga droger och prekursorkemikalier. Spel-teoretiska nätverk interdiction modeller har också studerats (Wollmer 1964, Washburn och Wood 1995), men dessa modeller är betydligt olika: de bestämmer optimala arcinspection strategier för att upptäcka en undvikare som rör sig genom ett nätverk i smyg. Vår analys av stokastiska nätverksinterdiction börjar med detta grundläggande problem: Vi vill interdiktera bågar i ett nätverk för att minimera det förväntade maximala flödet från en källa nod s till en diskbänk nod t. Tillgångar tillgängliga för att utföra dessa interdictions är begränsade. Interdiction framgångar antas vara oberoende binära slumpvariabler sådan att en misslyckad interdiction försök på en båge lämnar bågen med sin nominella kapacitet, och en framgångsrik interdiction lämnar bågen utan kapacitet. Ett stokastiskt problem med maximalt flöde kan inte lösas genom att lösa ett deterministiskt problem med maximalt flöde där slumpmässiga bågkapaciteter ersätts av deras förväntade värden. På samma sätt kan vårt interdiktionsproblem inte lösas via det deterministiska "förväntade värdeproblemet" (Birge 1982) som minimerar det maximala flödet om man antar att ointerdikterade bågar har nominell kapacitet och interdikterade bågar har sin förväntade återstående (efter interdiktion) kapacitet. Betrakta den enkla interdiction problem representerade i figur 1, Där varje båge är märkt med sin nominella kapacitet. Anta att sannolikheten för en framgångsrik interdiktion på någon båge är 0,6, som mest en interdiktion på varje båge kan försöka, och resurser begränsa antalet interdiktioner till två. Det förväntade värdeproblemet väljer båge (s, t) och (s, 2), eller båge (s, t) och (2, t) för interdiktion. Kapaciteten i nätet baserat på förväntad kapacitet efter interdiction är (1 på 0,6)10 på (1 på 0,6)100 på 44. Denna kapacitet skulle vara (1)10 på grund av att bågar (s, 2) och (2, t) interdikterade, eftersom ingenting uppnås i en deterministisk modell genom att interdiktera identiska bågar i serie. De åtgärder som föreskrivs i denna förordning är förenliga med yttrandet från ständiga kommittén för växter, djur, livsmedel och foder.
När det gäller litteraturen i stokastiska nätverk interdiction problem, författare i REF ger en grundlig introduktion till många variationer av stokastiska nätverk interdiction.
14,408,138
Stochastic Network Interdiction
{'venue': 'Oper. Res.', 'journal': 'Oper. Res.', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
12,022
I detta papper introducerar vi användningen av en personlig Gaussian Process modell (pGP) för att förutsäga de viktigaste mätvärdena för Alzheimers sjukdom progression (MMSE, ADAS-Cog13, CDRSB och CS) baserat på varje patients tidigare besök. Vi börjar med att lära oss en population-nivå modell med hjälp av multi-modal data från tidigare sett patienter med bas Gaussian Process (GP) regression. Därefter anpassas denna modell sekventiellt över tiden till en ny patient som använder domänadaptiva GPs för att bilda patientens PGP. Vi visar att detta nya tillvägagångssätt, tillsammans med en auto-regressiv formulering, leder till betydande förbättringar i prognos framtida klinisk status och kognitiva poäng för målpatienter jämfört med modellering av populationen med traditionella GPs.
Peterson m.fl. REF föreslås använda en liknande modell för diagnos av Alzheimers sjukdom, där en populationsnivå GP är anpassad till en ny patient som använder domän GPs individuellt.
3,756,290
Personalized Gaussian Processes for Future Prediction of Alzheimer's Disease Progression
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Biology']}
12,024
Abstract-I detta papper designar vi en mottagare som iterativt förmedlar mjuk information mellan kanaluppskattningen och dataavkodningsstegen. Mottagaren innehåller gleshetsbaserad parametrisk kanaluppskattning. Den senaste tidens sparsamhetsbaserade iterativa mottagare förenklar problemet med kanaluppskattning genom att begränsa multipatförseningarna till ett rutnät. Vår mottagare inför inte en sådan begränsning. Som ett resultat av detta lider den inte av läckageeffekten, som förstör gleshet. Kommunikation med nära kapacitet i hög SNR kräver en stor moduleringsordning. På grund av den nära närheten av moduleringssymboler i sådana system är den nätbaserade approximationen otillräcklig. Vi visar numeriskt att en toppmodern iterativ mottagare med gridbaserad gles kanaluppskattning uppvisar en bit-terror-rate golv i den höga SNR-regimen. Tvärtom, vår mottagare utför mycket nära den perfekta kanaltillståndsinformation som är knuten till alla SNR-värden. Vi visar också både teoretiskt och numeriskt att parametrisk kanaluppskattning fungerar bra i täta kanaler, d.v.s. när antalet multipatkomponenter är stort och varje enskild komponent inte kan lösas. Index Terms-Iterative mottagare, meddelande-passing algoritmer, gles kanaluppskattning, parametrisk kanaluppskattning, off-thegrid komprimerad avkänning.
I REF föreslås en iterativ kanaluppskattning baserad på en faktorgraf; denna metod passerar iterativt mjuk information mellan kanaluppskattningen och dataavkodningsstegen genom BP-algoritmen.
15,218,122
An Iterative Receiver for OFDM With Sparsity-Based Parametric Channel Estimation
{'venue': 'IEEE Transactions on Signal Processing', 'journal': 'IEEE Transactions on Signal Processing', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
12,025
Abshcl-This paper presenterar ROCI, ett ramverk för att utveckla applikationer för multi-robot team. I ROCI betraktas varje robot som en nod som innehåller flera moduler och kan exportera olika typer av tjänster och funktioner till andra noder. Varje nod kör en kärna som förmedlar robotarnas interaktioner i ett team. Denna kärna håller en uppdaterad databax av alla noder och de funktioner som de exporterar. Multi-robot applikationer kan han bygga dynamiskt genom att ansluta moduler som kan han kör på olika noder över nätverket. Som exempel kan nämnas att vi presenterar en uppgift för att undvika hinder som genomförts med hjälp av vårt ramverk och även diskuterar användningen av ROCI i ett multirobotscenario.
ROCI REF ), är en distribuerad ram för multi-robot perception och kontroll.
1,552,204
ROCI: a distributed framework for multi-robot perception and control
{'venue': 'Proceedings 2003 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS 2003) (Cat. No.03CH37453)', 'journal': 'Proceedings 2003 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS 2003) (Cat. No.03CH37453)', 'mag_field_of_study': ['Computer Science']}
12,026
Abstrakt. Vi studerar en generalisering av sabotagespel, en modell av dynamiska nätverksspel som introducerats av van Benthem [17]. Den ursprungliga definitionen av spelet är till sin natur ändlig och tillåter därför inte en att modellera oändliga processer. Vi föreslår en förlängning av sabotagespelen där den första spelaren (Runner) korsar en arena med dynamiska vikter som bestäms av den andra spelaren (Saboteur). I vår modell av kvantitativa sabotagespel får Saboteur nu en budget som han kan fördela mellan grafens kanter, medan Runner försöker minimera den mängd budget som bevittnas när han slutför sin uppgift. Vi visar å ena sidan att för de flesta av de klassiska kostnadsfunktioner som beaktas i litteraturen är problemet med att avgöra om Runner har en strategi för att säkerställa en kostnad under ett visst tröskelvärde fullständigt. Å andra sidan, om budgeten för Saboteur fastställs en priori, då problemet är i PTIME för de flesta kostnadsfunktioner. Slutligen visar vi att en begränsning av dynamiken i spelet också leder till bättre komplexitet.
Nyligen sabotage spel där beaktas i viktade grafer REF.
6,245,770
Quantitative Games under Failures
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
12,027
Talare av ett språk kan konstruera ett obegränsat antal nya ord genom morfologisk härledning. Detta är en viktig orsak till data sparseness för corpus-baserade tillvägagångssätt till lexical semantics, liksom distributional semantic modeller av ordbetydelse. Vi anpassar kompositionsmetoder som ursprungligen utvecklades för fraser till uppgiften att härleda fördelningsbetydelsen av morfologiskt komplexa ord från deras delar. Semantiska representationer konstruerade på detta sätt slår en stark baslinje och kan vara av högre kvalitet än representationer direkt konstruerade från corpus data. Våra resultat utgör en ny utvärdering av de föreslagna sammansättningsmetoderna, där hela additivmodellen uppnår bästa prestanda, och visar nyttan av en sammansättningsmorfologikomponent i distributionssemantik.
REF tillämpar kompositionsmetoder genom att ha stammen och anbringa representationer för att uppskatta fördelningen av morfologiskt komplexa ord.
7,371,294
Compositional-ly Derived Representations of Morphologically Complex Words in Distributional Semantics
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,029
Abstract Pandemic Influenza är ett internationellt folkhälsoproblem. Mot bakgrund av det ihållande hotet om H5N1-aviär influensa och den senaste pandemin av utbrottet av A/H1N1-vininfluensa håller folkhälsomyndigheterna på att se över sina beredskapsplaner kontinuerligt. A/ H1N1- pandemin 2009 visade att influensaaktiviteten och allvarlighetsgraden kan variera avsevärt mellan olika åldersgrupper och platser, och distributionen av ett effektivt influensavaccin kan bli betydligt fördröjd och förskjuten. Därför bör politiken för spridning av vaccin mot pandemisk influensa anpassas till de demografiska och rumsliga strukturerna i samhällena. Här inför vi ett bikriteriebeslutsramverk för vaccindistributionspolitik som bygger på en geospatial och demografisk modell av pandemisk influensaöverföring inom och mellan Arizonas län i Unites-staterna. Baserat på uppgifter från 2009-2010 H1N1-pandemin, den politik som förutspås minska den totala attackfrekvensen mest effektivt är att prioritera grevskap som förväntas uppleva de senaste epidemivågorna (en politik som kan vara politiskt ohållbar). Men när vi överväger en minskning av både anfallsfrekvensen och väntetiden för dem som söker vaccin, förväntas den allmänt antagna pro rata-politiken (fördelning efter befolkningsstorlek) också vara en effektiv strategi.
Araz och Al. Ref beaktade både åldersgrupper och platser vid utformningen av en geografisk prioriteringsstrategi för distribution av pandemiska influensavacciner.
29,432,687
Geographic prioritization of distributing pandemic influenza vaccines
{'venue': 'Health care management science', 'journal': 'Health care management science', 'mag_field_of_study': ['Medicine']}
12,030
Den befintliga grafen neurala nätverk (GNNs) baserat på den spektral grafen convolutional operatör har kritiserats för dess prestandanedbrytning, vilket är särskilt vanligt för modellerna med djupa arkitekturer. I detta dokument identifierar vi ytterligare det uppskjutna animeringsproblemet med de befintliga GNN. Ett sådant problem uppstår när modellens djup når den suspenderade animeringsgränsen och modellen inte längre svarar på träningsdata och blir inte lärbar. Analys av orsakerna till det tillfälliga animeringsproblemet med befintliga GNN kommer att tillhandahållas i detta dokument, medan flera andra perifera faktorer som kommer att påverka problemet också kommer att rapporteras. För att lösa problemet introducerar vi ramverket GRESNET (Graph Residual Network) i detta dokument, som skapar i stor utsträckning anslutna motorvägar för att involvera nodernas råa funktioner eller mellanliggande representationer i grafen för alla modellskikt. Olika från de andra inlärningsinställningarna, de omfattande kopplingarna i grafdata kommer att göra att de befintliga enkla återstående inlärningsmetoder misslyckas att fungera. Vi bevisar effektiviteten i den införda nya grafen resttermer ur normbevarande perspektiv, vilket kommer att bidra till att undvika dramatiska förändringar i nodens representationer mellan sekventiella lager. Detaljerade studier om ramverket GRESNET för många befintliga GNN, inklusive GCN, GAT och LOOPYNET, kommer att rapporteras i tidningen med omfattande empiriska experiment på verkliga riktmärkesdata.
I REF är det unika "suspenderad animering problem" med graf neurala nätverk identifieras och formellt definieras.
202,565,918
GResNet: Graph Residual Network for Reviving Deep GNNs from Suspended Animation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
12,031
Vi beskriver ett typsystem för Xdπ-kalkylen av Gardner och Maffei. Ett Xdπ-nätverk är ett nätverk av platser, där varje plats består av både ett dataträd (som innehåller skript och pekare till noder i träd på olika platser) och en process för modellering av processinteraktion, processmigration och interaktion mellan processer och data. Vårt typsystem är baserat på typer för platser, data och processer som uttrycker säkerhetsnivåer. Ett träd kan lagra data av olika säkerhetsnivå, oberoende av säkerhetsnivån på den inneslutande platsen. Tillgången till och rätten till rörlighet i en process beror på säkerhetsnivån på själva processens "källa" belägenhet, dvs. för den plats där processen befann sig i det ursprungliga nätverket eller där processen skapades genom aktivering av ett skript. Typsystemet har typkonservering under reduktion (subject reduction). Till följd av ämnesminskning bevisar vi följande säkerhetsegenskaper. I ett välskrivet Xdπ-nätverk kan en process P vars källplats är av nivå h kopiera data av säkerhetsnivå på de flesta h och uppdatera data av säkerhetsnivå mindre än h. Dessutom kan processen P endast kommunicera data och gå till platser av säkerhetsnivå lika med eller mindre än h.
I dokumentet REF diskuteras ett typsystem för Xdπ-kalkylen baserat på säkerhetsnivåer: säkerhetsnivåerna i dataträden tilldelas endast uppgifterna i bladen.
5,807,662
Security Types for Dynamic Web Data
{'venue': 'Lecture Notes in Computer Science', 'journal': 'Lecture Notes in Computer Science', 'mag_field_of_study': ['Computer Science']}
12,032
Abstract-Discovering episoder, frekventa uppsättningar av händelser från en sekvens har varit ett aktivt fält i mönsterbrytning. Traditionellt används en nivåmässigt tillvägagångssätt för att upptäcka alla frekventa episoder. Även om denna teknik är beräkningsbar kan det leda till ett stort antal mönster, särskilt när låga tröskelvärden används. I detta dokument föreslår vi en ny kvalitetsåtgärd för episoder. Vi säger att en episod är betydande om den genomsnittliga längden på dess minimala fönster avviker kraftigt jämfört med den förväntade längden enligt självständighetsmodellen. Vi kan tillämpa denna åtgärd som ett steg efter beskärning för att testa om de upptäckta frekventa episoderna verkligen är intressanta och följaktligen för att minska antalet utdata. Som ett viktigt bidrag inför vi en teknik som gör det möjligt för oss att beräkna fördelningen av längder av minimala fönster med hjälp av självständighetsmodellen. En sådan beräkningsuppgift är förvånansvärt komplex och för att lösa den beräknar vi fördelningen iterativt med början från enkla episoder och steg för steg mot de mer komplexa. I våra experiment upptäcker vi kandidatepisoder som har en tillräcklig mängd minimala fönster och testar varje kandidat för betydelse. De experimentella resultaten visar att vårt tillvägagångssätt finner betydelsefulla episoder samtidigt som vi ignorerar ointressanta händelser.
Vårt tillvägagångssätt kan ses som en förlängning av REF där vi utvecklade ett statistiskt test baserat på genomsnittlig längd på minimala fönster.
14,635,837
Significance of Episodes Based on Minimal Windows
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
12,033
Moderna processoroptimeringar som t.ex. förutsägelse av filialer och exekvering utanför ordningen är avgörande för prestandan. Nyligen forskning om övergående avrättning attacker inklusive Spectre och Härdsmälta visade dock att undantag eller gren felprediction händelser kan lämna hemliga-beroende spår i CPU: s mikroarchitectural tillstånd. Denna observation ledde till en spridning av nya Spectre och Meltdown attackvarianter och ännu mer ad-hoc försvar (t.ex., mikrokod och program patchar). Tyvärr fokuserar både industrin och den akademiska världen nu på att hitta effektiva försvar som oftast bara tar upp en specifik variant eller exploateringsmetod. Detta är mycket problematiskt eftersom hjärtats tillstånd endast ger begränsad insikt om kvarvarande attackyta och fullständigheten av de föreslagna försvaren. I detta dokument presenterar vi en sund och extensibel systematisering av tillfälliga avrättningsattacker. Vår systematisering avslöjar 7 (nya) tillfälliga avrättningsattacker som har förbisetts och inte undersökts hittills. Detta inkluderar 2 nya Härdsmälta varianter: Härdsmälta-PK på Intel, och Härdsmälta-BR på Intel och AMD. Den innehåller också 5 nya Spectre felutbildningsstrategier. Vi utvärderar alla 7 attacker i proof-of-concept implementeringar på 3 stora processorleverantörer (Intel, AMD, ARM). Vår systematisering ger inte bara en fullständig bild av anfallsytan, utan möjliggör också en systematisk utvärdering av försvar. Genom denna systematiska utvärdering upptäcker vi att vi fortfarande kan montera tillfälliga avrättningsattacker som ska mildras av utrullningsbara fläckar.
I REF ingår en systematisk utvärdering av tillfälliga avrättningsattacker.
53,290,977
A Systematic Evaluation of Transient Execution Attacks and Defenses
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
12,034
Samverkansfiltrering är en av de mest använda tillvägagångssätten i rekommendationssystem som förutsäger användarnas preferenser genom att lära sig tidigare användarobjektsrelationer. Under de senaste åren har objektorienterade samarbetsfiltreringsmetoder kommit i fokus eftersom de är mer skalbara jämfört med användarorienterade metoder. Objektorienterade metoder upptäcker objektrelationer från träningsdata och använder dessa relationer för att beräkna förutsägelser. I detta dokument föreslår vi en ny objektorienterad algoritm, Random Walk Recommender, som först drar slutsatsen övergångssannolikhet mellan objekt baserat på deras likheter och modeller ändlig längd slumpmässiga promenader på objektutrymmet för att beräkna förutsägelser. Denna metod är särskilt användbar när träningsdata är mindre än riklig, nämligen när typiska likhetsåtgärder misslyckas med att fånga faktiska samband mellan objekt. Bortsett från den föreslagna prognosalgoritmen kan den slutliga sannolikhetsmatrisen för övergång som beräknas i ett av de mellanliggande stegen användas som en objektliknande matris i typiska objektorienterade metoder. Därför föreslås i detta dokument en metod för att öka likheten matriser under glesa data också. Experiment på MovieLens data visar att Random Walk Recommender algoritm överträffar två andra objektorienterade metoder i olika gleshetsnivåer samtidigt som de har den bästa prestandaskillnaden i glesa datauppsättningar.
Yildirim och Krishnamoorthy REF föreslog en objektorienterad algoritm som innebär övergångssannolikhet mellan poster baserat på deras likheter.
6,521,066
A random walk method for alleviating the sparsity problem in collaborative filtering
{'venue': "RecSys '08", 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,035
Detta papper introducerar ett lagringsformat för glesa matriser, så kallade komprimerade glesa block (CSB), som gör att både Ax och A T x kan beräknas effektivt parallellt, där A är en n × n gles matris med nnz ≥ n nonzeros och x är en tät n-vektor. Våra algoritmer använder sig av arbete (nnz) (serial running time) och spännvidd (kritisk-path längd), vilket ger en parallellism av till (nnz / ε n lg n), som är tillräckligt hög för praktiskt taget alla stora matriser. Lagringskravet för CSB är i stort sett detsamma som för det mer standardiserade formatet för komprimerade rader (CSR), för vilket det är enkelt att beräkna Ax parallellt men A T x är svårt. Benchmark resultat indikerar att på en processor, CSB algoritmer för Ax och A T x köra lika snabbt som CSR algoritm för Ax, men CSB algoritmer också skala upp linjärt med processorer tills begränsas av offchip minne bandbredd.
Vårt multi-nivå komprimerade sparse lagringsformat har en anslutning till Compressed Sparse Block (CSB) system av Buluç et al. Hoppa över det.
2,762,299
Parallel sparse matrix-vector and matrix-transpose-vector multiplication using compressed sparse blocks
{'venue': "SPAA '09", 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,036
Abstrakt. Djupa neurala nätverk kan lära sig kraftfulla representationer från stora mängder märkta inmatningsdata, men de kan inte alltid generalisera väl över förändringar i indatadistributioner. Domänanpassningsalgoritmer har föreslagits för att kompensera för försämringen i prestanda på grund av domänskifte. I detta dokument tar vi upp fallet när måldomänen är omärkt, vilket kräver oövervakad anpassning. CORAL[1] är en "frustratingly easy" oövervakad domänanpassningsmetod som anpassar andra ordningens statistik för källan och målfördelningarna till en linjär omvandling. Här utvidgar vi CORAL för att lära sig en icke-linjär omvandling som anpassar korrelationer av lageraktiveringar i djupa neurala nätverk (djup CORAL). Experiment på standardriktvärden visar toppmoderna resultat.
REF presenterade en förlängning av Coral-metoden som lär sig en icke-linjär omvandling för att anpassa korrelationerna mellan lageraktiveringar i djupa nätverk.
12,453,047
Deep CORAL: Correlation Alignment for Deep Domain Adaptation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
12,037
Vi föreslår en mycket enkel förkonditioneringsmetod för heltal programmering genomförbarhetsproblem: ersätta problemet där U är en unimodulär matris beräknas via basreduktion, för att göra kolumnerna i AU kort (dvs., har liten Euclidean norm), och nästan ortogonal (se t.ex., [26], [25] ). Vårt tillvägagångssätt kallas kolonnbasminskning, och omformuleringen kallas för omformulering av avståndsrymden. Det motiveras av den teknik som föreslås för jämställdhetsbegränsade IPs av Aardal, Hurkens och Lenstra. Vi föreslår också en förenklad metod för att beräkna deras omformulering. Vi studerar också en familj av IP-fall, så kallade nedbrytbara Knapsack problem (DKPs). DKPs generaliserar de fall som föreslås av Jeroslow, Chvátal och Todd, Avis, Aardal och Lenstra, och Cornuéjols et al. De är knapsack problem med en begränsning vektor av formen pM + r, med p > 0 och r integral vektorer, och M ett stort heltal. Om parametrarna är lämpligt valda i DKPs, vi bevisa • hårdhetsresultat, när gren-och-bundet förgrening på enskilda variabler tillämpas, • att de är enkla, om en gren på begränsningen px istället, och • att förgrening på de sista variablerna i antingen avståndsrymden eller AHL omformuleringar motsvarar förgrening på px i det ursprungliga problemet. Vi tillhandahåller också recept för att generera sådana fall. Vår beräkningsstudie bekräftar att beteendet hos de studerade instanserna i praktiken är som förutsägs av teorin.
Vår omformulering av MIP-modellen för NPP är en generalisering av förkonditioneringsmetoden för IP:er som kallas kolonnbasreduktion, som föreslogs tidigare av den första författaren och Pataki REF, till fallet med MIP:er.
2,489,871
Column basis reduction, and decomposable knapsack problems
{'venue': 'Discrete Optimization Volume 6, Issue 3, August 2009, Pages 242-270', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
12,038
Abstract-Recently, betydande förbättring har gjorts på semantiska objekt segmentering på grund av utvecklingen av djupa konvolutionella neurala nätverk (DCNN). Utbildning en sådan DCNN förlitar sig vanligtvis på ett stort antal bilder med pixel-nivå segmentering masker, och att kommentera dessa bilder är mycket kostsamt både när det gäller finansiering och mänskliga insatser. I detta dokument föreslår vi en enkel till komplex (STC) ram där endast bild-nivå annoteringar används för att lära DCNNs för semantisk segmentering. Vi tränar först ett första segmenteringsnätverk som heter Initial-DCNN med översiktskartor över enkla bilder (dvs. de som har en enda kategori av större objekt och ren bakgrund). Dessa soliditetskartor kan automatiskt erhållas genom befintliga nedifrån-och-upp-relevanta objektdetektionsmetoder, där det inte behövs någon övervakningsinformation. Sedan, ett bättre nätverk som kallas Enhanced-DCNN lärs med övervakning från de förutsagda segmentering masker av enkla bilder baserade på Initial-DCNN samt bild-nivå annoteringar. Slutligen används fler pixel-nivå segmentering masker av komplexa bilder (två eller flera kategorier av objekt med rörig bakgrund), som härleds genom att använda Enhanced-DCNN och bildnivå annoteringar, som övervakningsinformation för att lära sig Kraftfull-DCNN för semantisk segmentering. Vår metod använder 40K enkla bilder från Flickr.com och 10K komplexa bilder från PASCAL VOC för att stegvis öka segmenteringsnätverket. Omfattande experimentella resultat på PASCAL VOC 2012-segmenteringsriktmärke visar tydligt överlägsenheten i det föreslagna STC-ramverket jämfört med andra state-of-the-arts.
I synnerhet Wei et al. REF presenterade en enkel till komplex inlärningsmetod, där en första segmenteringsmodell tränas med enkla bilder med hjälp av saltkartor för handledning.
1,821,165
STC: A Simple to Complex Framework for Weakly-supervised Semantic Segmentation
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence, 2016', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine']}
12,039
Vi undersöker arkitekturer av discriminativt utbildade djupa Convolutional Networks (ConvNets) för åtgärdsigenkänning i video. Utmaningen är att fånga den kompletterande informationen om utseende från stillbildsramar och rörelse mellan ramar. Vi strävar också efter att i nätverksdesignen integrera aspekter av de bäst presterande handgjorda funktionerna. Vårt bidrag är trefaldigt. För det första föreslår vi en tvåströms ConvNet-arkitektur som innehåller rumsliga och tidsmässiga nätverk. För det andra visar vi att ett ConvNet utbildat på multi-frame tät optiskt flöde kan uppnå mycket bra prestanda trots begränsade träningsdata. Slutligen visar vi att multitask-inlärning, som tillämpas på två olika åtgärdsklassificeringsdatauppsättningar, kan användas för att öka mängden utbildningsdata och förbättra prestandan på båda. Vår arkitektur är utbildad och utvärderas på standard video åtgärder riktmärken för UCF-101 och HMDB-51, där det matchar den senaste tekniken. Det överstiger också med stor marginal tidigare försök att använda djupa nät för videoklassificering.
Simonyan och Zisserman REF föreslår en djup video klassificering modell för att införliva rumslig och temporal information baserad på ConvNets.
11,797,475
Two-Stream Convolutional Networks for Action Recognition in Videos
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
12,040
Abstract-I detta papper, föreslår vi en lösning av roterade partiella skoavtryck hämtning, baserad användning av lokala intressanta punkter och SIFT desc genererade funktioner kodas med S matchning utförs med hjälp av RANSAC transformation modell och fastställa num som sedan multipliceras med summan av punkt-t avstånd under en hård tröskel. Vi demo kombination kan övervinna frågan om ret utskrifter i närvaro av rotation och n Utförda experiment har visat att p uppnår mycket bra matchande resultat och ut arbete i litteraturen både i termer av p komplexitet. Sökord-shoprint matchning; SIFT descrip av ineterest. Som en form av fysiska bevis, en skom märke som görs när sulan av en sko kommer en yta, kan ge en viktig lin brottslingar och den plats där brottet o skoavtryck lyfts från en Scene of Crime kontrolleras mot en databas som innehåller th på marknaden för att fastställa sin modell. Det kan mot andra SoC avtryck och skoavtryck ta misstänkta så att en given skoavtryck kan göras av en specifik sko. Flera tekniker har rapporterats i litteraturklassificering, igenkänning, indexering och r utskrifter i närvaro av rotation och n Chazal et al [4] föreslog ett system för auto en databas av skoavtryck baserat på outso Fourier domän som svar på en referens visas i [4], Power Spectral Density (P av bilden beräknas med hjälp av Fourie används som funktioner. En korrelation functio koefficient från en referensdatabas och en som används som likhetsmått [4]. Till achiev rotation, matcha utförs också med av frågebilden. Det föreslogs att man skulle rotera i intervallet [-30 30 rotationssteg av en grad för att uppnå röta inom det intervallet. Det leder till matchande kopior av samma frågebild till referens en brute force strategi som försöker satsa poäng. Denna nackdel övervinns wi är bara robust att rotera inom För att uppnå en hög noggrannhet, är rötfiltret robust i [5] är smalare tha metod [4]. Eftersom sådan multipel robusthet till en bredare vinkel är upplösning baserade tekniker har radontransform används för att uppskatta vinkel. Ett tryck är uppdelat i nio block och sammanblandas med en eig bank. Den genomsnittliga variansen i varje filtrerade bilder används som en fe robusthet till partiella utskrifter, åtta d också bearbetas och ingår i th skapa en 9-print klass av samma s användes i [7] baserat på användningen o Men i [7], Det är energi w som används för att bygga en funktion ve energibaserade funktioner kommer att utföra som inte fanns i utbildningen i [6] [7]. Efter framgångsrik användning av stora databaser, modellbaserad reco och texturigenkänning [8] [9] [10], föreslogs te bildhämtning och klassificering b funktioner i [11]. P effektivt automatiserat system för i baserat på att använda Maximalt stabila E-funktioner som omvandlas usi Även SIFT-deskriptorn är UK k ated kopior av bilderna e bilder roteras till. Ändå, det designade filtret e adopterat träningsområde. tationvinkel för vilken en i fråga om PSD-filtren krävs om den ska uppnås. Multieen som används i [6]
Nibouche m.fl. REF använder SIFT-deskriptorn för att representera skoavtrycksbilder, och metoden med slumpmässigt urval (RANSAC) används för att uppskatta matchningsresultatet.
7,049,523
Rotation Invariant Matching of Partial Shoeprints
{'venue': '2009 13th International Machine Vision and Image Processing Conference', 'journal': '2009 13th International Machine Vision and Image Processing Conference', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
12,041
C Redit-riskbedömning är ett mycket utmanande och viktigt förvaltningsvetenskapligt problem inom området finansiell analys. Många klassificeringsmetoder har föreslagits i litteraturen för att ta itu med detta problem. Särskilt neurala nätverk har fått mycket uppmärksamhet på grund av sin universella approximationsförmåga. Men en stor nackdel i samband med användningen av neurala nätverk för beslutsfattande är deras brist på förklaringsförmåga. Även om de kan uppnå en hög prediktiv noggrannhet, är resonemanget bakom hur de når sina beslut inte lätt tillgängliga. I detta dokument presenterar vi resultaten från analys av tre kredit-risk-datamängder i verkliga livet med hjälp av neurala nätverk regel extraktion tekniker. Klargörande av beslut om neurala nätverk genom förklarande regler som fångar in den kunskap som ingår i nätverken kan hjälpa kreditriskhanteraren att förklara varför en viss sökande klassificeras som antingen dålig eller god. Dessutom diskuterar vi också hur dessa regler kan visualiseras som en beslutstabell i ett kompakt och intuitivt grafiskt format som underlättar enkel konsultation. Slutsatsen är att utvinning av neurala nätverksregler och beslutstabeller är kraftfulla förvaltningsverktyg som gör det möjligt för oss att bygga avancerade och användarvänliga beslutsstödsystem för kreditriskbedömning.
På senare tid presenterar REF en fördjupad analys av hur man tolkar den inlärda kunskapen i de neurala nätverken med hjälp av förklarande regler, och diskuterade hur man kan visualisera dessa regler.
420,970
Using Neural Network Rule Extraction and Decision Tables for Credit-Risk Evaluation
{'venue': 'Management Science', 'journal': 'Management Science', 'mag_field_of_study': ['Computer Science']}
12,042
Abstract-Quantum datorer är exponentiellt snabbare än sina klassiska motsvarigheter när det gäller att lösa vissa specifika, men viktiga problem. Den största utmaningen när det gäller att förverkliga ett kvantdatorsystem är miljöbullret. Ett sätt att minska effekten av buller (och därmed minska omkostnaderna för att bygga feltoleranta kvantkretsar) är att minska latensen hos kvantkretsen som körs på en kvantkrets. I denna artikel presenteras en ny algoritm för schemaläggning, placering och routing av en kvantalgoritm, som ska förverkligas på ett mål quantum kretsväv teknik. Denna algoritm, och medföljande programvara verktyg, avancerar state-of-the-art i kvant CAD metoder och metoder, samtidigt som viktiga egenskaper och begränsningar av jon-trap kvantkretsen tyg. Experimentella resultat visar att det presenterade verktyget förbättrar resultaten av det tidigare verktyget med cirka 41 %.
Dousti och Pedram REF presenterade en algoritm för schemaläggning, placering och routing av en kvantkrets som minskar kretsens latens.
8,452,316
Minimizing the latency of quantum circuits during mapping to the ion-trap circuit fabric
{'venue': "DATE '12", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']}
12,043
Sammanfattning av denna webbsida: Detta dokument presenterar en bioinspirerad nätverksstrategi för att stödja samarbetet mellan statiska sensorer på marken och mobila sensorer i luften för att utföra övervakningsuppdrag i stora områden. Syftet med förslaget är att tillhandahålla låga omkostnader i kommunikationen mellan sensornoder, samtidigt som de mobila sensorerna tilldelas för att utföra de avkänningsaktiviteter som krävs av de statiska. Simuleringar har visat att strategin är effektiv när det gäller att upprätthålla låga omkostnader och uppnå önskad samordning.
Ett bioinspirerat nätverkssamarbete mellan trådlösa statiska och mobila sensornoder föreslås av Freitas et al. Hoppa över det.
7,035,190
Cooperation among Wirelessly Connected Static and Mobile Sensor Nodes for Surveillance Applications
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Computer Science', 'Medicine']}
12,044
I den här artikeln presenterar vi en hybridmetod för kinesisk och japansk ordsegmentering. Word-nivå information är användbar för analys av kända ord, medan tecken-nivå information är användbar för analys av okända ord, och metoden använder båda dessa två typer av information för att effektivt hantera kända och okända ord. Experimentella resultat visar att denna metod uppnår hög övergripande noggrannhet i kinesisk och japansk ordsegmentering.
T. Nakagawa använde information på ordnivå och information på teckennivå för ordsegmentering REF.
2,988,891
Chinese And Japanese Word Segmentation Using Word-Level And Character-Level Information
{'venue': 'International Conference On Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,045
Stencilberäkningar är en integrerad del av tillämpningar inom ett antal vetenskapliga datadomäner. Kortvektor SIMD instruktionsset är allestädes närvarande på moderna processorer och kan användas för att avsevärt öka prestanda schablon beräkningar. Traditionella metoder för att optimera schabloner på dessa plattformar har fokuserat på antingen kort-vektor SIMD eller data locality optimeringar. I detta dokument föreslår vi en domänspecifik språk- och kompilator för schablonberäkningar som gör det möjligt att specificera schabloner på ett koncist sätt och automatiserar både lokalitet och kortvektor SIMD optimeringar, tillsammans med effektivt utnyttjande av multi-core parallellism. Loopomvandlingar för att förbättra datalokaliseringen och möjliggöra belastningsbalanserad parallellism kombineras med en datalayoutomvandling för att effektivt öka prestandan hos schablonberäkningar. Prestandaökningar visas för ett antal schabloner på flera moderna SIMD-arkitekturer.
Till exempel Henretty et al. REF utformade ett domänspecifikt språk och kompilator för vektorisering av schablonberäkningar.
11,447,621
A stencil compiler for short-vector SIMD architectures
{'venue': "ICS '13", 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,046
Sikta. Hjärtrehabilitering (CR) är en viktig del av hjärtinsufficiens (HF) behandling. Syftet med detta papper var att utvärdera om thoraxvätskeinnehåll (TFC) mätt med impedanskardiografi (ICG) är en användbar parameter för att förutsäga resultatet av CR. Metoder. Femtio patienter med HF genomgick kliniska och icke-invasiva hemodynamiska (TFC) bedömningar före och efter 8 veckors CR. Resultat. Som ett resultat av CR förbättrades patientens motionstolerans, särskilt när det gäller maximal VO 2 (18,7 mot 20,8 ml × kg −1 × min −1; = 0,025). TFC konstaterades identifiera patienter med signifikant förbättrad maximal VO 2 efter CR. "Hög TFC" patienter (TFC > 27,0 kOhm −1 ), jämfört med patienter med "låg TFC" (TFC < 27,0 kOhm −1 ), befanns ha en mer uttalad ökning av toppvärdet VO 2 (1,3 mot 3,1 ml × kg −1 × min −1 ; = 0,011) och minskning av TFC (4,0 mot 0,7 kOhm −1 ; < 0,00001). Å andra sidan skilde sig patienterna med förbättrad maximal VO 2 ( = 32) från de med ingen maximal VO 2 förbättring i termer av högre TFC-värden vid baseline (28,4 mot 25,3 kOhm −1; = 0,039) och dess signifikanta minskning efter CR (2,7 mot 0,2 kOhm −1; = 0,012). Slutsatser. TFC kan vara en användbar parameter för att förutsäga positiva effekter av CR värt att inkludera i processen för patientens kvalificering för CR.
Thoracic vätska innehåll mätt av ICG har använts som en parameter för att förutsäga positiva effekter av hjärtrehabilitering hos patienter som lider av CHF i REF.
14,783,033
The Usefulness of Impedance Cardiography for Predicting Beneficial Effects of Cardiac Rehabilitation in Patients with Heart Failure
{'venue': 'BioMed Research International', 'journal': 'BioMed Research International', 'mag_field_of_study': ['Medicine']}
12,047
Abstract-YouTube har blivit den mest framgångsrika Internet-webbplatsen som ger en ny generation av kort videodelningstjänst sedan starten i början av 2005. YouTube har en stor inverkan på Internettrafiken idag, men självt lider av ett allvarligt problem med skalbarhet. Därför är det viktigt att förstå egenskaperna hos YouTube och liknande webbplatser för att nätverka trafikteknik och deras hållbara utveckling. I detta syfte har vi krupit YouTube-webbplatsen i fyra månader och samlat in mer än 3 miljoner YouTube-videors data. I denna uppsats presenterar vi en systematisk och fördjupad mätningsstudie om statistiken över YouTube-videor. Vi har funnit att YouTube-videor har märkbart annorlunda statistik jämfört med traditionella strömmande videor, allt från längd och åtkomstmönster, till deras tillväxttrend och aktiva livslängd. Vi undersöker de sociala nätverken i YouTube-videor, eftersom detta är en viktig drivkraft för dess framgång. I synnerhet finner vi att länkarna till relaterade videor som genereras av uppladdarnas val har tydliga egenskaper i småvärlden. Detta indikerar att videoklippen har starka korrelationer med varandra och skapar möjligheter att utveckla nya tekniker för att förbättra servicekvaliteten.
REF hittar YouTube-videor har märkbart annorlunda statistik jämfört med traditionella strömmande videor.
3,252,149
Statistics and Social Network of YouTube Videos
{'venue': '2008 16th Interntional Workshop on Quality of Service', 'journal': '2008 16th Interntional Workshop on Quality of Service', 'mag_field_of_study': ['Computer Science']}
12,048
För generaliserade Reed-Solomon-koder har det bevisats [6] att problemet med att avgöra om ett mottaget ord är ett djupt hål är co-NP-komplett. Minskningen beror på det faktum att uppsättningen utvärdering av koden kan vara exponentiellt i längden på den kod - en egenskap som praktiska koder vanligtvis inte har. I detta dokument lade vi först fram ett mycket enklare bevis på samma resultat. Vi överväger sedan problemet med vanliga Reed-Solomon-koder, dvs. Utvärderingsuppsättningen består av alla icke-nollelement på fältet. Vi minskar problemet med att identifiera djupa hål till att avgöra om en absolut oreducerbar hyperyta över ett ändligt fält innehåller en rationell punkt vars koordinater är parvis distinkta och icke-noll. Genom att tillämpa Schmidt och Cafure-Matera uppskattningen av rationella punkter på algebraiska sorter, Vi bevisar att den mottagna vektorn (f (α)) α och Fq för Reed-Solomon [q, k] q, k < q 1/7 till, kan inte vara ett djupt hål, när f (x) är ett polynom av grad k + d för 1 ≤ d < q 3/13 till.
Till exempel antog Cheng och Murray REF följande fullständiga klassificering av djupa hål för standard Reed-Solomon-koder.
11,358,303
On Deciding Deep Holes of Reed-Solomon Codes
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
12,049
ABSTRACT Trådlösa tekniker har erkänts som lovande tekniker i framtida trådlösa kommunikationssystem, särskilt i kognitiva radioapparater (CR) med energibegränsare. De flesta av de befintliga verken fokuserar dock på CR med en idealisk linjär energiutvinningsmodell. I detta dokument beaktas ett trådlöst CR-nätverk som drivs med bredband och en praktisk icke-linjär energiutvinningsmodell antas. För att maximera den totala genomströmningen av sekundära användare, är energiupptagningstiden, kanalallokering och sändningseffekt gemensamt optimerad. De slutna formuttrycken för optimal överföringseffekt och kanalallokering ges. Simuleringsresultat visar att det finns en kompromiss mellan skördeenergin och den totala genomströmningen av sekundära användare. Det visas också att den prestanda som uppnås enligt den icke-linjära modellen för energiupptagning kan motsvara den som uppnås enligt den linjära modellen för energiupptagning. INDEXTERMER
Wang m.fl. REF införde en kanalaccess strategi för att maximera summan genomströmning av sekundära användare genom att gemensamt optimera energiupptagningstiden, resursallokering och överföringskraft.
22,594,453
Resource Allocation in Wireless Powered Cognitive Radio Networks Based on a Practical Non-Linear Energy Harvesting Model
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
12,050
Abstract-Wireless Sensor Networks (WSNs) består av sensornoder som vidarebefordrar data i form av paket inuti ett nätverk. Effektiv paketspedition är en förutsättning i sensornätverk eftersom många uppgifter i nätverket, tillsammans med redundansutvärdering och lokalisering, beror på metoderna för paketspedition. Med motivationen att utveckla ett feltolerant paket vidarebefordring system en Self-Localized Packet Forwarding Algorithm (SLPFA) för att kontrollera redundans i WSNs föreslås i detta dokument. Den föreslagna algoritmen infunderar aspekterna av skvallerprotokollet för vidarebefordra paket och slutet till slut prestanda av den föreslagna algoritmen utvärderas för olika värden av nodtätheter i samma utplaceringsområde med hjälp av simuleringar.
Dubey och Sahu REF utvecklade ett feltolerant paketspeditionssystem för att kontrollera redundans i trådlösa sensornätverk.
5,538,137
Self-Localized Packet Forwarding in Wireless Sensor Networks
{'venue': 'JIPS', 'journal': 'JIPS', 'mag_field_of_study': ['Computer Science']}
12,051
Abstract-Vi undersöker problemet med planeringsvägar för ett autonomt undervattensfordon (AUV) för att samla in data från ett undervattenssensornätverk. Sensorerna i nätverket är utrustade med akustiska modem som ger bullriga, avståndsbegränsade kommunikationer. AUV måste planera en väg som maximerar den insamlade informationen samtidigt minimera restid eller bränslekostnader. Detta problem är nära relaterat till den klassiska Traveling Salesperson Problem (TSP), men skiljer sig genom att data från en viss sensor har en sannolikhet att samlas in beroende på kvaliteten på kommunikationen. Vi föreslår metoder för att lösa detta problem genom att utöka approximationsalgoritmer för varianter av TSP, och vi jämför våra föreslagna algoritmer med baslinjestrategier genom simulerade experiment med varierande kommunikationskvalitet. Våra simuleringar använder en realistisk modell av akustisk kommunikation för att bestämma sannolikheten för att få data från varje sensor. Resultaten visar att planeringen av turnén för hela nätverket samtidigt som kommunikationsmodellen utnyttjas under planeringen förbättrar prestandan jämfört med myopiska metoder.
REF studie routing för ett autonomt undervattensfordon (AUV) för att samla in data från ett undervattenssensornätverk.
1,480,883
Autonomous data collection from underwater sensor networks using acoustic communication
{'venue': '2011 IEEE/RSJ International Conference on Intelligent Robots and Systems', 'journal': '2011 IEEE/RSJ International Conference on Intelligent Robots and Systems', 'mag_field_of_study': ['Computer Science']}
12,052
Genom att ingjuta kontradiktoriska exempel i utbildningsdata är den kontradiktoriska utbildningen lovande för att förbättra robustheten hos modeller för djupt lärande. De flesta befintliga kontradiktoriska träningsmetoder bygger dock på en särskild typ av kontradiktorisk attack. Det kanske inte ger tillräckligt representativa prover från den kontradiktoriska domänen, vilket leder till en svag generaliseringsförmåga på kontradiktoriska exempel från andra attacker. Dessutom, under den kontradiktoriska utbildningen, är kontradiktoriska perturbationer på ingångar vanligtvis tillverkade av snabba enstegsmotståndare för att skala till stora datauppsättningar. Detta arbete är främst inriktat på den kontradiktoriska utbildningen men ändå effektiv FGSM motståndare. I detta scenario är det svårt att träna en modell med stor generalisering på grund av bristen på representativa kontradiktoriska prover, alka proverna är oförmögna att korrekt återspegla den kontradiktoriska domänen. För att lindra detta problem föreslår vi en ny adversariell utbildning med domänanpassningsmetod (ATDA). Vår intuition är att betrakta den kontradiktoriska utbildningen på FGSM motståndare som en domän anpassning uppgift med begränsat antal måldomän prover. Huvudidén är att lära sig en representation som är semantiskt meningsfull och domäninvariant på den rena domänen samt den kontradiktoriska domänen. Empiriska utvärderingar av Fashion-MNIST, SVHN, CIFAR-10 och CIFAR-100 visar att ATDA avsevärt kan förbättra generaliseringen av kontradiktorisk utbildning och smidigheten i de lärda modellerna, och överträffar toppmoderna metoder på standardriktvärden. För att visa vår metods överföringsförmåga utökar vi även ATDA till den kontradiktoriska utbildningen av iterativa attacker som PGD-Adversial Training (PAT) och försvarsprestandan förbättras avsevärt.
Domänanpassningstekniker användes också av REF, för att förbättra testtiden robusthet prediktiva modeller till kontradiktoriska exempel.
52,898,972
Improving the Generalization of Adversarial Training with Domain Adaptation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
12,053
Kontextmedvetna intelligenta system använder implicita indata och fattar beslut baserade på komplexa regler och maskininlärningsmodeller som sällan är tydliga för användarna. Bristen på systemuppfattbarhet kan leda till att användarnas förtroende, tillfredsställelse och acceptans av dessa system går förlorad. Att automatiskt ge förklaringar om ett systems beslutsprocess kan dock bidra till att minska detta problem. I detta dokument presenterar vi resultat från en kontrollerad studie med över 200 deltagare där effekten av olika typer av förklaringar undersöktes. Deltagarna visades exempel på ett systems funktion tillsammans med olika automatiskt genererade förklaringar, och testades sedan på deras förståelse av systemet. Vi visar till exempel att förklaringar som beskriver varför systemet uppförde sig på ett visst sätt resulterade i bättre förståelse och starkare förtroendekänslor. Förklaringar som beskriver varför systemet inte betedde sig på ett visst sätt, resulterade i lägre förståelse men ändå tillräcklig prestanda. Vi diskuterar implikationer för användningen av våra resultat i verkliga sammanhang-medvetna applikationer.
Lim och kollegor visar att förklara varför ett system beter sig på ett visst sätt resulterar i bättre förståelse och starkare förtroendekänslor REF.
4,507,550
Why and why not explanations improve the intelligibility of context-aware intelligent systems
{'venue': 'CHI', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,054
Trots de senaste framstegen i utbildning återkommande neurala nätverk (RNNs), fånga långsiktiga beroenden i sekvenser är fortfarande en grundläggande utmaning. De flesta tillvägagångssätt använder backpropagation genom tiden (BPTT), vilket är svårt att skala till mycket långa sekvenser. I detta dokument föreslås en enkel metod som förbättrar förmågan att fånga långsiktiga beroenden i RNN genom att lägga till en oövervakad extra förlust till det ursprungliga målet. Denna extra förlust tvingar RNN att antingen rekonstruera tidigare händelser eller förutsäga nästa händelser i en sekvens, vilket gör trunkerad backpropagation möjligt för långa sekvenser och även förbättra full BPTT. Vi utvärderar vår metod på en mängd olika inställningar, inklusive pixel-by-pixel bildklassificering med sekvenslängder upp till 16 000, och en verklig dokumentklassificeringsriktmärke. Våra resultat belyser goda resultat och resurseffektivitet i denna strategi jämfört med konkurrenskraftiga baslinjer, inklusive andra återkommande modeller och en jämförbar storlek Transformer. Ytterligare analyser avslöjar positiva effekter av den extra förlusten på optimering och legalisering, liksom extrema fall där det finns lite till ingen backpropagation.
I REF föreslås att man lägger till en icke övervakad extra förlust till det ursprungliga målet som är utformat för att uppmuntra nätverket att fånga upp sådana beroenden.
4,760,632
Learning Longer-term Dependencies in RNNs with Auxiliary Losses
{'venue': 'ICML 2018', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
12,055
Sammanfattning När man interagerar i en virtuell miljö konfronteras användarna med ett antal interaktionstekniker. Dessa interaktionsmetoder kan komplettera varandra, men under vissa omständigheter kan de användas på ett utbytbart sätt. På grund av denna situation är det svårt för användaren att avgöra vilken interaktionsteknik som ska användas. Dessutom har användningen av multimodal återkoppling, såsom haptik och ljud, visat sig vara till nytta för vissa, men inte alla, användare. Detta komplicerar utvecklingen av en sådan virtuell miljö, eftersom designers inte är säkra på konsekvenserna av att lägga till interaktionstekniker och multimodal återkoppling. Ett lovande tillvägagångssätt för att lösa detta problem ligger i användningen av anpassning och personalisering. Genom att inkorporera kunskap om en användares preferenser och vanor bör användargränssnittet anpassas till det aktuella användningssammanhanget. Detta kan innebära att endast en delmängd av alla möjliga interaktionstekniker presenteras för användaren. Alternativt skulle interaktionsteknikerna i sig kunna anpassas, t.ex. genom att ändra känsligheten eller typen av feedback. I detta dokument föreslår vi ett konceptuellt ramverk för att förverkliga adaptiv personlig interaktion i virtuella miljöer. Vi diskuterar också hur man upprättar, verifierar och tillämpar en användarmodell, vilket utgör det första och viktiga steget i genomförandet av den föreslagna konceptuella ramen. Denna studie resulterar i allmänna och individuella användarmodeller, som sedan verifieras för att gynna användare som interagerar i virtuella miljöer. Dessutom genomför vi en undersökning för att undersöka hur användarna reagerar på en specifik typ av anpassning i virtuella miljöer (dvs. byte mellan
Anpassningsramar har också föreslagits som införlivar användarnas preferenser och beteende i en konceptuell ram för att hjälpa till med att vägleda interaktionstekniker REF.
8,079,837
Adaptation in virtual environments: conceptual framework and user models
{'venue': 'Multimedia Tools and Applications', 'journal': 'Multimedia Tools and Applications', 'mag_field_of_study': ['Computer Science']}
12,056
Multipat TCP (MP-TCP) har potential att avsevärt förbättra applikationens prestanda genom att använda flera olika vägar på ett transparent sätt. Vi föreslår en vätskemodell för en stor klass av MP-TCP algoritmer och identifiera konstruktionskriterier som garanterar existens, unikhet och stabilitet i systemjämvikt. Vi klargör hur algoritmparametrar påverkar TCP-vänlighet, lyhördhet och fönsteroscillering och demonstrerar en oundviklig kompromiss mellan dessa egenskaper. Vi diskuterar effekterna av dessa egenskaper på beteendet hos befintliga algoritmer och motiverar vår algoritm Balia (balanserad länkad anpassning), som generaliserar befintliga algoritmer och skapar en bra balans mellan TCP-vänlighet, lyhördhet och fönsteroscillering. Vi har implementerat Balia i Linuxkärnan. Vi använder vår prototyp för att jämföra den nya algoritmen med befintliga MP-TCP algoritmer.
Balia algirithm REF har föreslagits nyligen, som syftar till att hitta en bra balans mellan TCP-vänlighet, lyhördhet och fönster svängning.
250,322
Multipath TCP: analysis, design, and implementation
{'venue': 'TNET', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,057
Det senaste arbetet har förbättrat vår förmåga att upptäcka språkliga kunskaper i ordrepresentationer. Dagens metoder för att upptäcka syntaktisk kunskap testar dock inte om syntaxträd är representerade i sin helhet. I detta arbete föreslår vi en strukturell sond, som utvärderar om syntaxträd är inbäddade i en linjär omvandling av ett neuralt nätverk ord representation utrymme. Sonden identifierar en linjär omvandling under vilken kvadratavståndet L2 kodar avståndet mellan orden i parseträdet och ett där kvadratavståndet L2 norm kodar djup i parseträdet. Med hjälp av vår sond visar vi att sådana omvandlingar existerar för både ELMo och BERT men inte i baslinjer, vilket ger bevis för att hela syntaxträd implicit är inbäddade i djupa modellers vektorgeometri.
REF är också intresserad av syntaktisk kunskap och föreslår en metod för att utvärdera om hela syntaxträd är inbäddade i en linjär omvandling av en modells ordrepresentationsutrymme, vilket visar att BERT faktiskt fångar sådan information.
106,402,715
A Structural Probe for Finding Syntax in Word Representations
{'venue': 'NAACL-HLT', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,058
Abstract-Denna artikel presenterar en mycket regelbunden och skalbar AES hårdvara arkitektur, lämplig för full-custom såväl som semicustom design flöden. I motsats till andra publikationer beskrivs en komplett arkitektur (även CBC-läge) som är skalbar när det gäller dataflöde och den använda nyckelstorleken. Likheter i kryptering och dekryptering används för att ge en hög prestanda med endast ett relativt litet område (10 799 grindekvivalenter för standardkonfigurationen). Denna prestanda uppnås genom att man balanserar kombinationsbanorna i konstruktionen. Ingen annan publicerad AES hårdvara arkitektur ger liknande balansering eller en jämförbar regelbundenhet. Implementeringar av den snabbaste konfigurationen av arkitekturen ger ett dataflöde på 241 Mbits/sec på en 0,6 "m CMOS-process med standardceller.
Paper REF presenterar en mycket regelbunden och skalbar AES 32-bitars maskinvaruarkitektur, för att stödja kryptering, dekryptering, olika nyckelstorlekar och CBC-läget.
8,132,581
A highly regular and scalable AES hardware architecture
{'venue': 'IEEE Trans. Computers', 'journal': 'IEEE Trans. Computers', 'mag_field_of_study': ['Computer Science']}
12,059
Vi introducerar Treebank of Learner English (TLE), den första allmänt tillgängliga syntaktiska trädbanken för engelska som ett andra språk (ESL). TLE ger manuellt kommenterade POS-taggar och Universal Dependency (UD) träd för 5 124 meningar från Cambridge First Certificate på engelska (FCE) corpus. UD-anteckningarna är knutna till en befintlig felanmärkning av FCE, där fullständiga syntaktiska analyser tillhandahålls för både original- och felkorrigerade versioner av varje mening. Vidare beskriver vi ESL-anmärkningsriktlinjer som möjliggör konsekvent syntaktisk behandling av ogrammatisk engelska. Slutligen jämför vi POS-märkning och beroendetolkningsprestanda med TLE-datauppsättningen och mäter effekten av grammatiska fel på tolkningsnoggrannheten. Vi föreställer oss trädbanken för att stödja ett brett utbud av språklig och beräkningsmässig forskning om andraspråksförvärv samt automatisk bearbetning av ogrammatiskt språk 1.
En del av denna corpus har manuellt kommenterats med POS-taggar och beroendestrukturer, och släpptes nyligen som Treebank of Learner English REF.
8,462,706
Universal Dependencies for Learner English
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
12,060
Abstract-The webbplats fingeravtryck attack syftar till att identifiera innehållet (dvs, en webbsida som en klient) av krypterade och anonymiserade anslutningar genom att observera mönster av dataflöden såsom paketstorlek och riktning. Denna attack kan utföras av en lokal passiv tjuvlyssnare - en av de svagaste motståndare i angriparmodellen av anonymisering nätverk som Tor. I den här artikeln presenterar vi en ny webbplats för fingeravtrycksattack. Baserat på en enkel och begriplig idé överträffar vår strategi alla toppmoderna metoder när det gäller klassificeringsnoggrannhet samtidigt som den är dramatiskt effektivare. För att utvärdera allvaret i webbplatsen fingeravtryck attack i verkligheten, samlade vi den mest representativa dataset som någonsin har byggts, där vi undviker förenklade antaganden som gjorts i det relaterade arbetet med urval och typ av webbsidor och storleken på universum. Med hjälp av dessa data utforskar vi de praktiska gränserna för att ta fingeravtryck på Internet. Även om vårt nya tillvägagångssätt är enligt magnituden mer effektivt och överlägset i fråga om detektionsnoggrannhet, visar vi för första gången att ingen befintlig metod - inklusive våra egna - skala när den tillämpas i realistiska miljöer. Med vår analys undersöker vi försummade aspekter av attacken och undersöker den realistiska sannolikheten för framgång för olika strategier en verklig motståndare kan följa.
På senare tid föreslås i Ref en förbättrad (upprepbar) webbplats för fingeravtryck, och den visade sig vara överlägsen både i fråga om detektionsnoggrannhet och beräkningseffektivitet jämfört med befintliga alternativ.
15,302,617
Website Fingerprinting at Internet Scale
{'venue': 'NDSS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,061
Klassiska destillationsmetoder överför representationer från ett "lärare" neuralt nätverk till ett "student" nätverk genom att matcha deras utdata aktiveringar. Nya metoder matchar också jakobinerna, eller lutningen av utdata aktiveringar med inmatningen. Detta innebär dock att fatta vissa ad hoc-beslut, särskilt valet av förlustfunktion. I detta dokument fastställer vi först en likvärdighet mellan Jacobian matchning och destillation med ingångsbuller, från vilket vi får lämpliga förlustfunktioner för Jacobian matchning. Vi förlitar oss sedan på denna analys för att tillämpa Jacobian matchning för att överföra lärande genom att fastställa likvärdighet av en nyligen överför lärande förfarande till destillation. Vi visar sedan experimentellt på standardbilddataset att Jacobiska-baserade sanktioner förbättrar destillation, robusthet till bullriga ingångar och överföring av lärande.
Senast förbättrade REF ytterligare den uppmärksamhetsbaserade metoden genom att matcha gradienterna (dvs. Jacobians) för utdataaktiveringar för indata.
3,603,145
Knowledge Transfer with Jacobian Matching
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
12,062
Abstract-The area of security for Heterogenous Sensor Networks (HSNs) är fortfarande ett öppet forskningsområde som kräver nya kryptografiska lösningar. De senaste resultaten har visat att ECC (Elliptic Curve Cryptography) och parningsbaserad kryptografi (PBC) är möjliga att beräkna på sensorenheter. Detta gör att ett brett spektrum av nya säkerhetsmekanismer, som IdentityBased Encryption (IBE), kan beaktas för trådlösa Sensor Networks (WSNs). I detta dokument presenterar vi en effektiv säkerhet bootstrappningsmekanism för HSNs som använder IBE och utnyttjar den förbättrade kapaciteten hos avancerade klusterhuvuden. Vårt asymmetriska säkerhetssystem ger autentiserad nyckeldistribution utan att använda dyra certifikat. Det gör också betydande besparingar i kommunikation overhead och i antalet nycklar som lagras på sensorenheter. Vi presenterar även TinyIBE, som är till vår kännedom, den första implementeringen av ett komplett identitetsbaserat krypteringssystem för sensornätverk. Våra utvärderingsresultat och jämförelse med den senaste tekniken visar att TinyIBE är ett överlägset säkerhetssystem för HSNs som ger prisvärda offentliga nyckel kryptering utan att kräva maskinvaruacceleration. Med detta arbete visar vi att ID-baserad kryptering inte bara är möjlig på sensornoder utan är en attraktiv säkerhetslösning i detta applikationsutrymme.
Szczechowiak och Collier REF föreslog en identitetsbaserad kryptering för heterogena sensornätverk som kallas TinyIBE.
15,301,463
TinyIBE: Identity-based encryption for heterogeneous sensor networks
{'venue': '2009 International Conference on Intelligent Sensors, Sensor Networks and Information Processing (ISSNIP)', 'journal': '2009 International Conference on Intelligent Sensors, Sensor Networks and Information Processing (ISSNIP)', 'mag_field_of_study': ['Computer Science']}
12,063
Abstrakt. införde ett nytt mått på svårighet för en distribuerad uppgift i ett nätverk. Det minsta antalet bitar av råd av ett distribuerat problem är det minsta antalet bitar av information som måste vara tillgängliga för noder för att utföra uppgiften effektivt. Vårt papper behandlar antalet bitar av råd som krävs för att effektivt utföra grafsökningsproblem i en distribuerad inställning. I denna variant av problemet, alla sökare placeras initialt på en viss nod av nätverket. Syftet med teamet av sökare är att fånga en osynlig och godtyckligt snabb rymling på ett monotont ansluten sätt, dvs. den rensade delen av grafen är permanent ansluten, och aldrig minskar medan sökstrategin utförs. Vi visar att det minsta antalet bitar av råd som tillåter monoton ansluten clearing av ett nätverk i en distribuerad inställning är O(n log n), där n är antalet noder i nätverket, och denna gräns är snäv. Mer exakt ger vi först en märkning av hörnen i någon graf G, med hjälp av totalt O(n log n) bitar, och ett protokoll som använder denna märkning som möjliggör clearing G på en monoton ansluten distribuerat sätt. Sedan visar vi att detta antal bitar av råd är nästan optimalt: inget protokoll med hjälp av ett orakel som ger o(n log n) bitar av råd tillåter monoton ansluten clearing av ett nätverk med hjälp av det minsta antalet sökare.
När det gäller REF var frågan inte effektivitet utan genomförbarhet: det visades att (n log n) är den minsta storleken av råd som krävs för att utföra monoton ansluten graf clearing.
2,304,834
GRAPH SEARCHING WITH ADVICE
{'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,064
Abstrakt. God resursplanering spelar en central roll i framgångsrika programvaruutvecklingsprojekt. Effektiv resursplanering kompliceras dock av sådana störningar som kravändringar, brådskande felfixering, inkorrekt eller oväntad processgenomförande och personalomsättning. Sådana störningar kräver omedelbar uppmärksamhet, men kan också påverka stabiliteten i andra pågående projekt. Dynamisk resursomläggning kan bidra till att föreslå strategier för att hantera sådana potentiellt störande händelser genom att föreslå hur man balanserar behovet av snabba insatser och behovet av organisatorisk stabilitet. I detta dokument föreslås en multiobjektiv omläggningsmetod för att ta itu med behovet av resurshantering för programvaruprojekt som kan föreslå strategier för att hantera sådana störningar. En genetisk algoritm används för att stödja omläggning av beräkningar. Exempel som används för att utvärdera detta tillvägagångssätt tyder på att det kan stödja effektivare resurshantering i störningsbenägna programvaruutvecklingsmiljöer.
I arbetet i REF föreslås en omläggningsmetod med flera mål för att ta itu med behovet av hantering av programvaruprojektresurser vid hantering av olika typer av undantag.
8,437,227
Dynamic resource scheduling in disruption-prone software development environments
{'venue': 'FASE', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,065
Abstrakt. Vi föreslår i detta dokument en metod för beteendemodellering och onormala händelser upptäckt som använder låg nivå funktioner. I konventionella objektbaserade metoder, objekt identifieras, klassificeras och spåras för att lokalisera de med misstänkt beteende. Vi fortsätter direkt med händelsekarakterisering och beteendemodellering med hjälp av funktioner på låg nivå. Vi lär oss först statistik om samtidiga händelser i en spatio-temporal volym för att bygga den normala beteendemodellen, som kallas Co-Occurrence Matrix. Begreppet samtidiga händelser definieras med hjälp av ömsesidig information mellan sekvenser av rörelseetiketter. I den andra fasen används sedan co-occurrence-matrisen som en potentiell funktion i ett Markov Random Field-ramverk för att beskriva, som videoströmmarna i, sannolikheten för att observera nya aktivitetsvolymer. Co-occurrence matrisen används alltså för att upptäcka rörliga objekt vars beteende skiljer sig från de som observerats under träningsfasen. Intressant nog står Markov Random Field distribution implicit för hastighet, riktning, liksom den genomsnittliga storleken på objekten utan någon högre nivå ingripande. Dessutom, när spatio-temporal volymen är tillräckligt stor, co-occurence distributionen innehåller den genomsnittliga normala vägen följt av rörliga objekt. Vår metod har testats på olika inomhus- och utomhusvideor som representerar olika utmaningar.
Benezeth m.fl. REF använder låg nivå funktioner för att lära sig co-occurrence matris av normalt beteende, och tillämpa Markov slumpmässigt fält för att hitta avvikande beteenden.
16,266,078
Abnormality Detection Using Low-Level Co-occurring Events
{'venue': None, 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
12,066
Detta dokument beskriver QCRI:s deltagande i SemEval-2015 Task 3 "Answer Selection in Community Question Answering", som riktade sig till verkliga webbforum och erbjöds på både arabiska och engelska. Vi tillämpar en övervakad maskininlärning metod med tanke på ett mångfald av funktioner inklusive bland annat ord n-gram, text likhet, känsla analys, förekomsten av specifika ord, och sammanhanget till en kommentar. Vår strategi var den bäst presterande i arabiska subtask och den tredje bäst i de två engelska subtasks.
REF härledda funktioner från en kommentar i samband med hela tråden.
8,764,653
QCRI: Answer Selection for Community Question Answering - Experiments for Arabic and English
{'venue': 'SemEval@NAACL-HLT', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,067
Vi presenterar ett systematiskt tillvägagångssätt för att uppnå rättvisa i en binär klassificeringsmiljö. Medan vi fokuserar på två välkända kvantitativa definitioner av rättvisa, omfattar vår strategi många andra tidigare studerade definitioner som specialfall. Den viktigaste idén är att reducera rättvis klassificering till en sekvens av kostnadskänsliga klassificeringsproblem, vars lösningar ger en randomiserad klassificering med det lägsta (empiriska) felet med de önskade begränsningarna. Vi inför två minskningar som fungerar för alla representationer av den kostnadskänsliga klassificeringen och jämför gynnsamt med tidigare baslinjer på en mängd olika datamängder, samtidigt som man övervinner flera av deras nackdelar.
I REF minskar författarna problemet med rättvis klassificering till en sekvens av kostnadskänsliga problem genom att utnyttja sadelpunktsformuleringen.
4,725,675
A Reductions Approach to Fair Classification
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
12,068
Vi föreslår prototypiska nätverk för problemet med en klassificering med få bilder, där en klassificering måste generaliseras till nya klasser som inte syns i utbildningssetet, med endast ett litet antal exempel på varje ny klass. Prototypiska nätverk lär sig ett metriska utrymme där klassificering kan utföras genom att beräkna avstånd till prototyp representationer av varje klass. Jämfört med den senaste tidens metoder för att lära sig få bilder återspeglar de en enklare induktiv partiskhet som är fördelaktig i detta system med begränsade data och som ger utmärkta resultat. Vi tillhandahåller en analys som visar att några enkla designbeslut kan ge betydande förbättringar jämfört med den senaste tidens tillvägagångssätt med komplicerade arkitektoniska val och meta-lärande. Vi utökar ytterligare prototypiska nätverk till noll-shot lärande och uppnå state-of-t heart resultat på CU-Birds datauppsättning.
Prototypiska nätverksreferensdokument upprätthåller kategorivisa mallar för problemet med klassificering med få bilder.
309,759
Prototypical Networks for Few-shot Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
12,069
När modelldriven teknik (MDE) tillämpas för utveckling av större system blir kvalitetssäkringen av modelldrivna artefakter viktigare. Här är metamodeller särskilt viktiga eftersom många andra artefakter är beroende av dem. Befintliga metoder för att mäta moduläriteten hos metamodeller har inte validerats noggrant för metamodeller. I detta dokument utvärderar vi användningen av de mätvärden som föreslås av Sarkar et al. att automatiskt mäta modulariteten hos metamodeller med målet att automatisera kvalitetsförbättringar. För detta analyserar vi data från ett tidigare kontrollerat experiment om uppfattningen av metamodellkvalitet med 24 deltagare, inklusive både studenter och akademiker. Av resultaten kunde vi statistiskt motbevisa även en liten korrelation med upplevd metamodellkvalitet.
Vårt dokument om användningen av Sarkars mätvärden för att utvärdera modulariteten hos metamodeller presenterar ett alternativt tillvägagångssätt för att erhålla en kvantitativ kvalitetsbedömning av metamodeller REF.
26,281,558
On using sarkar metrics to evaluate the modularity of metamodels
{'venue': 'MODELSWARD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,070
Vi anser att Regularized support vektor maskiner (SVMs) och visar att de är exakt likvärdiga med en ny robust optimering formulering. Vi visar att denna ekvivalens av robust optimering och legalisering har konsekvenser för både algoritmer och analys. När det gäller algoritmer föreslår likvärdigheten mer allmänna SVM-liknande algoritmer för klassificering som uttryckligen bygger på bullerskydd och samtidigt kontrollerar övermontering. På analysfronten, ekvivalensen av robusthet och legalisering, ger en robust optimering tolkning för framgången av regulariserade SVMs. Vi använder denna nya robusthet tolkning av SVMs för att ge ett nytt bevis på konsekvens (kernelized) SVMs, vilket etablerar robusthet som anledningen regulariserade SVMs generalisera väl.
Liknande resultat på ekvivalensen av robusthet och legalisering har erhållits också för (kernelized) SVMs REF.
3,118,889
Robustness and Regularization of Support Vector Machines
{'venue': 'Journal of Machine Learning Research, vol 10, 1485-1510, year 2009', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
12,072
Abstract-Välja lämpliga molntjänster och molnleverantörer enligt molnanvändarnas krav blir en komplex uppgift, som antalet molnleverantörer ökar. Cloud leverantörer erbjuder liknande typer av molntjänster, men de är olika i fråga om pris, kvalitet på tjänsten, kundupplevelse och leverans av tjänster. Det mest utmanande problemet med den nuvarande molndataverksamheten är att molnleverantörer åtar sig ett visst servicenivåavtal (SLA), med molnanvändare, men det finns få eller inga verifieringsmekanismer som säkerställer att molnleverantörer tillhandahåller molntjänster i enlighet med sitt åtagande. I den nuvarande litteraturen saknas en utvärderingsmodell som ger den verkliga statusen för molnleverantörer för molnanvändare. I detta dokument föreslås en utvärderingsmodell som verifierar kvaliteten på molntjänster som levereras för varje tjänst och tillhandahåller molnleverantörernas tjänstestatus. Slutligen, utvärderingsresultat som erhållits från molnrevisorer visualiseras i en beställd prestanda värmekarta, visar molnleverantörerna i en minskande beställning av övergripande servicekvalitet. På så sätt representerar den föreslagna modellen för kvalitetsbedömning av tjänster ett visuellt rekommendationssystem för molntjänstmäklare och molnanvändare.
Det arbete som utvecklats i REF föreslår en utvärderingsmodell som verifierar kvaliteten och statusen på de tjänster som tillhandahålls av molnleverantörer.
15,517,929
An Evaluation Model for Selecting Cloud Services from Commercially Available Cloud Providers
{'venue': '2015 IEEE 7th International Conference on Cloud Computing Technology and Science (CloudCom)', 'journal': '2015 IEEE 7th International Conference on Cloud Computing Technology and Science (CloudCom)', 'mag_field_of_study': ['Computer Science']}
12,073
Under de senaste åren har den utbredda användningen av djupa neurala nätverk (DNN) underlättat stora förbättringar i prestanda för datorseende uppgifter som bildklassificering och objektigenkänning. I de flesta realistiska datorsiktstillämpningar genomgår en indatabild någon form av bildförvrängning såsom oskärpa och additivt buller vid bild förvärv eller överföring. Djupa nätverk tränade på orörda bilder presterar dåligt när de testas på sådana förvrängningar. I detta dokument utvärderar vi effekten av bildförvrängningar som Gaussisk oskärpa och additivt buller på aktiveringen av förtränade konvolutionsfilter. Vi föreslår ett mått för att identifiera de mest bullerkänsliga konvolutionsfiltren och rangordna dem efter den största ökningen i klassificeringsnoggrannhet vid korrigering. I vårt föreslagna tillvägagångssätt kallas DeepCorrect, tillämpar vi små staplar av convolutional lager med restanslutningar vid utgången av dessa rangordnade filter och träna dem att korrigera den värsta distorsion drabbade filter aktiveringar, samtidigt som resten av de förtränade filterutgångar i nätverket oförändrad. Prestandaresultat visar att tillämpa DeepCorrect modeller för gemensamma vision uppgifter som bildklassificering (ImageNet), objektigenkänning (Caltech-101, Caltech-256), och scenklassificering (SUN-397), avsevärt förbättrar robustheten hos DNNs mot förvrängda bilder och överträffar andra alternativa metoder. Index Terms-Deep neurala nätverk, bildförvrängning, bildklassificering, resterande lärande, bild denoiserande, bild deblurring. Europaparlamentets och rådets förordning (EU, Euratom) nr 966/2012 av den 25 oktober 2012 om finansiella regler för unionens allmänna budget och om upphävande av rådets förordning (EG, Euratom) nr 1605/2002 (EUT L 298, 26.10.2012, s. 1).
I REF presenterade vi en metod (DeepCorrect) för att identifiera de konvolutionella filter som är mest känsliga för nedbrytningar i bildkvalitet och för att korrigera de försämrade aktiveringarna av dessa filter.
7,422,295
DeepCorrect: Correcting DNN Models Against Image Distortions
{'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Computer Science', 'Mathematics', 'Medicine']}
12,074
Expertissökande forskning studerar hur människor söker kompetens och väljer vem de ska kontakta inom ramen för en specifik uppgift. Ett viktigt resultat är modeller som identifierar faktorer som påverkar expertfynd. Expertis hämtning tar itu med samma problem, expertsökning, men ur ett system-centrerad perspektiv. Huvudfokus har legat på att utveckla innehållsbaserade algoritmer som liknar dokumentsökning. Dessa algoritmer identifierar motsvarande experter främst på grundval av textinnehållet i de dokument som experterna är knutna till. Andra faktorer, t.ex. de som identifierats med hjälp av expertbaserade modeller, beaktas sällan. I den här artikeln utökar vi innehållsbaserade expertsökningsstrategier med kontextuella faktorer som har visat sig påverka mänskliga expertfynd. Vi fokuserar på en uppgift för forskningskommunikatörer i en kunskapsintensiv miljö, uppgiften att hitta liknande experter, med ett exempel expert. Vår strategi kombinerar expertis-sökning och hämtning forskning. För det första genomför vi en användarstudie för att identifiera kontextuella faktorer som kan spela en roll i den studerade uppgiften och miljön. Sedan designar vi expertbaserade hämtningsmodeller för att fånga upp dessa faktorer. Vi kombinerar dessa med innehållsbaserade hämtningsmodeller och utvärderar dem i ett hämtningsexperiment. Vår huvudsakliga slutsats är att även om innehållsbaserade funktioner är de viktigaste, tar även mänskliga deltagare hänsyn till kontextuella faktorer, såsom medieupplevelse och organisationsstruktur. Vi utvecklar två principiella sätt att modellera de identifierade faktorerna och integrera dem med innehållsbaserade hämtningsmodeller. Våra experiment visar att modeller som kombinerar innehållsbaserade och kontextuella faktorer avsevärt kan överträffa befintliga innehållsbaserade modeller. Mottaget den 16 mars 2009; reviderat den 19 november 2009; accepterat den 19 november 2009 1 Detta är en utökad och reviderad version av Hofmann, Balog, Bogers, & de Rijke, 2008. Den ökande mängden information som finns tillgänglig gör att behovet av att kritiskt bedöma information blir viktigare. Belastningen av trovärdighetsbedömning och kvalitetskontroll flyttas delvis över till enskilda informationssökande, men behovet av informationsförmedlare (t.ex. experter) har inte försvunnit och ökar faktiskt i de fall där informationens trovärdighet måste uppfylla höga krav (Metzger, 2007). Mot denna bakgrund är expertfynd en särskilt relevant uppgift: att identifiera och välja ut individer med särskild sakkunskap, till exempel för att hjälpa till med en uppgift eller lösa ett problem. Expertfynd har tagits upp ur olika synvinklar, bland annat kompetenssökning, som huvudsakligen är systemcentrerad, och kompetenssökning, som studerar mänskliga aspekter. Målet med expertsökning är att stödja sökandet efter experter med hjälp av informationsinsamlingsteknik. I enlighet med det experimentella paradigm och utvärderingsramverk som inrättats i informationsinsamlingsgemenskapen har expertsökning tagits upp i de globala utvärderingsinsatserna (Craswell, de Vries, & Soboroff, 2006). Lovande resultat har uppnåtts, särskilt i form av algoritmer och testsamlingar (Bailey, Craswell, Soboroff, & de Vries, 2007; Balog, 2008). Toppmoderna hämtningsalgoritmer modellexperter på grundval av de dokument som de är knutna till, och hämta experter på ett visst ämne med hjälp av metoder baserade på dokumenthämtning, såsom språkmodellering (Balog, Azzopardi, & de Rijke, 2009; Balog, Soboroff, et al., 2009). I utvärderingar av dessa algoritmer har användaraspekter tagits bort. Medan forskning om kompetenssökning främst har fokuserat på att identifiera goda aktuella matchningar mellan behov av expertis och innehållet i dokument som förknippas med kandidatexperter, beteendestudier av mänsklig expertis söker har funnit att det kan finnas viktiga ytterligare faktorer som påverkar hur människor lokaliserar och väljer experter (Woudstra & Van den Hooff, 2008); sådana faktorer inkluderar tillgänglighet, tillförlitlighet, fysisk närhet, och up-dateness. Vi kallar dessa kontextuella faktorer för att skilja dem från innehållsbaserade faktorer som har undersökts i tidigare arbete (diskuteras senare). Sammanhang kan anses omfatta många dimensioner, inklusive faktorer relaterade till organisationen, informationssökande, informationsobjekt, arbetsuppgift, sökuppgift och så vidare (jfr. Cool & Spink, 2002; Ingwersen & Järvelin, 2005; Kelly, 2006), men här fokuserar vi på en specifik dimension: kontextuella faktorer relaterade till informationsobjekt, i våra fall-experter. Andra element kan spela en roll, men deras inverkan kan inte studeras i vårt upplägg: uppgift, organisation och informationssökningssystem är fasta; individuella skillnader mellan informationssökande lämnas utanför vårt övervägande. Vårt mål i den här artikeln är att utforska integreringen av kontextuella faktorer i innehållsbaserade hämtningsalgoritmer för att hitta liknande experter. Vi tittar på detta problem i samband med inrättandet av PR-avdelningen vid ett universitet, där kommunikationsrådgivare anställda vid universitetet får förfrågningar om aktuella experter från media. Det specifika problemet vi tar itu med är: Den högsta expert som identifierats av en kommunikationsrådgivare som svar på en begäran är inte tillgänglig på grund av möten, semestrar, sabbatsår, eller andra skäl. I detta fall, kommunikationsrådgivare måste rekommendera liknande experter, och detta är inställningen för vår expert hitta uppgift. Utifrån denna uppgift tar vi upp tre huvudsakliga forskningsfrågor: • Vilka kontextuella faktorer påverkar (mänskliga) beslut när vi hittar liknande experter i den universitetsmiljö vi studerar? • Hur kan sådana faktorer integreras i innehållsbaserade algoritmer för att hitta liknande experter? • Kan integrering av kontextuella faktorer med befintliga, innehållsbaserade metoder förbättra hämtningsförmågan? För att besvara våra forskningsfrågor går vi vidare enligt följande. Genom en uppsättning enkäter som fylls i av ett universitets kommunikationsrådgivare identifierar vi kontextuella faktorer som spelar en roll i hur liknande experter identifieras i denna situation, och vi konstruerar ett testdataset för att utvärdera hämtningsprestanda. Vi utvärderar både innehållsbaserade tillvägagångssätt och tillvägagångssätt där vi integrerar kontextuella faktorer. Artikelns bidrag är trefaldigt. För en specifik expertsökningsuppgift lyckas vi identifiera faktorer som människor använder för att välja ut liknande experter. Vi modellerar flera identifierade faktorer och integrerar dessa med befintliga, innehållsbaserade metoder för att hitta liknande experter. Vi visar att våra nya modeller avsevärt kan överträffa tidigare tillvägagångssätt. Våra resultat visar att det är möjligt att identifiera och modellera kontextuella faktorer i den studerade uppgiften att hitta liknande experter, och vi tror att detta kan vara fallet även för andra hämtningsuppgifter. Resten av artikeln är organiserad enligt följande. Vi ger först bakgrundsinformation om mänsklig kompetenssökning och kompetenssökning. Därefter beskriver vi vår strategi, inklusive de metoder som används för datainsamling, hämtningsmodeller och hämtningsutvärdering. Därefter ges och diskuteras våra resultat. Slutligen lägger vi fram slutsatser och skisserar det framtida arbetet. Forskning om hur man på ett effektivt sätt kan dela med sig av expertis kan spåras tillbaka till åtminstone 1960-talet när studier inom biblioteks- och informationsvetenskap undersökte vilka källor till informationskunskap som forskare och ingenjörer använder (Menzel, 1960). Senare arbete har identifierat komplexa informationssökande strategier som bygger på en mängd olika informationskällor, inklusive mänskliga experter (Hertzum, 2000; Rosenberg, 1967). Från resultaten av denna forskning (och andra influenser) växte insikten om att de anställdas kompetens är ett stort värde av en organisation och att effektivt kunskapsutbyte kan leda till materiella vinster (Davenport & Prusak, 1998; Sprull & Kiesler, 1996; Wiig, 1997). Området kunskapshantering utvecklades med målet att använda kunskap inom en organisation så väl som möjligt. Ett fokus låg på att utveckla informationssystem som kunde stödja sökandet efter kompetens. De första strategierna var främst inriktade på hur man kunde förena olika och olika databaser i organisationen till ett enda datalager som lätt kunde brytas (EKSGW'99 Workshop, 1999; Seid & Kobsa, 2000). Resultatverktyg förlitar sig på människor för att själv bedöma sina färdigheter mot en fördefinierad uppsättning nyckelord, och använder ofta heuristik som genereras manuellt baserat på nuvarande arbetspraktik. Trots de framsteg som hittills gjorts är frågan om hur man effektivt kan få tillgång till sakkunskap långt ifrån löst, och den behandlas fortfarande ur olika synvinklar. Inom människocentrerad forskning, som vi kallar kompetenssökning, har ett av målen varit att utveckla beskrivande och normativa modeller för hur mänskliga informationskällor används. En del av detta arbete utgör grunden för vår undersökning, eftersom det hjälper oss att identifiera de faktorer som spelar en roll när det gäller att hitta liknande experter i den miljö vi studerar. Vi presenterar ett urval av arbeten som är relevanta för den här artikeln i nästa avsnitt. I systemcentrerat arbete, för vilket vi använder termen kompetenssökning, har ett fokus legat på utveckling av effektiva hämtningsalgoritmer. Detta arbete utgör grunden för hämtningsaspekterna i vår studie, inklusive den innehållsbaserade grundläggande hämtningsalgoritmen, relevansbedömning och utvärderingsmetodik. En översikt över det senaste arbetet inom detta område ges senare. Av den människocentrerade forskning som vi kallar kompetenssökning är vi särskilt intresserade av modeller för hur människor väljer en expert. De mest relevanta är modeller som identifierar specifika faktorer som kan spela en roll. Vi måste kunna identifiera ganska specifika faktorer så att vi kan modellera dessa och integrera dem i en återvinningsmodell. Flera studier har identifierat faktorer som kan spela en roll i beslut av vilken expert att kontakta eller rekommendera. I en studie av förtroende-relaterade faktorer i expert rekommendation, Heath, Motta, och Petre (2006) fann att erfarenhet och opartiskhet av experten kan spela en roll, och kan dessutom vara beroende av en uppgift kritiskitet och subjektivitet. Borgatti och Cross (2003) visade att kunskap om en experts kunskap, värdering av denna kunskap, och att kunna få tillgång till en experts kunskap inflytande som experter söker kontakt efter hjälp. Skillnader mellan arbetsuppgifter när det gäller mängden och motivationen för expertsökning, samt vilken typ av verktyg som används indikerar en möjlig påverkan av arbetsuppgifter. Användningen av information om sociala nätverk förväntas gynna expertsökning baserad på domänanalys (Terveen & McDonald, 2005), och användarna är mer benägna att välja expertis sökresultat som inkluderar social nätverksinformation (Shami, Ehrlich, & Millen, 2008). Woudstra och Van den Hooff (2008) fokuserade på faktorer som rör kvalitet och tillgänglighet vid källval (dvs. uppgiften att välja vilken expertkandidat som ska kontaktas i en viss situation). Kvalitetsrelaterade faktorer är tillförlitlighet och aktuellhet hos experten; tillgänglighet innefattar fysisk närhet och kognitiv ansträngning som förväntas när man kommunicerar med experten. Dessa faktorer identifieras i en studie av informationssökande uppgifter som utförs på deltagarnas arbetsplatser. Studien följer ett tankerikt protokoll, och betydelsen av enskilda faktorer bedöms genom beräkning av hur ofta de nämns när experter utvärderas. Vi listar de faktorer som identifierats av Woudstra och Van den Hooff (2008) i tabell 1. Kvalitetsrelaterade faktorer (Factors 1-4) verkar vara de viktigaste medan förtrogenhet (Factor 10) också verkar spela en roll. Vi använder de faktorer som de identifierat som grunden för att identifiera kontextuella faktorer i vår studie. Ytterligare bevis på nyttan av enskilda kontextuella faktorer (t.ex. information om sociala nätverk) tillhandahålls av system som tillämpar expertsökning, men eftersom dessa system vanligtvis inte utvärderas direkt när det gäller hämtningsprestanda kan enskilda faktorers bidrag inte lätt bedömas. Svar Garden 2 är ett distribuerat hjälpsystem som innehåller en expert-finnande komponent (Ackerman & McDonald, 2000). Förutom aktuella matcher, systemet implementerar ett antal heuristik som befunnits användas i mänsklig expertis söker, såsom "stanna lokalt" (dvs. först be medlemmar i samma grupp) eller medarbetare. Denna heurism kan vara relaterad till faktorer som förtrogenhet och tillgänglighet. K-net är inriktat på att förbättra utbytet av underförstådd kunskap genom att öka medvetenheten om andras kunskap (Shami, Yuan, Cosley, Xia, & Gay, 2007). Systemet använder information om sociala nätverk, befintliga färdigheter och nödvändiga färdigheter hos en person, som uttryckligen tillhandahålls av användarna. Den SmallBlue systemet minerar en organisations elektroniska kommunikation för att ge expert profilering och expertis hämtning (Ehrlich, Lin, & GriffithsFisher, 2007). Både textinnehåll i meddelanden och information om sociala nätverk (mönster för kommunikation) används. Systemet utvärderas i termer av användbarhet och användbarhet. Slutligen redogjorde Liebregts och Bogers (2009) för utvecklingen och den systematiska utvärderingen av ett expertsystem. Författarna utförde systembaserad, expertbaserad och slutanvändarutvärdering och visade att kombination av olika källor av expertbevis förbättrar söknoggrannheten och hastigheten. Expertishämtning syftar till att utveckla algoritmer som kan stödja sökandet efter expertis med hjälp av informationsinsamlingsteknik. Ämnet har tagits upp vid expertinsamlingen av företagsspåret, som pågick mellan 2005 och 2008 vid den årliga textåterhämtningskonferensen (Bailey, Craswell, de Vries, & Soboroff, 2008; Bolog, Soboroff, et al., 2009; Craswell, de Vries, & Soboroff, 2006; Soboroff, de Vries, & Crawell, 2007). Den specifika uppgiftsuppställningen och utvärderingen av expertinsamlingsuppgiften vid TREC har förändrats över tiden. Målet var att utforma en uppgift som återspeglar verkliga expertfynd så bra som möjligt samtidigt som man tar hänsyn till begränsningar när det gäller tillgängliga data och resurser för relevansbedömning. Under de första två åren, var uppgiften baserad på W3C-samlingen, bestående av en crawl av webbplatsen w3c.org, plattformen för W3C, 2005). Under 2005 var uppgiften att förutsäga medlemskap i expertgrupper, med tanke på gruppens namn som expertområde. Sanningens grunddata för denna uppgift fanns i corpus. Under 2006 skapades och bedömdes ämnen av uppgiftsdeltagarna. Ämnena liknade ad hoc-ämnen. Systemen var tvungna att återsända kandidatexperter och styrkande dokument, och expertis bedömdes av deltagarna på grundval av dessa styrkande dokument. År 2007 utvecklades en ny samling baserad på de intranätsidor som Commonwealth Scientific and Industrial Research Organization (CSIRO; Bailey m.fl., 2007). Syftet med att använda denna samling var att utvärdera kompetenssökning och företagssökning inom ramen för en realistisk arbetsuppgifts-vetenskapskommunikatörer inom CSIRO utvecklade ämnen och lämnade relevanta bedömningar. Denna inställning är närmast den som används i den här artikeln. Under 2008 användes samma samling och ämnen skapades och bedömdes av deltagarna. Expertis hämtning experiment vid TREC har uteslutande fokuserat på expertis fynd (dvs., med tanke på ett ämne, hitta experter på ämnet). Andra uppgifter som har undersökts är expertprofilering (dvs., med tanke på en person, lista de områden där han eller hon är expert) och hitta liknande experter (dvs., givet en person, returnera liknande experter). Utöver TREC-samlingarna introducerades UvT-kollektionen av Balog, Bogers, Azzopardi, de Rijke och van den Bosch (2007). Det representerar ett typiskt intranät av en stor organisation. I detta sammanhang finns en relativt liten mängd rena, flerspråkiga uppgifter tillgängliga för ett stort antal experter. Denna samling används i vår studie (diskuteras senare). Den uppgift som behandlas i den nuvarande artikeln är att hitta liknande experter, och först formulerades och togs upp i Balog och de Rijke (2009): En expertsökning uppgift som ett litet antal exempel experter ges, och systemets uppgift är att returnera liknande experter. Balog och de Rijke definierade, jämförde och utvärderade fyra sätt att företräda experter: genom sina samarbeten, genom de dokument som de är knutna till, och genom de termer med vilka de är associerade (antingen som en uppsättning diskriminerande termer eller som en vektor för termer vikter). Likhet mellan experter beräknas med hjälp av Jaccard koefficient och cosinus likhet. Senare kommer vi att använda dessa metoder och utöka dem med representationer av experter baserade på självförsörjande profiler för att bilda våra basmodeller. En utmaning i innehållsbaserad expertsökning är att systemen måste gå längre än dokumenthämtning, eftersom de är skyldiga att hämta enheter istället för dokument. Bevis från dokument används för att uppskatta sammanslutningar mellan experter och dokument eller experter och ämnen (Balog et al., 2006; Balog, Azzopardi, & de Rijke, 2009 ). Få algoritmer har föreslagits som tar hänsyn till faktorer utöver textdokumentens innehåll. Genom att utöka bevisen på sakkunskap utöver de dokument som är direkt knutna till en expertkandidat införde Serdyukov, Rode och Hiemstra (2008) grafbaserade algoritmer som sprider bevis på sakkunskap via flera steg av relaterade dokument och experter. Detta tillvägagångssätt liknar de sökstrategier som observerats i fallstudier av expertis söker: Människor kedja bevis på expertis, hitta experter via dokument och andra experter (Hertzum, 2000). Efter en liknande intuition använde Karimzadehgan, White och Richardson (2009) information från grafer som representerar en organisatorisk hierarki för att berika information om anställda om vilka lite information är känd. De visade att människor som är nära i termer av den organisatoriska hierarkin vanligtvis har liknande expertis, och att detta kan utnyttjas för att förbättra hämtningen prestanda. Amitay m.fl. (2008), Balog och de Rijke (2009), Jiang, Han och Lu (2008) samt Serdyukov och Hiemstra (2008) undersökte webben som en källa till ytterligare sakkunskap. Amitay m.fl. fokuserad på bevis som kan erhållas från Web 2.0-program som sociala bokmärken och bloggar. Serdyukov och Hiemstra utforskade systematiskt olika typer av webbbevis med hänsyn till lokala, regionala och globala bevis, och källor från den allmänna webben, såsom specifika typer av dokument, nyheter, bloggar och böcker. Serdyukov och Hiemstra fann att användningen av fler beviskällor vanligtvis resulterar i bättre ranking. Balog och de Rijke fann att korta textsnuttar som returneras av en webbsökmotor kan användas effektivt för att generera expertprofiler. I detta avsnitt presenterar vi de experiment som vi har designat för att ta itu med våra forskningsfrågor. Vi beskriver först i vilken miljö våra experiment genomfördes, följt av den datainsamlingsmetod som används för att identifiera kontextuella faktorer och för att skapa en testdatauppsättning som används för att utföra expertis-återkommande experiment. Därefter beskriver vi våra kompetensåterhämtningsmodeller: de innehållsbaserade modellerna som utgör vår baslinje och de principer som används för att modellera och integrera kontextuella faktorer. Slutligen beskriver vi de åtgärder som används för att utvärdera våra hämtningsmodeller och metoder som används för parameteruppskattning. Den arbetsuppgift som vi fokuserar på är att hitta liknande experter inom ramen för PR-avdelningen vid Tilburg University. Universitetet har 6 kommunikationsrådgivare, 1 ansvarig för universitetet som helhet och 1 rådgivare för var och en av fakulteterna nationalekonomi och företagsekonomi, juridik, social- och beteendevetenskap, humaniora och teologi (jfr. Tabell 2 ).............................................................................................................. Vanligtvis tar kommunikationsrådgivare emot förfrågningar från media om att hitta experter på specifika ämnen. Sådana förfrågningar kommer till exempel från tidningar och radioprogram som vill ha snabba men informerade reaktioner på aktuella händelser, eller från tidskrifts- och tidningsförlag som behöver mer ingående kunskap för att kunna ta fram specialnummer eller artiklar om ett visst bredare tema. Att hitta den bästa experten för varje begäran är inte alltid trivialt: Experten i fråga kan inte vara tillgänglig på grund av möten, semestrar, sabbatsår, eller andra skäl. I detta fall måste kommunikationsrådgivare rekommendera liknande experter. Detta är den situation som vi fokuserar på i vår artikel: Vad liknande experter bör rekommenderas om den bästa experten är Den dokumentsamling vi använder för våra experiment är den befintliga UvT Expert Collection 2, som utvecklades för expertsökning och expertprofilering uppgifter. Denna samling är baserad på en krypning av ett expertsystem, WebWijs, som används vid Tilburg University. WebWijs 3 är en allmänt tillgänglig databas över universitetsanställda som är involverade i forskning eller undervisning. Detta omfattar till exempel professorer, teknisk personal och stödpersonal, postdoktorer och andra forskare samt doktorander. Var och en av de 1 168 experterna i WebWijs har en sida med kontaktuppgifter och, om den görs tillgänglig av experten, en forskningsbeskrivning och publikationslista. Dessutom kan varje expert själv bedöma sina kompetensområden genom att välja från en lista över 1 491 kunskapsområden, och uppmuntras att föreslå nya kunskapsområden som läggs till efter godkännande av WebWijs redaktör. Kunskapsområden är organiserade i en aktuell hierarki, och varje kunskapsområde har en separat sida tillägnad det som visar alla experter som är knutna till detta område och, om tillgängligt, en lista över relaterade områden. För våra experiment har vi utökat samlingen med ämnen och relevanssbetyg för uppgiften att hitta liknande experter. Ytterligare en resurs som vi använder för våra experiment är medielistan som finns på Tilburg University. Denna lista sammanställs årligen av universitetets kansli för offentliga och externa frågor. Denna lista rankar forskare efter medieframträdanden, med olika medietyper som har en annan påverkan på poängen. I detta program får media hits mellan 1 och 6 poäng, med omnämnanden i lokala tidningar som får 1 poäng, och internationella TV-framträdanden får 6 poäng. Vi ansåg att medierankningen för de tre åren (2005) (2006) (2007) var tillgänglig för oss och samlade in genomsnittet och den totala mediepoängen för varje expert på dessa listor. Datainsamlingen tjänade två syften: a) att få insikt i de faktorer som spelar en roll när människor beslutar om liknande experter i den studerade miljön och b) att konstruera en testuppsättning för 2 http://ilk.uvt.nl/uvt-expert- collection/ 3 http://www.uvt.nl/webwijs/ evaluation of our liknande expert finding models using standard hämtning- evaluation methods. Alla 6 kommunikationsrådgivare vid Tilburg University deltog i vår studie. Uppgifterna samlades in genom ett tryckt frågeformulär som fylldes i av deltagarna i deras normala arbetsmiljö och returnerades per post. Denna uppsättning valdes eftersom den ansågs kräva minst ansträngning för kommunikationsrådgivare, vars tid var begränsad för att delta i studien. En kopia av frågeformuläret finns i bilagan. Observera att studien genomfördes på holländska, deltagarnas modersmål, men här tillhandahåller vi en engelsk översättning. Frågeformuläret bestod av tre delar: a) bakgrundsinformation, b) relevansbedömning och c) uttrycklig bedömning av kontextuella faktorer. I den första delen ombads deltagarna att få bakgrundsinformation om sin arbetsfunktion, sina dagliga aktiviteter och vilka informationskällor de vanligtvis konsulterar i sin dagliga verksamhet. De tillfrågades också om hur ofta de fick förfrågningar om experter, för att ge exempel på sådana förfrågningar och för att förklara hur dessa vanligtvis behandlas. Den andra delen av frågeformuläret inriktades på att få fram relevanta bedömningar för liknande expertuppdrag och de faktorer som påverkar dessa beslut. För att identifiera orsakerna till deltagarnas beslut om relevans ställde vi tre uppföljningsfrågor för varje utvärderat ämne: "Varför skulle du rekommendera denna expert?" "Varför rangordnade du experter på det här sättet?" "Varför gav du den lägsta poängen till den här experten?" Frågor formulerades som öppna frågor för att vi skulle kunna upptäcka nya faktorer. I den tredje delen av frågeformuläret uppmanades deltagarna att uttryckligen bedöma hur dessa faktorer påverkar deras rekommendationsbeslut. Vi använde en 4-punkts liknande skala och de faktorer som identifierades i Woudstra och Van den Hooff (2008) (diskuteras tidigare, se tabell 1 ). Observera att del 3 i frågeformuläret endast lades till en gång i slutet av frågeformuläret (dvs. när alla relevanta bedömningar gjordes och öppna frågor besvarades), så att bedömarna inte skulle bli partiska av att se faktorerna. Som tidigare förklarats var den andra delen av det frågeformulär i tre delar som användes för insamling av uppgifter inriktad på att få relevanta bedömningar för vårt test. I vår inställning, testuppsättningen består av en uppsättning par (målexpert, lista över liknande experter), så "testämnen" är experter för vilka liknande experter behöver hittas. Dessa testämnen utvecklades på följande sätt. För varje kommunikationsrådgivare valde vi ut de 10 topprankade medarbetarna från sin fakultet utifrån de medielistor som universitetets PR-avdelning tagit fram (diskuterade tidigare). För 1 fakultet innehöll medielistan endast 6 anställda och 2 medarbetare var medlemmar i två fakulteter. För den universitetsomfattande kommunikationsrådgivaren, JURNAL AV AMERIKANSKA SAMHÄLLET FÖR INFORMATIONSVETENSKAP OCH TEKNIK 5 DOI: 10.1002/asi de 10 bästa anställda vid hela universitetet valdes. 4 Totalt har 56 testämnen skapats; dessa inkluderade 12 dubbletter, vilket lämnar oss med 44 unika testämnen. För varje testämne fick vi två typer av relevansbedömning från kommunikationsrådgivare. För det första bad vi (lämpliga) rådgivare att ta fram en eller flera liknande experter, tillsammans med skälen till rekommendationerna och de informationskällor som användes eller skulle användas för att besvara denna begäran (jfr. Bilagor till frågorna II.1-3. För det andra (på en separat sida i frågeformuläret) bad vi lämplig(a) rådgivare att bedöma likheten mellan en förteckning över 10 systemrekommenderade experter som en ersättning på en skala från 1 (minst sannolikt att rekommendera) till 10 (mest sannolikt att rekommendera; se. Bilagor till frågorna II.4–5. Denna förteckning över tio systemrekommenderade experter per testämne sammanställdes från tre olika körningar, vilket motsvarar de tre ämnescentrerade baslinjekörningar (DOCS, TERMS, OMRÅDEN) som beskrivs i nästa avsnitt. Deltagarna ombads sedan att motivera sina kreditvärderingsbeslut (som beskrivits tidigare). Vi valde att samla in de två typerna av relevanta bedömningar för att identifiera eventuella uppenbara kandidater som baslinjekörningarna saknades. Ordningen för att presentera de två frågorna valdes för att undvika partiskhet genom namnlistan. Expertrelevansbedömningarna konstruerades därefter på följande sätt: De betyg som deltagarna lämnade på de tio experter som förtecknas i bilaga II.4 användes som relevansbedömningar för varje testämne. Liknande experter som endast nämndes som svar på fråga II.1 men inte i topp-10-listan över fråga II.4 fick den högsta relevanta bedömningen på 10 (om de nämndes i båda frågorna, användes den rang som anges i fråga II.4). Experter som inte var betygsatta eller inte anställda vid universitetet längre togs bort. För de tolv dubbla testämnena var de två kommunikationsrådgivarenas betyg genomsnittliga och avrundade för att ta fram en enda uppsättning relevanta bedömningar för varje ämne. För att uppskatta relevansbedömningarnas tillförlitlighet jämför vi bedömningar av de 12 överlappande ämnena. Den procentuella överenskommelsen mellan notatorer är 87 % om vi beaktar två klasser: topprankade experter (dvs. betygsätts som "10") anses relevanta; alla andra kreditbetyg anses inte relevanta. I detta fall är Cohens δ 0,674, vilket tyder på ett betydande avtal (jfr. Landis & Koch, 1977). I hälften av fallen föreslog dessutom båda notatorerna oberoende av varandra samma expert (dvs. innan vi såg vår förslagslista). Detta relativt höga avtal kan tyda på att deltagarna lätt kan identifiera ett litet antal liknande experter. Överenskommelse på finare granularitet (dvs. när man betraktar varje rank som en klass) är svårt att fastställa på grund av låg överlappning mellan rankningar (Vissa kandidater var inte rangordnade när deltagarna inte kände sig bekväma betyg en kandidat), men är i allmänhet lägre än på den högsta rankningen. 4 Vi använde den senaste versionen av listan som var tillgänglig för oss (Covering 2006; uppviglingsarbetet ägde rum i början av 2008); detta gjordes för att se till att kommunikationsrådgivare skulle känna till testämnena och kunna föreslå en liknande expert. Utgångsvärden. Som vår utgångspunkt för att hitta liknande experter, vi anser innehållsbaserad likhet endast, utelämnar alla kontextuella faktorer. För att beräkna innehållsbaserad likhet representerar vi medarbetare genom det innehåll som är förknippat med dem. Vi överväger två källor: a) dokument kopplade till dessa experter och b) de expertområden som experter manuellt valde för sin kompetensprofil i WebWijs. Dessa två informationskällor återspeglar de två typer av källor som vanligtvis finns tillgängliga i stora organisationer och som tidigare har använts för expertexperiment. Den första, dokument associerade med en expert, kan erhållas från e-post eller dokument-version system, eller föreningar kan härledas från personer namn som nämns i dokument. Denna typ av information har varit huvudfokus för experiment i TREC Enterprise uppgift (Bailey et al., 2007). Den andra informationskällan är representativ för data-inkvarteringssystem där anställda måste selfassessing sina färdigheter (Seid & Kobsa, 2000). Liknande information kan utvinnas från publikationer där författare själv väljer aktuella områden från en taxonomi som ACM Computing Classification System. 5 Från de två informationskällor som vi har tillgängliga, mäter vi (innehållsbaserad) likhet av två experter med hjälp av följande tre representationer: Detta är den uppsättning av kunskapsområden som manuellt valts ut av expert e från en ändlig uppsättning fördefinierade kunskapsområden. Med hjälp av de representationer som beskrivits tidigare konstruerar vi funktionen sim T (e, f) på [0, 1] som motsvarar graden av innehållsbaserad likhet mellan experter e och f (tabell 3). För de set-baserade representationerna [D(e, K(e)] beräknar vi Jaccard-koefficienten. Likheten mellan vektorer för termfrekvenser [t(e)] uppskattas med hjälp av cosinusavståndet. De tre metoderna för att mäta likheter på grundval av de tidigare angivna representationerna kallas DOCS, TERMS respektive OMRÅDEN. Metoder DOCS och TERMS tas från Balog och de Rijke (2007) medan OMRÅDEN motiveras av de data som görs tillgängliga i WebWijs. Eftersom våra likhetsmetoder är baserade på två källor (dvs. dokument och kunskapsområden) förväntar vi oss att kombinationer kan leda till förbättringar jämfört med enskilda metoders prestanda. Frågan om hämtningsrun kombinationer har en lång historia, och många modeller har föreslagits. Vi anser att ett särskilt val är Fox och 5 CF. http://www.acm.org/about/class; liknande taxonomier finns för de flesta vetenskapliga discipliner. (e, f) = "D(e)" D(f) och "D(e)" D(f) TERMS-dokument vektor: t(e) sim TERMS (e, f) = cos(t(e), t(f)) Shaws (1994) kombinationskamSUM-regel, även kallad linjär kombination. I denna modell består totalpoängen av den viktade summan av individuella poäng. I de fall då viktsummorna uppgår till 1 motsvarar detta det viktade genomsnittet av individuella poäng. Optimala vikter uppskattas empiriskt (diskuteras senare). Eftersom en anställd e, vi beräkna övergripande innehållsbaserade likhetspoäng sim T (e, f) (för kandidater f ) som den viktade summan av enskilda innehållsbaserade likhetspoäng sim T i : där w i betecknar vikten och sim T i är likhetspoäng enligt metod T i som definieras i tabell 3. Utöver den innehållsbaserade likhetspoäng som definierats tidigare, modellerar vi kontextuella faktorer som visar sig påverka mänskliga beslut på vad liknande expert att rekommendera. Vårt mål är att optimera rangordningen av kandidatexperter genom att ta hänsyn till ytterligare information från dessa faktorer. När vi identifierar vilka kontextuella faktorer som spelar en roll i människors beslut att rekommendera experter vet vi inte exakt hur dessa faktorer påverkar beslutet och därmed hur de ska modelleras. Därför utforskar vi flera principiella sätt att modellera och kombinera dessa faktorer, som var och en kan återspegla hur dessa faktorer fungerar. Vi överväger två sätt att modellera dessa faktorer: a) inputberoende och b) input-oberoende. I det förra fallet är en kandidat f's kontextuella poäng beroende av egenskaper hos den person och för vilken liknande experter söks. I det senare fallet beräknar vi en kontextuell poäng för en kandidat expert f oberoende av (input) person e. I båda modellerna, den kontextuella poäng en kandidat expert f kombineras med innehållsbaserade likhet poäng sim T (e, f ) definieras tidigare. Input-beroende modellering av kontextuella faktorer. Modelleringsfaktorer på ett indataberoende sätt innebär att vi modellerar en faktor som ett likhetsmått. Detta alternativ liknar de innehållsbaserade baslinjemodeller som tidigare diskuterats i den meningen att likheten mellan experter uppskattas med hjälp av avstånd i vissa funktionsrymder. Funktionerna är utformade för att återspegla de kontextuella faktorer som visar sig spela en roll i att rekommendera liknande experter (diskuteras tidigare och igen i avsnittet Resultat). Man kan till exempel anta att två anställda som ingår i samma forskargrupp kan rekommenderas som liknande experter. En enkel modell skulle kunna tilldela en likhetspoäng på 1 om de två arbetena i samma grupp, och en poäng på 0 om de arbetar i olika grupper. Mer formellt, med tanke på en expert e och en kandidat f, bestämmer vi input-beroende likhet poäng sim D i (e, f) mellan dessa experter i termer av den kontextuella faktorn C i. För faktorer med nominella värden, vi ställer in likheten till 1 om värdena är lika, och till 0 om de skiljer sig: där C i (·) betecknar värdet för den kontextuella faktorn C i. Om faktor C i är numerisk, bestämmer vi likhetspoängen baserat på den absoluta skillnaden mellan de normaliserade värdena av C i : där C i min och C i max är de minsta och högsta värdena av faktor C i, så att sim D i (e, f) till [0, 1]. Den slutliga indataberoende kontextuella likhetspoängen är den linjära kombinationen av innehållsbaserade och kontextuella likhetspoäng: där w i, j betecknar vikterna för individuella innehållsbaserade och kontextuella likhetsmetoder, fastställda genom en serie experiment (dicuserade senare). Här modellerar vi kontextuella faktorer oberoende av den expert för vilken vi söker liknande experter, vilket innebär att vi antar att kandidater med vissa egenskaper är mer benägna att rekommenderas som en liknande expert. Till exempel kan en person med en lång publikationslista anses vara mycket tillförlitlig, vilket kan öka den totala risken för att denne person rekommenderas som expert. Vi antar oberoende av de individuella kontextuella faktorer C i och sätta där w i betecknar vikten av den innehållsbaserade likhetsmetoden i och w j betecknar vikten av kandidat expert f's poäng med tanke på värdet av den kontextuella faktorn C i. Observera att antagandet om oberoende görs för förenkling, men kanske inte alltid är realistiskt. Vi modellerar poäng C i (f ) som sannolikheten för f rekommenderas som en expert villkorad på C i : där E betecknar händelsen att en kandidat f rekommenderas som expert, och P[C i (f)) betecknar sannolikheten för att observera värdet C i (f) för den angivna kontextuella faktorn. beräknas från de frekvenser som observerats i data. För nominella kontextuella faktorer är det enkelt att få frekvenserna. För numeriska värden, vi först diskretize faktorer med hjälp av oövervakad diskretization i 10 lika stora bins och sedan få räkningar per bin. Således approximerar vi sannolikheten att en kandidat f rekommenderas som expert, givet ett observerat värde för kontextuell faktor C i genom att räkna antalet kandidater i ett specifikt intervall som har rekommenderats som en liknande expert, dividerar detta med antalet kandidater i detta intervall. För att undvika delning med noll, tillämpar vi den vanliga Laplace uppskattningen (dvs. vi initierar alla räknas till 1). Vi använder tre mätvärden för att utvärdera uppgiften att hitta liknande experter: Expert Coverage (ExCov), Mean Reciprocal Rank (MRR), och Normalized Discounted Cumulated Gain (NDCG). ExCov är den procentandel av målexperter för vilka en algoritm kunde generera rekommendationer. På grund av databrist kan det hända att en algoritm för att hitta experter inte alltid kan generera en förteckning över liknande experter (t.ex. om målexperten inte valde ut några expertområden). Vid utvärdering av rekommenderade system mäts detta vanligtvis genom täckning (Herlocker, Konstan, Terveen, & Riedl, 2004). MRR definieras som inversen av rangen för det första återvunna relevanta resultatet (i vårt fall, "expert"). Eftersom kommunikationsrådgivare sannolikt inte rekommenderar mer än en alternativ expert om den bästa experten inte är tillgänglig, är det av största vikt att uppnå hög noggrannhet i den högsta rangen. Dessutom visar våra experiment att mänskliga domare uppnår hög enighet om vem de skulle rekommendera som den mest lämpliga liknande experten (diskuteras tidigare). Därför kommer vi att använda MRR som vårt primära mått på prestanda. NDCG är en IR-åtgärd som jämför rangordnade listor och kreditmetoder för deras förmåga att hämta mycket relevanta resultat i topprankning. Vi använder NDCG i vår utvärdering eftersom enkätdeltagarna ombads att betygsätta de rekommenderade experterna på en skala från 1 till 10. Dessa betyg motsvarar 10 grader av relevans, som sedan används som vinstvärden. Vi beräknar NDCG enligt Järvelin och Kekäläinen (2002), som genomförs i trec_eval 8.1. 6 MRR och NDCG beräknas för alla experter, inklusive de för vilka likhetsmetoder resulterade i tomma förteckningar över rekommendationer. Med andra ord bidrar "felande namn" med ett värde på 0 till alla utvärderingsåtgärder. 7 Detta möjliggör en mer meningsfull jämförelse mellan metoder, eftersom alla poäng beräknas baserat på samma uppsättning av testämnen. Vi utvärderar våra kontextuella hämtningsmodeller mot en baslinje bestående av den optimala kombinationen av innehållsbaserade hämtningsmodeller. Significance testing mot denna baslinje utförs med hjälp av en parad, två-tailed Student's t test. Under hela artikeln, använder vi för att indikera körs som avsevärt överträffar baslinjen på 0,05 nivå. Vårt mål är att optimera parameterinställningarna för varje modell för hög MRR (vår primära utvärderingsmått). Som vanligt när mängden tillgängliga träningsdata är liten optimerar och utvärderar vi på samma träningsset. Observera att vårt mål inte är att avgöra om de optimala parameterinställningarna är generella för osynliga datauppsättningar. Snarare strävar vi efter att fastställa bästa möjliga prestanda för varje modell på tillgängliga data för att bestämma den övre gränsen för varje modell på dessa data. Vi jämför sedan dessa optimerade modeller. För ett litet antal parametrar, får vi optimala inställningar med hjälp av parameter svep. I de fall där antalet parametrar att uppskatta är stort (t.ex. >5) är detta tillvägagångssätt opraktiskt, eftersom ett uttömmande sökande efter optimala inställningar är exponentiellt i antalet parametrar. I dessa fall använder vi en enkel stigningsalgoritm för att approximera optimala inställningar i dessa situationer. Vi initierar slumpmässigt parametrarna, sedan varierar varje parameter mellan 0 och 1 med steg om 0,1. Vi väljer det värde för vilket målutvärderingsmåttet maximeras och fortsätter sedan med nästa parameter. Den ordning i vilken parametervärden optimeras är randomiserad, och vi upprepar optimeringsprocessen tills inställningarna har konvergerat. Eftersom denna algoritm är känslig för lokala maxima, upprepar vi denna process 200 gånger och väljer de vikter som resulterar i bästa prestanda. Vi presenterar våra resultat i tre underavdelningar som motsvarar våra tre forskningsfrågor. För det första analyserar vi de enkäter vi använde för att identifiera kontextuella faktorer som spelar en roll i den studerade miljön. Vi rekommenderar vilka av dessa faktorer som bör integreras med innehållsbaserade hämtningsmodeller för att ta itu med uppgiften att hitta liknande experter och utveckla modeller för dessa faktorer. Slutligen presenterar vi resultaten av utvärdering 6 Trec_eval programmet beräknar NDCG med ändringen att rabatten alltid log 2 (rank + 1) så att rank 1 inte är ett specialfall. 7 Detta motsvarar kör trec_eval med omkopplaren −c. 4. Vad är det som händer? Exempel på uttalanden, frekvensfördelning för uttalanden och deltagare som implicit nämner en faktor, och explicita viktklassificeringar (0 = inget inflytande, 3 = starkt inflytande) av nämnda faktorer. Faktorer markerade med * identifierades nyligen på grundval av uppgifterna. Deltagare Mdn Factor (med exempeluttalanden) (N = 354) (N = 6) betyg Kunskapens ämnesområde ("akademisk rekord", "har liten överlappning med den nödvändiga expertisen", "är endast i 44,5% 100% 3,0 en punkt liknande X: s expertis", "topicalally, de är nära", "works in the same area") *Organisationell struktur ("position inom fakulteten", "projektledare för PROJEKT", 24,4% 100% N/A "arbete för samma institut") Förtrogenhet ("känn henne personligen", "Jag känner inte någon av dem") 17,3% 83% 3.0 *Media erfarenhet ("erfarenhet med media", "en av dem är inte lämplig för att prata med media") 5,5% 33% N/A Tillförlitlighet ["minsta överlappning och erfarenhet", "senioritet i området", "är en universitetsprofessor (emeritus)" 3.1% 33% 3.0 Tillgänglighet ["bra alternativ för X och Y som inte arbetar här längre", "han är emeritutus 2,4% 66% 2.5 (även om han fortfarande kommer i en gång i en roll "Vitry of the thment") "Vitry and the I detta avsnitt analyserar vi kommunikationsrådgivarens svar på frågeformuläret. Vi ger en kort översikt över svaren på del 1 (bakgrundsinformation), men fokuserar sedan på delarna 2 och 3 (identifiera kontextuella faktorer) i frågeformuläret. Mängden förfrågningar om sakkunskap som vanligtvis tas emot och den tid som läggs på att besvara dessa förfrågningar varierar kraftigt mellan studiedeltagarna. Hälften av deltagarna får förfrågningar en till flera gånger i veckan. Den andra hälften rapporterade att de fått förfrågningar ungefär en gång i månaden. Att besvara förfrågningarna tar normalt mellan 5 och 15 minuter, men en deltagare rapporterade att besvara komplexa förfrågningar kan ta upp till flera timmar. Deltagarna använder en mängd olika källor för att hålla jämna steg med aktuell forskning inom sin institution. Alla deltagare nämnde direktkontakt med kollegor som informationskälla. Andra källor som nämns är pressmeddelanden, forskares webbplatser, projektbeskrivningar, beskrivningar av forskningsprogram och WebWijs-systemet. För att identifiera kontextuella faktorer som spelar en roll i expertrekommendationerna analyserade vi svaren på de öppna frågorna i del 2 i frågeformuläret, om varför specifika rekommendationsbeslut fattades. Dessa svar transkriberades och analyserades genom innehållsanalys. För det första delades svaren upp i uttalanden som uttryckte ett skäl vardera, vilket resulterade i 254 uttalanden. Dessa kodades självständigt av två av författarna. Kodningen baserades på det kodsystem som utvecklats av Woudstra och Van den Hooff (2008); ytterligare två faktorer, organisationsstruktur och medieerfarenhet identifierades och lades till kodsystemet (diskuterades senare). Interannotator-avtalet var 77,5 %, och det slumpkorrigerade avtalet Cohens var 0,697, vilket tyder på ett betydande avtal (jfr. Landis & Koch, 1977). Konflikter löstes genom diskussioner. Tabell 4 ger en översikt över frekvensfördelningen för de resulterande faktorerna och medianvärdet för varje faktor som mottagits när deltagarna uttryckligen ombads att gradera dessa faktorer. Ämnet kunskap nämndes oftast och nämndes av alla deltagare. Om vi antar att den frekvens med vilken en faktor nämns avser faktorns betydelse, då är ämnet det viktigaste. Andra ofta nämnda faktorer är förtrogenhet, och de nyligen identifierade faktorerna Organisatorisk struktur och Media erfarenhet. Fysisk närhet och Sparar tid nämndes inte av någon av deltagarna. Figur 1 möjliggör en mer detaljerad jämförelse av faktorer till följd av kodning av öppna svar ("implicit ratings") jämfört med de uttryckliga värderingar som samlas in i del 3 i frågeformuläret. Det råder enighet om alla deltagare och alla åtgärder att kunskapsämnet är den viktigaste faktorn, och kännedomen verkar också viktig enligt båda åtgärderna. Faktorer som verkar mindre viktiga enligt båda åtgärderna är Kognitiv ansträngning, Sparar tid, Approachability, och fysisk närhet. Frekvenserna av Organisatorisk struktur och Media erfarenhet kan inte jämföras med explicita betyg, eftersom de endast upptäcktes under analysstadiet. Vissa faktorer visar stora meningsskiljaktigheter i betydelse enligt implicit och explicit bedömning. Den största diskrepansen återfinns i up-to-dateness, som konsekvent uppfattades som ha ett starkt inflytande på expertrekommendationer, men nämndes nästan aldrig som en anledning till ett särskilt expertbeslut. Liknande skillnader finns mellan Tillförlitlighet, Tillgänglighet och Kontakter. Baserat på undersökningsresultaten utvecklar vi rekommendationer om vilka kontextuella faktorer som bör beaktas På grund av de stora skillnaderna mellan implicita och explicita bedömningar av dessa faktorer kan resultaten av utvärderingen av dessa faktorer i ett hämtningsförsök ge insikt i giltigheten hos de två metoder som används för att framkalla faktorer. Att närma sig, Kognitiv ansträngning, Fysisk närhet och Sparar tid verkar inte spela någon större roll i den studerade miljön och diskuteras inte vidare. Alla faktorer kan inte lätt modelleras. Vi diskuterar dessa aspekter för varje faktor; faktorer som kommer att ingå i uppföljningsförsöken markeras med "+" och de som inte kommer att övervägas ytterligare markeras med "−". För enkelhetens skull, för varje kontextuell faktor som tas upp i detta avsnitt, visar vi genomförandet av denna faktor på ett specifikt sätt, med undantag för tillförlitlighet för vilken vi anser både publiceringsprotokoll och position. För de faktorer som är modellerade beskriver vi deras specifika genomföranden C i f. Kom ihåg att vi överväger två typer av modeller: den input-beroende modellen beräknar likhetspoäng mellan expertkandidater och en given kandidat baserat på värdet av en kontextuell faktor C i (f) (jfr. Ekvationer 3-5). Den input-oberoende modellen uppskattar sannolikheten för att en kandidat rekommenderas som en liknande expert, återigen, baserat på värdet av kontextuell faktor C i (f) (jfr. Ekvationer 6 och 7). + Kunskapsämnet tas för att motsvara de innehållsbaserade likhetsåtgärder som presenterades tidigare. Detta tillvägagångssätt representerar experter baserade på a) de dokument som är knutna till dem (DOCS och TERMS) och b) de expertområden som manuellt valts ut av experterna själva (AREAS). Vi utgår från att de manuellt valda etiketterna är de mest representativa för en persons expertis, eftersom de kan betraktas som marksanningsetiketter. Dessutom rapporterade deltagare som deltog i vår användarstudie upprepade gånger att de använt överlappning inom ämnesområden som finns i WebWijs-systemet som grund för sina (topic-baserade) beslut om vem de ska rekommendera som en liknande expert. Vi inkluderar DOCS och TERMS eftersom dessa har använts för att fånga expertkunskap i tidigare arbete. + Organisatorisk struktur kan genomföras genom att man tar hänsyn till medlemskap i arbetsgrupper eller avdelningar. I vår miljö har vi information om den organisatoriska hierarkin ner till nivån av enskilda institutioner för hela universitetet och ner till projektgruppsnivå för en fakultet. Vi kan använda denna information för att filtrera bort experter från vissa fakulteter eller för att kompensera för data gleshet. I vårt nuvarande genomförande använder vi bara den högsta nivån i den tillgängliga organisatoriska hierarkin och betraktar den organisatoriska strukturen som ett nominellt mått: där fakulteten är en sträng, till exempel "FGW" (Faculteit Geesteswetenschappen-Humanities), "FRW" (Faculteit Rechtsgeleerdheid-Legal studier), eller "FEB" (Economie en Bedrijfswetenschappen-Ekonomics and Business studier). En anställd kan vara medlem av flera fakulteter. Således, i en input-beroende modell, denna faktor uttrycker om två medarbetare är en del av samma fakultet; i en input-oberoende modell, det uttrycker hur troligt någon är att rekommenderas som expert, med tanke på att de arbetar i en specifik fakultet. − Förtroendet skulle kunna förverkligas i miljöer där information om sociala nätverk finns tillgänglig, t.ex. e-postmönster eller annan elektronisk kommunikation (diskuteras tidigare). I vår miljö är denna typ av information för närvarande inte tillgänglig. + Information om medieerfarenhet kan hämtas från universitetets medielista (diskuteras tidigare). Dessa media hit räknas representerar en kvantifiering av media erfarenhet och kan till exempel tjäna som expert tidigare. Vi modellerar medieupplevelsen av en expert som summan av alla media poäng en kandidat har samlat: där media y (f) är den totala media utseende poäng expert f för år y. + Tillförlitlighet kan modelleras på olika sätt. Till exempel kan en lång publikationslista, eller positionen inom organisationen, tyda på att en expert är pålitlig. Vi har tillgång till båda genom data som kröp från WebWijs. Eftersom båda informationskällorna är lättillgängliga utvecklar vi två modeller för denna faktor. För det första använder vi akademiska publikationer för att uppskatta tillförlitligheten. I princip innebär en lång publiceringslista att en person har giltiga och trovärdiga kunskaper och kompetenser. Tillförlitlighet mäts sedan som det totala antalet publikationer av en kandidat f : där pub y f är antalet publikationer av expert f för år y. En andra möjlighet att bedöma en experts tillförlitlighet är hans eller hennes befattning inom universitetet eller, mer allmänt, organisationen. En professor kan till exempel vara mer benägen att betraktas som en pålitlig expert av en kommunikationsrådgivare än en doktorand. Denna faktor är modellerad som nominell. Således: där position är en sträng; till exempel, "Professor", "Lecturer", "PhD student." + Uppdatering kan modelleras genom att ge högre vikt åt nyare dokument som förknippas med en expert, t.ex. nyligen publicerade publikationer. En idealisk kandidat har inte bara trovärdig kunskap, utan denna kunskap är också ny. För att mäta detta, använder vi återigen publikationerna av människor, men här, senare publikationer får en högre vikt: där y 0 är innevarande år, och pub y i (f) är antalet publikationer av expert f och år i. Vi modellerar minskningen i påverkan av äldre publikationer med hjälp av en exponentiell viktfunktion med bas på. Denna parameter kan justeras för att justera hastigheten med vilken effekten av publikationer minskar. I våra experiment ställer vi in 0.7. − Perspektivet uttrycks ofta som en annan vinkel i samma ämne, till exempel rättsligt istället för ekonomiskt. Detta tyder på att titta på den organisatoriska strukturen är ett sätt att förhindra alltför olika perspektiv. Ett annat sätt att modellera denna faktor kan vara att överväga medförfattare, eftersom samverkande forskare kan förväntas ha ett liknande perspektiv på ett ämne. För närvarande har vi inga robusta sätt att uppskatta denna faktor. − Tillgänglighet kan inte modelleras med de data som för närvarande är tillgängliga för oss. Detta kan vara möjligt i system som är utformade för att öka effektiviteten i sociala processer, såsom medvetenhet om medarbetares arbetsbörda (Erickson & Kellogg, 2000). + En experts kontakter kan modelleras av system som har tillgång till information om sociala nätverk. Eftersom vi inte har tillgång till denna typ av data, modellerar vi denna faktor på grundval av medförfattare artiklar och samlade kurser. Vi antar att storleken på samarbetsnätverket är viktig, så detta är vad vi modellerar. Vi betraktar bara antalet medförfattare och kollektörer, dvs. antalet personer med vilka f har samförfattat en publikation eller gemensamt undervisat i en kurs. Formellt: där coauth(f) är antalet distinkta personer med vilka f har medförfattare ett dokument eller colectured en kurs. Sammanfattningsvis modellerar vi sex faktorer, två nominella (C org och C position ), och fyra numeriska (C media, C publikation, C uppdaterad, och C kontakter ). Resultaten av integreringen av dessa kontextuella faktorer med ett innehållsbaserat hämtningssystem ges i nästa avsnitt. Det här avsnittet innehåller resultaten av våra modeller på det tidigare beskrivna hämtningsexperimentet. Vi presenterar resultat för de innehållsbaserade baslinjemodellerna, och sedan för modellerna som integrerar kontextuella faktorer både på ett input-beroende sätt och på ett input-oberoende sätt. För varje modell visar vi resultat för enskilda faktorer och för optimala kombinationer av faktorer. Tabell 5 visar de experimentella resultaten för våra innehållsbaserade körningar: individuell prestanda för de tre individuella likhetsmetoderna DOCS, TERMS och OMRÅDEN (se tabell 3 ), och viktade kombinationer av dessa. Vi bildar två kombinationer: BL-MRR är en baslinjekombination av alla innehållsbaserade metoder med vikter optimerade för MRR, och BL-NDCG är en baslinjekombination optimerad för NDCG, som beskrivits tidigare. Senare jämför vi de kontextuella modellerna mot dessa två baslinjer. Av de tre innehållsbaserade likhetsmetoderna presterar OMRÅDEN bäst både när det gäller MRR och NDCG. Denna metod uppnår en MRR på 0,4, vilket innebär att den identifierar en korrekt expert på Rank 2 till 3, i genomsnitt. NDCG poäng är något högre än 50% av en optimal beställning. Det relativt goda resultatet av OMRÅDEN förväntas, eftersom denna metod använder sig av experternas självförsörjande profiler, som förväntas innehålla rena data som exakt JURNAL AV AMERIKANSKA SAMHÄLLET FÖR INFORMATIONSVETENSKAP OCH TEKNIK 11 DOI: 10.1002/asi TABELL 5. Faktorvikter och hämtningsresultat för innehållsbaserade modeller. De optimala kombinationerna av alla tre innehållsbaserade modellerna utgör baslinjerna för efterföljande experiment (BL-MRR och BL-NDCG). Bästa poängen är i fetstil. Vikter normaliseras till summan av 1. Innehållsvikter
REF visade att många av dessa faktorer kan modelleras.
205,438,760
Contextual Factors for Finding Similar Experts
{'venue': 'J. Assoc. Inf. Sci. Technol.', 'journal': 'J. Assoc. Inf. Sci. Technol.', 'mag_field_of_study': ['Computer Science']}
12,075
Uppmärksamhetsmekanism avancerad toppmodern neural maskinöversättning (NMT) genom att gemensamt lära sig att anpassa och översätta. Men uppmärksamhet NMT ignorerar tidigare anpassning information, vilket leder till överöversättning och undertranslation problem. Som svar på detta problem, upprätthåller vi en täckning vektor för att hålla reda på uppmärksamheten historia. Täckningsvektorn matas till uppmärksamhetsmodellen för att hjälpa till att justera den framtida uppmärksamheten, som vägleder NMT att ägna mer uppmärksamhet åt de oöversatta källorden. Experiment visar att täckningsbaserad NMT avsevärt förbättrar både anpassning och översättningskvalitet över NMT utan täckning.
I Ref föreslogs vidare en s.k. täckningsvektorn för att spåra uppmärksamhetshistoriken för en flexibel anpassning av framtida uppmärksamhet.
16,113,848
Coverage-based Neural Machine Translation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
12,076
Vi 1 presenterar den första underlinjära tidsalgoritmen för ungefärlig maximal Inre Produktsökning (MIPS). Vårt förslag är också den första hashing-algoritmen för att söka med (onormaliserad) inre produkt som underliggande likhetsmått. Att hitta haschsystem för minimiimportpriser ansågs vara svårt. Vi visar formellt att den befintliga ramen för locality Sensitive Hashing (LSH) är otillräcklig för att lösa MIPS, och sedan utökar vi den befintliga ramen för LSH för att tillåta asymmetrisk hashing. Vårt förslag är baserat på ett intressant matematiskt fenomen där inre produkter, efter oberoende asymmetriska omvandlingar, kan omvandlas till problemet med ungefärlig nära grannsökning. Denna viktiga observation möjliggör ett effektivt underlinjärt hashsystem för MIPS. I den utvidgade asymmetriska ramen LSH (ALSH) tillhandahåller vi en explicit konstruktion av bevisligen snabba hashsystem för MIPS. Den föreslagna konstruktionen och det utvidgade LSH-ramverket skulle kunna vara av oberoende teoretiskt intresse. Vår föreslagna algoritm är enkel och enkel att implementera. Vi utvärderar metoden, för att hämta inre produkter, i samarbetet filtrering uppgift objekt rekommendationer på Netflix och Moviens dataset.
Shrivastava REF föreslog den asymmetriska LSH för maximal inre produktsökning.
1,653,222
Asymmetric LSH (ALSH) for Sublinear Time Maximum Inner Product Search (MIPS)
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
12,077
Ljusa verbkonstruktioner (LVCs), såsom "göra ett samtal" på engelska, kan sägas vara komplexa predikat där verbet endast spelar en funktionell roll. LVC innebär utmaningar för förståelsen av naturligt språk, eftersom deras semantik skiljer sig från vanliga predikatstrukturer. Vi utökar befintliga corpus-baserade åtgärder för att identifiera LVC mellan verb-objekt par på engelska, genom att föreslå att använda nya funktioner som använder ömsesidig information och bedöma andra syntaktiska egenskaper. I vårt arbete ingår också både befintliga och nya LVC-funktioner i en maskininlärningsstrategi. Vi visar experimentellt att med hjälp av det föreslagna ramverket omfattar alla funktioner överträffar tidigare arbete med 17 procent. Som maskininlärningstekniker modell de trender som finns i träningsdata, tror vi att den föreslagna LVC detektion ram och statistiska funktioner är lätt att förlänga till andra språk.
Ytterligare ett exempel på corpus-baserad identifiering av ljus verbkonstruktioner på engelska beskrivs i REF.
3,242,607
Extending Corpus-Based Identification Of Light Verb Constructions Using A Supervised Learning Framework
{'venue': 'Workshop On Multi-Word-Expressions In A Multilingual Context', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,078
I detta dokument presenterar vi en effektiv och effektiv face deblurring algoritm genom att utnyttja semantiska signaler via djupa konvolutionella neurala nätverk (CNN). Eftersom ansiktsbilder är mycket strukturerade och delar flera viktiga semantiska komponenter (t.ex. ögon och munnar), ger den semantiska informationen i ett ansikte en stark före restaurering. Som sådan, föreslår vi att införliva globala semantiska tidigare som insats och införa lokala strukturförluster för att reglera produktionen inom en flerskalig djup CNN. Vi utbildar nätverket med perceptuella och kontrariska förluster för att generera fotorealistiska resultat och utveckla en inkrementell utbildningsstrategi för att hantera slumpmässiga oskärpa kärnor i det vilda. Kvantitativa och kvalitativa utvärderingar visar att den föreslagna face deblurring algoritm återställer skarpa bilder med mer ansiktsdetaljer och presterar gynnsamt mot state-of-the-art metoder när det gäller återställning kvalitet, ansiktsigenkänning och utförande hastighet.
Nyligen, Ziyi et al. REF föreslog att man skulle använda de semantiska kartorna över ett ansikte för att deblurera bilden.
3,825,399
Deep Semantic Face Deblurring
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
12,079
Abstrakt. Framgången med modellkontroll bygger till stor del på dess förmåga att effektivt lokalisera fel i programvarudesign. Om ett fel upptäcks skapar en modellkontroll ett spår som visar hur feltillståndet kan nås, vilket i hög grad underlättar felsökning. Även om nuvarande modellkontrollanter finner feltillstånd på ett effektivt sätt, är motexempelen ofta onödigt långa, vilket hindrar felförklaring. Detta beror på användningen av "naiva" sökalgoritmer i den statliga rymdutforskningen. I detta dokument presenterar vi metoder för användning av heuristiska sökalgoritmer vid explicit-state modellkontroll. Vi presenterar klassen av A * riktade sökalgoritmer och föreslår heuristik tillsammans med bitstate kompression tekniker för att söka efter brott mot säkerhetsfastigheter. Vi uppnår stora minskningar i längden på felspåren, och i vissa fall gör problem analytiska genom att utforska ett mycket mindre antal tillstånd än standard djup-första sökning. Vi föreslår då en förbättring av den inbäddade djup-första sökalgoritmen och visar hur den kan användas tillsammans med A * för att förbättra sökandet efter egendomsbrott. Vår strategi för riktad explicit-state modellkontroll har implementerats i en verktygsuppsättning som kallas HSF-SPIN. Vi tillhandahåller experimentella resultat från protokollvalideringsdomänen med HSF-SPIN.
SPIN använder en inbäddad djup-första sökalgoritm för att hitta ett accepterande tillstånd i en cykel; arbetet i REF använder strukturen av egenskapen för att eliminera behovet av den "inre" delen av sökningen i vissa fall och använder heuristik för att vägleda "yttre" delen av sökningen.
394,885
Directed explicit-state model checking in the validation of communication protocols
{'venue': 'International Journal on Software Tools for Technology Transfer', 'journal': 'International Journal on Software Tools for Technology Transfer', 'mag_field_of_study': ['Computer Science']}
12,080
Abstract-Wireless sensor nätverk (WSNs) ger betydande fördelar jämfört med traditionell kommunikation i dagens tillämpningar, såsom miljöövervakning, säkerhet i hemlandet, och sjukvård. Hårda och komplexa miljöer utgör dock stora utmaningar när det gäller WSN-kommunikationens tillförlitlighet. För att uppnå tillförlitlig trådlös kommunikation inom WSN är det viktigt att ha ett tillförlitligt routingprotokoll och att ha ett sätt att utvärdera tillförlitligheten hos olika routingprotokoll. I detta papper modellerar vi först tillförlitligheten hos två olika typer av sensornoder: 1) energiskördande sensornoder och 2) batteridrivna sensornoder. Vi presenterar sedan trådlösa länksäkerhetsmodeller för varje typ av sensornoder, där effekter av olika parametrar, såsom batteritid, skuggning, buller och platsosäkerhet, beaktas för att analysera den trådlösa länkens tillförlitlighet. Baserat på sensornoden och modellerna för trådlös länksäkerhet jämför vi prestandan hos olika routingalgoritmer när det gäller end-to-end-banas tillförlitlighet och antal humle. Därefter föreslås en dynamisk dirigeringsmetod för att uppnå den mest tillförlitliga end-to-end-banan i WSN. För att underlätta en rättvis och heltäckande jämförelse mellan olika routingalgoritmer föreslås dessutom en kostnadsfunktionsmetod som integrerar end-to-end-banans tillförlitlighet och antal humle, vilket ger en indikator på kvaliteten på tjänsterna för tillämpningar som körs på WSN. Index Terms-Wireless sensor nätverk, batteridriven sensor nod, energi skörd sensor nod, länkfel modell, routing algoritm, kommunikation tillförlitlighet.
Dessutom Zonouz et al. REF presenterar modeller för trådlös länksäkerhet för energiupptagning och batteridrivna sensornoder, med beaktande av strömförbrukning, buller, platsosäkerhet och förhållanden för trådlösa kanaler.
43,236,561
Reliability-Oriented Single-Path Routing Protocols in Wireless Sensor Networks
{'venue': 'IEEE Sensors Journal', 'journal': 'IEEE Sensors Journal', 'mag_field_of_study': ['Engineering']}
12,081
Volymvisualisering av stora datauppsättningar suflers från samma problem som många andra visualiseringsmetoder suflerfrån antingen kan visualisera hela datauppsättningen och lösa små detaljer eller visualisera en liten region och lösa sammanhanget. I detta papper; Vi presenterar en förstoringslins teknik för volymvisualisering. Även om begreppet förstoringslins inte är nytt, och andra tekniker försöker simulera de fysiska egenskaperna hos en magni&ing lins, vårt bidrag är i n utveckla en förstoringslins som är snabb, kan genomföras med hjälp av en ganska liten sofhuare overhead, och har ett naturligt, intuitivt utseende. Problemet med förstoringslins är gränsen, eller övergången, region. Linsens centrum och yttre har en konstant zoomfaktor; och är enkla att återge. I t är den gränsregion som smälter mellan yttre och inre förstoring, och har en icke-konstant förstoring. Vi använder "perspective correct textures" kapacitet, mailable i de flesta aktuella grafiksystem, för att producera en lins med en tessellated kant region som approximerar linjär kompression med avseende på radien av förstoringslinsen. Vi diskuterar hur en "kubisk" gräns kan minska de diskontinuiteter som följer av användningen av en linjärfwrction, utan betydande prestandaförlust. Vi diskuterar olika frågor kring utvecklingen av en tredimensionell förstoringslins.
LaMar m.fl. REF har presenterat en förstoringslins med en tessellerad gränsregion enligt linsradien och strukturinformationen.
15,011,715
A magnification lens for interactive volume visualization
{'venue': 'Proceedings Ninth Pacific Conference on Computer Graphics and Applications. Pacific Graphics 2001', 'journal': 'Proceedings Ninth Pacific Conference on Computer Graphics and Applications. Pacific Graphics 2001', 'mag_field_of_study': ['Computer Science']}
12,082
Motivering: Genomiska arkiv växer snabbt, vilket framgår av de 1000 genomerna eller UK10K-projekten. Därför har kompression av flera genom av samma art blivit ett aktivt forskningsområde under de senaste åren. Den välkända stora redundansen i mänskliga sekvenser är inte lätt att utnyttja på grund av enorma minneskrav från traditionella komprimeringsalgoritmer. Resultat: Vi visar hur man uppnår flera gånger högre kompressionsförhållande än de bästa rapporterade resultaten, på två stora genomsamlingar (1092 mänskliga och 775 växtgenom). Våra ingångar är filer i anropsformat som är begränsade till deras väsentliga fält. Mer exakt, vår roman Ziv-Lempel stil kompression algoritm pressar ett enda mänskligt genom till $400 KB. Nyckeln till hög komprimering är att leta efter likheter över hela samlingen, inte bara mot en referenssekvens, vad som är typiskt för befintliga lösningar.
GDC2 REF presenterar ett LZ77-kompressionssystem för relativ kompression av flera genom av samma art.
3,626,034
Genome compression: a novel approach for large collections
{'venue': 'Bioinformatics', 'journal': 'Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
12,083
Sammanfattning av denna webbsida: Att upptäcka fordon i flygbilder spelar en viktig roll i ett brett spektrum av tillämpningar. De nuvarande metoderna för att upptäcka fordon bygger främst på sökning i skjutbara fönster och handgjorda eller ytliga inlärningsbaserade funktioner, med begränsad beskrivningsförmåga och tunga beräkningskostnader. Nyligen, på grund av de kraftfulla funktioner representationer, regionala konvolutionella neurala nätverk (CNN) baserade detektionsmetoder har uppnått state-of-the-art prestanda i datorseende, särskilt Snabbare R-CNN. Men direkt användning av den för fordonsdetektering i flygbilder har många begränsningar: (1) regionförslagsnätverk (RPN) i Faster R-CNN har dålig prestanda för att korrekt lokalisera små fordon, på grund av de relativt grova funktionskartor, och (2) klassificeringen efter RPN kan inte skilja fordon och komplexa bakgrunder väl. I denna studie föreslås en förbättrad detektionsmetod baserad på Snabbare R-CNN för att uppnå de två utmaningar som nämns ovan. För det första använder vi ett hyperregionalt förslagsnätverk (HRPN) för att ta fram fordonsliknande mål med en kombination av hierarkiska funktionskartor. Sedan ersätter vi klassificeringen efter RPN med en kaskad av förbättrade klassificeringar för att verifiera kandidatregionerna, som syftar till att minska falsk upptäckt genom negativ exempelbrytning. Vi utvärderar vår metod på Munich fordon dataset och insamlade fordon dataset, med förbättringar i noggrannhet och robusthet jämfört med befintliga metoder.
Tang och al. REF föreslog att man skulle använda hyperregionala förslagsnätverk (HRPN) och förbättrade klassificeringar för att upptäcka fordon i VHR-flygbilderna.
3,320,456
Vehicle Detection in Aerial Images Based on Region Convolutional Neural Networks and Hard Negative Example Mining
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Computer Science', 'Medicine']}
12,084
Vi undersöker metoder för att ta fram kontradiktoriska exempel på djupa generativa modeller som variations autoencoder (VAE) och VAE-GAN. Djuplärande arkitekturer är kända för att vara sårbara för kontradiktoriska exempel, men tidigare arbete har fokuserat på tillämpningen av kontradiktoriska exempel på klassificeringsuppgifter. Djupa generativa modeller har nyligen blivit populära på grund av deras förmåga att modellera datadistributioner och generera realistiska exempel från dessa distributioner. Vi presenterar tre klasser av attacker mot VAE- och VAE-GAN-arkitekturerna och demonstrerar dem mot nätverk som är utbildade på MNIST, SVHN och CelebA. Vår första attack utnyttjar klassifikationsbaserade motståndare genom att fästa en klassificerare vid den utbildade kodaren för målgenerativ modell, som sedan kan användas för att indirekt manipulera den latenta representationen. Vår andra attack använder direkt VAE-förlustfunktionen för att generera en måluppbyggnadsbild från det kontradiktoriska exemplet. Vår tredje attack går bortom att förlita sig på klassificering eller standardförlust för lutningen och optimerar direkt mot skillnader i källa och mål latenta representationer. Vi motiverar också varför en angripare kan vara intresserad av att distribuera sådana tekniker mot ett mål generativt nätverk. 2018 IEEE symposium om säkerhet och integritet workshops
Kos m.fl. REF använder variantal autoencoder (VAE) och VAE-GAN för generering av kontradiktoriska träningsexempel.
6,462,244
Adversarial Examples for Generative Models
{'venue': '2018 IEEE Security and Privacy Workshops (SPW)', 'journal': '2018 IEEE Security and Privacy Workshops (SPW)', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
12,085
Även om dator- och kommunikationsteknik har gett effektiva medel för att skala upp många aspekter av utbildningen, är inlämning och klassificering av bedömningar som hemuppgifter och tester fortfarande en svag länk. I denna uppsats studerar vi problemet med att automatiskt gradera de typer av öppna svar matematiska frågor som figurerar framträdande i STEM (vetenskap, teknik, ingenjörsvetenskap och matematik) kurser. Vårt datadrivna ramverk för matematisk språkbehandling (MLP) utnyttjar lösningsdata från ett stort antal inlärare för att utvärdera riktigheten i deras lösningar, tilldela delkreditpoäng och ge feedback till varje inlärare om de troliga platserna för eventuella fel. MLP hämtar inspiration från framgången med behandling av textdata i naturligt språk och består av tre huvudsteg. Först konverterar vi varje lösning till en öppen svar matematisk fråga till en serie av numeriska funktioner. För det andra samlar vi funktioner från flera lösningar för att avslöja strukturer för korrekta, delvis korrekta och felaktiga lösningar. Vi utvecklar två olika klustermetoder, en som utnyttjar generiska klusteralgoritmer och en baserad på Bayesian nonparametrics. För det tredje betygsätter vi automatiskt de återstående (potentiellt många) lösningarna baserat på deras tilldelade kluster och en instruktörstillhandahållen grad per kluster. Som bonus kan vi spåra klustertilldelningen för varje steg i en flerstegslösning och avgöra när den avviker från ett kluster av korrekta lösningar, vilket gör att vi kan ange de troliga positionerna för fel till elever. Vi testar och validerar MLP på Real-world MOOC data för att visa hur det kan avsevärt minska den mänskliga ansträngning som krävs i storskaliga utbildningsplattformar.
Vårt arbete faller också inom ramen för matematisk språkbehandling (MLP) REF vars första steg är att omvandla matematiska lösningar till en serie numeriska funktioner.
11,692,267
Mathematical Language Processing: Automatic Grading and Feedback for Open Response Mathematical Questions
{'venue': "L@S '15", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
12,086
Vi studerar kopplingen mellan den mycket icke-konvexa förlustfunktion av en enkel modell av den fullt anslutna feed-forward neurala nätverket och Hamiltonian av den sfäriska spin-glas modellen under antagandena av: i) variabelt oberoende, ii) redundans i nätverk parametrisering, och iii) enhetlighet. Dessa antaganden gör det möjligt för oss att förklara komplexiteten i det helt frikopplade neurala nätverket genom prisma av resultaten från slumpmässig matristeori. Vi visar att för stora frikopplade nätverk bildar de lägsta kritiska värdena för den slumpmässiga förlustfunktionen en skiktstruktur och de ligger i ett väldefinierat band som är lägre än det globala minimivärdet. Antalet lokala minima utanför det bandet minskar exponentiellt med storleken på nätverket. Vi bekräftar empiriskt att den matematiska modellen uppvisar liknande beteende som datorsimuleringarna, trots förekomsten av höga beroenden i verkliga nätverk. Vi antar att både simulerad glödgning och SGD konvergerar till bandet av låga kritiska punkter, och att alla kritiska punkter som finns det finns lokala minima av hög kvalitet mätt med testfelet. Detta understryker en stor skillnad mellan stora och små nät där lokala minima av dålig kvalitet har en icke-noll sannolikhet att bli återställda. Slutligen visar vi att det blir svårare att återvinna det globala minimivärdet när nätstorleken ökar och att det i praktiken är irrelevant eftersom det globala minimivärdet ofta leder till överbemanning.
Koromanska m.fl. REF undersökte kopplingen mellan förlustfunktionen för ett enkelt helanslutet nätverk och Hamiltonian av den sfäriska spinnglasmodellen.
2,266,226
The Loss Surfaces of Multilayer Networks
{'venue': None, 'journal': 'arXiv: Learning', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
12,087
I 1999, Brodal och Fagerberg (BF) gav en algoritm för att upprätthålla en låg utgrad orientering av en dynamisk jämnt gles graf. Specifikt, för en dynamisk graf på n-vertices, med Arboricity begränsas av α hela tiden, stöder BF algoritm kantuppdateringar i O(log n) amortized uppdateringstid, samtidigt som den maximala utgradera i grafen begränsas av O(α). En sådan orientering ger en grundläggande datastruktur för jämnt glesa grafer, som fann tillämpningar till en uppsjö av dynamiska grafalgoritmer. En betydande svaghet i BF-algoritmen är den möjliga tillfälliga uppblåsningen av maximal utgradering, efter kantinsättningar. Även om BF så småningom minskar alla utgrader till O(α), vissa hörn kan nå en utgradera av (n) under processen, därav lokal minnesanvändning vid hörn-en viktig kvalitetsmått i distribuerade system-kan inte begränsas. Vi visar hur man modifierar BF algoritmen för att garantera att utgrader av alla hörn begränsas av O(α) hela tiden, utan att skada någon av dess andra egenskaper, och presentera en effektiv distribuerad implementering av den modifierade algoritmen. Detta ger den första representationen av distribuerade nätverk där den lokala minnesanvändningen på hörn avgränsas av arboricity (som i huvudsak är den genomsnittliga graden av den tätaste subgrafen) snarare än den maximala graden. För inställningar där det inte finns några lokala minnesbegränsningar, kan man ta den tillfälliga utgradera blåsningen till extrem och tillåta en permanent utgradera blåsning. Detta gör att vi kan ta itu med den andra betydande svagheten i BF algoritm - dess inneboende globala natur: En insättning av en kant (u, v) kan utlösa förändringar i inriktningen av kanter som är godtyckligt långt från u och v. Vi föreslår ett alternativt lokalt system, som inte garanterar någon utexamen bundna på hörnen, men är ändå lika effektivt som BF systemet för vissa tillämpningar. Till exempel får vi en lokal dynamisk algoritm för att upprätthålla en maximal matchning med sublogaritmisk uppdateringstid i enhetligt glesa nätverk, vilket ger en exponentiell förbättring jämfört med toppmoderna i detta sammanhang.
Kaplan och Solomon REF visade hur man behåller kantorienteringar i den distribuerade inställningen när det lokala minnet per nod är begränsat.
41,260,659
Dynamic Representations of Sparse Distributed Networks: A Locality-Sensitive Approach
{'venue': "SPAA '18", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
12,088
Detta dokument studerar riktade prospektering för att förstärka inlärningsagenter genom att spåra osäkerhet om värdet av varje tillgänglig åtgärd. Vi identifierar två osäkerhetskällor som är relevanta för prospektering. Den första har sitt ursprung i begränsade data (parametrisk osäkerhet), medan den andra har sitt ursprung i fördelningen av avkastningen (osäkerhet om avkastning). Vi identifierar metoder för att lära sig dessa distributioner med djupa neurala nätverk, där vi uppskattar parametrisk osäkerhet med Bayesian drop-out, medan returosäkerheten sprids genom Bellman ekvationen som en Gaussian distribution. Sedan identifierar vi att båda kan beräknas gemensamt i ett nätverk, som vi kallar Double Unsafey Value Network. Policyn är direkt härledd från de inlärda distributionerna baserade på Thompson-provtagning. Experimentella resultat visar att båda typerna av osäkerhet avsevärt kan förbättra inlärningen inom områden med en stark prospekteringsutmaning.
Nyligen kombinerade REF de två osäkerheterna via Double Unsafey Value Network och visade prestandaförbättringar på enkla områden.
21,565,462
Efficient exploration with Double Uncertain Value Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
12,089
Abstract-State-of-the-art objekt detekteringsnätverk är beroende av region förslag algoritmer för att hypothesize objekt platser. Framsteg som SPPnet [1] och Fast R-CNN [2] har minskat drifttiden för dessa detektionsnät, vilket exponerar beräkning av regionförslag som flaskhals. I detta arbete introducerar vi ett regionförslagsnätverk (RPN) som delar fullbildskonvolutionella funktioner med detektionsnätverket, vilket möjliggör nära nog kostnadsfria regionförslag. Ett RPN är ett helt konvolutionellt nätverk som samtidigt förutsäger objektgränser och objektitetspoäng vid varje position. RPN är utbildad end-to-end för att generera högkvalitativa regionförslag, som används av Fast R-CNN för detektion. Vi slår ytterligare samman RPN och Fast R-CNN till ett enda nätverk genom att dela deras konvolutionella funktioner-med hjälp av den nyligen populära terminologin för neurala nätverk med "attention" mekanismer, RPN komponenten talar om för det enhetliga nätverket var man ska leta. För den mycket djupa VGG-16-modellen [3] har vårt detektionssystem en bildhastighet på 5 fps (inklusive alla steg) på en GPU, samtidigt som vi uppnår toppmoderna objektdetektionsnoggrannhet på PASCAL VOC 2007, och MS COCO-datauppsättningar med endast 300 förslag per bild. I ILSVRC och COCO 2015 tävlingar, Snabbare R-CNN och RPN är grunden för den 1: a plats vinnande poster i flera spår. Koden har gjorts tillgänglig för allmänheten. Regionens förslagsmetoder är vanligtvis beroende av billiga funktioner och ekonomiska slutledningssystem. Selektiv sökning [4], en av de mest populära metoderna, sammansmälter girigt superpixel baserat på konstruerade låg nivå funktioner. Ändå jämfört med effektiva detektionsnätverk [2], Selektiv sökning är en storleksordning långsammare, på 2 sekunder per bild i en CPU-implementation. EdgeBoxar [6] ger för närvarande den bästa kompromissen mellan förslagskvalitet och hastighet, med 0,2 sekunder per bild. Trots detta konsumerar regionförslaget lika mycket drifttid som nätverket för upptäckt. Man kan notera att snabba regionbaserade CNN dra nytta av GPU, medan de regionala förslag metoder som används i forskning genomförs på CPU, vilket gör sådana runtime jämförelser ojämförliga. Ett självklart sätt att påskynda beräkningen av förslag är att återinföra det för GPU. Detta kan vara en effektiv teknisk lösning, men omgenomförandet bortser från down-stream detektion nätverk och därför missar viktiga möjligheter att dela beräkningar. I detta dokument visar vi att en algoritmisk förändringskomputerande förslag med en djup konvolutionell neural nätverk-leads till en elegant och effektiv lösning där förslagsberäkning är nästan gratis med tanke på detektionsnätverkets beräkning. I detta syfte introducerar vi nya regionala förslagsnätverk (RPN) som delar konvolutionella skikt med toppmoderna nätverk för objektdetektering [1], [2]. Genom att dela konvolutioner vid testtid är marginalkostnaden för datorförslag liten (t.ex. 10 ms per bild). Vår iakttagelse är att de konvolutionella funktionskartor som används av regionbaserade detektorer, som Fast R-CNN, också kan användas för att generera regionförslag. Ovanpå dessa konvolutionella funktioner konstruerar vi en RPN genom att lägga till några ytterligare konvolutionella lager som samtidigt regresserar regiongränser och objektitet poäng på varje plats på ett vanligt rutnät. RPN är således ett slags fullständigt konvolutionsnätverk [7] och kan utbildas från början till slut särskilt för uppgiften att ta fram förslag på detektering. RPN är utformade för att effektivt förutsäga regionala förslag med ett brett spektrum av skalor och proportioner. I motsats till vanliga metoder [1], [2], [8], [9] som använder pyramider av bilder (Fig. 1a) eller filterpyramider (Fig. 1b), Vi introducerar nya "anchor" rutor som fungerar som referenser på flera skalor och proportioner. Vårt schema kan ses som en pyramid av regressionsreferenser (Fig. 1c), som undviker att räkna upp bilder eller filter av flera skalor eller proportioner. Denna modell fungerar bra när den är tränad och testad med enskaliga bilder och därmed gynnar körhastigheten. För att förena RPNs med snabba R-CNN [2] objektdetekteringsnätverk, föreslår vi ett utbildningsprogram som alternerar S. Ren är med
Mask R-CNN-modellen är en förlängning av Snabbare R-CNN REF-modellen som uppnådde snabb objektklassificering och begränsande-box regression.
10,328,909
Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
12,090
Abstrakt. Utformningen av vägledningssystem står inför ett välkänt dilemma. Den metod som teoretiskt ger det systemoptimala trafikmönstret kan diskriminera vissa användare till förmån för andra. Föreslagna alternativa modeller tar dock inte direkt hänsyn till systemets perspektiv och kan leda till sämre prestanda. Vi föreslår en ny modell och motsvarande algoritmer för att lösa detta dilemma. Vi presenterar beräkningsresultat i verkliga fall och jämför det nya tillvägagångssättet med den väletablerade modellen för trafikuppdrag. Kärnan i denna studie är att systemoptimal routing av trafikflödet med explicit integration av användarbegränsningar leder till en bättre prestanda än användarens jämvikt, samtidigt som den garanterar överlägsen rättvisa jämfört med det rena systemet optimal.
I REF, Jahn et al. Överväga problemet med statisk trafiktilldelning och föreslå en modell för vägledningssystem för system optimal ruttdragning av trafikflödet med tydlig integrering av användarbegränsningar med beaktande av en fast maximal avvikelse av kostnaderna för tilldelade tåglägen i förhållande till de optimala.
1,979,077
System-Optimal Routing of Traffic Flows with User Constraints in Networks with Congestion
{'venue': 'Operations Research', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
12,091
Vi presenterar en ny Convolutional Neural Network (CNN) modell för textklassificering som gemensamt utnyttjar etiketter på dokument och deras meningar. Specifikt överväger vi scenarier där annoterare uttryckligen markerar meningar (eller snippets) som stöder deras övergripande dokumentkategorisering, dvs. de ger motiveringar. Vår modell utnyttjar sådan övervakning genom ett hierarkiskt tillvägagångssätt där varje dokument representeras av en linjär kombination av vektorrepresentationerna av dess delmeningar. Vi föreslår en konvolutionsmodell på straffnivå som uppskattar sannolikheten för att en viss mening är en logisk grund, och vi skalar sedan varje menings bidrag till den sammanlagda dokumentrepresentationen i proportion till dessa uppskattningar. Experiment på fem klassificeringsdatauppsättningar som har dokumentetiketter och tillhörande motiveringar visar att vårt tillvägagångssätt konsekvent överträffar starka baslinjer. Dessutom ger vår modell naturligtvis förklaringar till sina förutsägelser.
Till exempel föreslog Ref ett motiverat konvolutionellt neuralt nätverk (CNN) för textklassificering, som uttryckligen utbildades för att identifiera meningar som stöder dokumentkategoriseringar.
6,262,432
Rationale-Augmented Convolutional Neural Networks for Text Classification
{'venue': 'Proceedings of the Conference on Empirical Methods in Natural Language Processing. Conference on Empirical Methods in Natural Language Processing', 'journal': 'Proceedings of the Conference on Empirical Methods in Natural Language Processing. Conference on Empirical Methods in Natural Language Processing', 'mag_field_of_study': ['Computer Science', 'Medicine']}
12,092
Abstract-I detta papper ger vi en enhetlig ram för att identifiera källan digitalkamera från sina bilder och för att avslöja digitalt förändrade bilder med hjälp av foto-respons nonuniformity brus (PRNU), som är ett unikt stokastiskt fingeravtryck av bildsensorer. PRNU erhålls med hjälp av en maxlikelihood estimator härledd från en förenklad modell av sensorns utgång. Båda de digitala kriminaltekniska uppgifterna uppnås sedan genom att upptäcka närvaron av sensor PRNU i specifika regioner av den bild som är under utredning. Detektionen är formulerad som ett hypotestestproblem. Den statistiska fördelningen av den optimala teststatistiken erhålls med hjälp av en prediktor för teststatistiken på små bildblock. Prediktorn möjliggör en mer exakt och meningsfull uppskattning av sannolikheten för falskt avvisande av en korrekt kamera och missad upptäckt av en manipulerad region. Vi inkluderar också ett riktmärke för genomförandet av detta ramverk och detaljerad experimentell validering. robustheten hos de föreslagna rättsmedicinska metoderna testas på vanlig bildbehandling, såsom JPEG-komprimering, gammakorrigering, storleksändring och denoisering.
Ett PRNU fingeravtryck av en kamera karakteriserar konsekvent bias av enskilda pixlar i sin bildsensor REF.
1,349,318
Determining Image Origin and Integrity Using Sensor Noise
{'venue': 'IEEE Transactions on Information Forensics and Security', 'journal': 'IEEE Transactions on Information Forensics and Security', 'mag_field_of_study': ['Computer Science']}
12,093
För att småcellsteknik ska kunna öka kapaciteten hos tornbaserade mobilnät betydligt måste mobila användare aktivt drivas in på de mer lättlastade nivåerna (motsvarande t.ex. pico och femtoceller), även om de erbjuder en lägre momentana SINR än makrocellsbasen (BS). Optimering av en funktion av den långsiktiga hastigheten för varje användare kräver (i allmänhet) en massiv nyttomaximering problem över alla SINRs och BS belastningar. Å andra sidan kommer ett faktiskt genomförande sannolikt att tillgripa en enkel partisk metod där ett BS i nivå j behandlas som att dess SINR multipliceras med en faktor Aj ≥ 1, vilket gör att det verkar mer attraktivt än den kraftigt laddade makrocellen. Detta dokument överbryggar klyftan mellan dessa strategier genom flera fysiska avslappningar av det nätverksomfattande föreningsproblemet, vars lösning är NP svårt. Vi tillhandahåller en lågkomplexitet distribuerad algoritm som konvergerar till en nästan optimal lösning med en teoretisk prestandagaranti, och vi observerar att enkel per-tier partisking förlorar förvånansvärt lite, om de partiska värdena Aj väljs noggrant. Numeriska resultat visar en stor (3.5x) genomströmningsvinst för cell-edge användare och en 2x hastighetsvinst för mediananvändare i förhållande till en maximering mottagen effekt association. Index Terms-Load balansering, användarförening, heterogena cellulära nätverk, distribuerad algoritm, räckvidd expansion.
Till exempel, en verktygsmaximering problem är formulerad för den optimala användarföreningen REF.
6,096,180
User Association for Load Balancing in Heterogeneous Cellular Networks
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
12,094
Ett trådlöst mobilt ad hoc-nät är ett infrastrukturlöst mobilt nätverk som inte har några fasta routrar, utan alla noder kan röra sig och kan anslutas dynamiskt på ett godtyckligt sätt. För att underlätta kommunikationen av mobila noder som kanske inte ligger inom varandras trådlösa räckvidd används ett effektivt routingprotokoll för att upptäcka rutter mellan noder så att meddelanden kan levereras i rätt tid. I detta dokument presenterar vi en ny Load-Balanced Ad hoc Routing (LBAR) protokoll för kommunikation i trådlösa ad hoc-nätverk. LBAR definierar ett nytt mätvärde för routing som kallas graden av nodalaktivitet för att representera belastningen på en mobil nod. I LBAR vidarebefordras information om alla sökvägar från källa till destination via setup-meddelanden till destinationen. Setup meddelanden inkluderar nodal aktivitet information om alla noder på den korsade vägen. Efter att ha samlat in information om alla möjliga sökvägar gör destinationen sedan ett urval av sökvägen med bästa kostnadsvärde och skickar ett erkännande till källnoden. LBAR ger också effektivt underhåll av vägar för att lappa ihop trasiga länkar genom att deturera trafiken till destinationen. En omfattande simuleringsstudie genomfördes för att utvärdera det föreslagna systemets prestanda. Resultat visar att LBAR överträffar befintliga ad hoc routingprotokoll när det gäller paketleverans och genomsnittlig försening från början till slut. Nyckelord: Trådlösa ad hoc-nätverk, Routing, Load Balancing, Performance Evaluation, Path Discovery och Path Maintenance Tillstånd att göra digitala eller hårda kopior av hela eller delar av detta arbete för personligt eller klassrum används utan avgift, förutsatt att kopior inte görs eller distribueras för vinst eller kommersiella fördelar och att kopior bär detta meddelande och den fullständiga hänvisning på första sidan. Att kopiera på annat sätt, att publicera, att posta på servrar eller att, omfördela till listor, kräver tidigare specifik behörighet och / eller en avgift.
Load-Balanced Ad hoc Routing (LBAR) REF-protokollet definierar nätverksbelastning i en nod som det totala antalet rutter som passerar genom noden och dess grannar.
7,323,707
Routing with load balancing in wireless Ad hoc networks
{'venue': "MSWIM '01", 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,095
Ett program för att anpassa flera sekvenser, MAFFT, har utvecklats. Processorn tiden minskas drastiskt jämfört med befintliga metoder. MAFFT innehåller två nya tekniker. i) Homologa regioner identifieras snabbt av den snabba Fouriertransform (FFT), i vilken en aminosyrasekvens omvandlas till en sekvens som består av volym- och polaritetsvärden för varje aminosyrarest. (ii) Vi föreslår en Simpli®ed poängsystem som fungerar bra för att minska CPU-tid och öka noggrannheten av justeringar även för sekvenser med stora ingångar eller förlängningar samt avlägset relaterade sekvenser av liknande längd. Två olika heuristiker, den progressiva metoden (FFT-NS-2) och iterative re®nement method (FFT-NS-i), implementeras i MAFFT. Resultaten för FFT-NS-2 och FFT-NS-i jämfördes med andra metoder genom datorsimuleringar och benchmarkingtester; CPU-tiden för FFT-NS-2 minskas drastiskt jämfört med CLUSTALW med jämförbar noggrannhet. FFT-NS-i är över 100 gånger snabbare än T-COFFEE, när antalet ingångssekvenser överstiger 60, utan att sakri®cing noggrannheten.
Under 2002 har Katoh et al., REF föreslagit en ny flera sekvens anpassningsproblem med hjälp av Fast Fourier transform (MAFFT).
10,960,997
MAFFT: a novel method for rapid multiple sequence alignment based on fast Fourier transform
{'venue': 'Nucleic acids research', 'journal': 'Nucleic acids research', 'mag_field_of_study': ['Biology', 'Medicine']}
12,096
Regressionstestning säkerställer kvaliteten på modifierade serviceorienterade affärsapplikationer mot oavsiktliga förändringar. En typisk regressionstestssvit är dock stor i storlek. Tidigare utförande av de testfall som kan upptäcka fel är attraktivt. Många befintliga prioritering tekniker beställa test fall enligt deras respektive täckning av program uttalanden i en tidigare version av ansökan. Å andra sidan är industriella serviceorienterade affärsapplikationer vanligtvis skrivna i orkestreringsspråk som WS-BPEL och integrerade med arbetsflödessteg och webbtjänster via XPath och WSDL. Fel i dessa artefakter kan orsaka ansökan att extrahera fel data från meddelanden, vilket leder till fel i tjänstesammansättningar. Förvånansvärt nog, nuvarande regressionstestning forskning knappast anser dessa artefakter. Vi föreslår en multilevel täckningsmodell för att fånga affärsprocessen, XPath, och WSDL ur perspektivet regressionstestning. Vi utvecklar en familj av testfallsprioriteringsmetoder ovanpå modellen. Empiriska resultat visar att våra tekniker kan uppnå betydligt högre grad av feldetektering än befintliga tekniker.
De har utvecklat test fall prioritering tekniker REF ovanpå sin XRG struktur.
17,866,669
Test case prioritization for regression testing of service-oriented business applications
{'venue': "WWW '09", 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,097
Abstract-I detta dokument utforskar vi metoder för att lära sig lokala bilddeskriptorer från träningsdata. Vi beskriver en uppsättning byggstenar för att konstruera deskriptorer som kan kombineras och gemensamt optimeras för att minimera felet hos närmaste granne. Vi anser att både linjära och icke-linjära transformer med dimensionalitetsreduktion, och använder sig av diskriminerande inlärningstekniker som Linjär Diskriminant Analysis (LDA) och Powell minimization för att lösa för parametrarna. Med hjälp av dessa tekniker får vi deskriptorer som överskrider toppmoderna prestanda med låg dimensionalitet. Förutom nya experiment och rekommendationer för deskriptorinlärning gör vi också en ny och realistisk grundfaktauppsättning baserad på multiviewstereodata.
Brunt och al. REF utvidgade ramen för att lära sig deskriptorer som minimerade felet hos en närmaste granne klassificerare.
12,573,831
Discriminative Learning of Local Image Descriptors
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
12,098
Abstract-Cross-företag defekt förutsägelse (CCDP) är ett praktiskt sätt att träna en förutsägelse modell genom att utnyttja ett eller flera projekt i ett källföretag och sedan tillämpa modellen på målföretaget. Tyvärr gör större irrelevanta crosscompany (CC) data vanligtvis det svårt att bygga en förutsägelse modell med hög prestanda. Å andra sidan kan den brutala kraften att utnyttja CC-data som är dåligt relaterade till uppgifter inom företaget (WC) minska prediktionsmodellens prestanda. För att ta itu med sådana frågor, introducerar detta dokument Multi-Source TrAdaBoost algoritm, en effektiv överföring lärande för att utföra CCDP. Kärnan i vår strategi är att: 1) använda begränsad mängd märkta WC-data för att försvaga effekten av irrelevanta CC-data; 2) importera kunskap inte från en utan från flera källor för att undvika negativ överföring. De experimentella resultaten visar att: 1) vårt föreslagna tillvägagångssätt uppnår bästa totala prestanda bland alla testade CCDP-strategier; 2) endast 10% märkta WC-data är tillräckligt för att uppnå bra prestanda av CCDP genom att använda vårt föreslagna tillvägagångssätt.
Till exempel genom att ta bort uppgifter som är dåligt relaterade till företaget, för att minska effekten av irrelevanta uppgifter på prognoser REF.
31,015,876
A Multi-Source TrAdaBoost Approach for Cross- Company Defect Prediction
{'venue': 'SEKE', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,099
Abstrakt. De negativa konsekvenserna av cybermobbning blir alltmer alarmerande för varje dag och tekniska lösningar som gör det möjligt att vidta lämpliga åtgärder genom automatisk upptäckt är fortfarande mycket begränsade. Hittills har studier om detektering av cybermobbning endast fokuserat på enskilda kommentarer, utan hänsyn till sammanhang som användarnas egenskaper och profilinformation. I detta dokument visar vi att hänsyn till användarsammanhang förbättrar upptäckten av cybermobbning.
I Ref föreslogs en metod för att förbättra detektionen av cybermobbning genom att ta hänsyn till användarens sammanhang.
18,580,919
Improving cyberbullying detection with user context
{'venue': 'ECIR', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,100
Bygga förklarande system är ett kritiskt problem inom området Natural Language Processing (NLP), eftersom de flesta maskininlärning modeller ger inga förklaringar till förutsägelser. Befintliga metoder för att förklara maskininlärningssystem tenderar att fokusera på att tolka utdata eller kopplingar mellan indata och utdata. Men den finkorniga informationen ignoreras ofta, och systemen genererar inte uttryckligen de mänskliga läsbara förklaringarna. För att bättre lindra detta problem föreslår vi en ny generativ förklaringsram som lär sig att fatta klassificeringsbeslut och samtidigt generera finkorniga förklaringar. Mer specifikt introducerar vi den förklarande faktorn och metoden för minimiriskutbildning som lär sig att generera mer förnuftiga förklaringar. Vi konstruerar två nya dataset som innehåller sammanfattningar, betygspoäng och finkorniga skäl. Vi utför experiment på båda dataseten, jämfört med flera starka neurala nätverk baslinjesystem. Experimentella resultat visar att vår metod överträffar alla baslinjer på båda dataseten och samtidigt kan generera koncisa förklaringar.
På senare tid har Ref föreslagit en ram för att ta fram finkorniga förklaringar för textklassificering.
53,153,643
Towards Explainable NLP: A Generative Explanation Framework for Text Classification
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
12,101
Målet med nederbörd nucasting är att förutsäga den framtida nederbördsintensiteten i en lokal region under en relativt kort tidsperiod. Mycket få tidigare studier har undersökt detta avgörande och utmanande väderprognos problem ur maskininlärning perspektiv. I detta papper formulerar vi nederbörd som nu sänder som en spatiotemporal sekvens prognostisering problem där både input och förutsägelse målet är spatiotemporala sekvenser. Genom att utöka den fullt anslutna LSTM (FC-LSTM) till att ha konvolutionella strukturer i både input-to-state och stat-to-state övergångar, föreslår vi convolutional LSTM (ConvLSTM) och använda den för att bygga en end-to-end training modell för nederbörd nucasting problem. Experiment visar att vårt ConvLSTM-nätverk fångar spatiotemporala korrelationer bättre och konsekvent överträffar FC-LSTM och den toppmoderna operativa ROVER-algoritmen för nusändning av nederbörd.
För att ta itu med detta problem läggs Conv-LSTM REF fram genom att använda en konvolutionsoperatör i övergången mellan stat och stat.
6,352,419
Convolutional LSTM Network: A Machine Learning Approach for Precipitation Nowcasting
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
12,102
Abstrakt. Att mäta likheten mellan ontologier kan vara mycket användbart för olika ändamål, t.ex. att hitta en ontologi för att ersätta en annan, eller att hitta en ontologi där frågor kan översättas. Klassiska mäter beräkna likheter eller avstånd i en ontologi utrymme genom att direkt jämföra innehållet i ontologier. Vi inför en ny familj av ontologiåtgärder som beräknas i ett anpassningsutrymme: de utvärderar likheten mellan två ontologier när det gäller de tillgängliga anpassningarna mellan dem. Vi definierar två uppsättningar av sådana åtgärder som bygger på att det finns en väg mellan ontologier eller ontologiska enheter som bevaras av anpassningarna. Den förra redogör för kända relationer mellan ontologier, medan den senare återspeglar möjligheten att utföra åtgärder som till exempel import eller frågeöversättning. Alla dessa åtgärder har genomförts i biblioteket OntoSim, som har använts i experiment som visade att enheter som bevarar åtgärder är jämförbara med de bästa ontologi rymdåtgärder. De uppvisade dessutom ett robust beteende i fråga om ändringen av inställningsutrymmet.
I REF definieras avstånd mellan ontologier i inställningsutrymmet.
15,511,836
Ontology similarity in the alignment space
{'venue': 'International Semantic Web Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,103
En uppmärksamhetsmekanism har nyligen använts för att förbättra neural maskinöversättning (NMT) genom att selektivt fokusera på delar av källmeningen under översättning. Det har dock varit lite arbete med att utforska användbara arkitekturer för uppmärksamhetsbaserade NMT. I detta dokument undersöks två enkla och effektiva klasser av uppmärksamhetsmekanism: en global strategi som alltid behandlar alla källord och en lokal som bara tittar på en delmängd av källord åt gången. Vi visar effektiviteten i båda tillvägagångssätten för WMT översättningsuppgifter mellan engelska och tyska i båda riktningarna. Med lokal uppmärksamhet uppnår vi en betydande vinst på 5,0 BLEU-poäng över icke-anslutna system som redan innehåller kända tekniker som t.ex. avhopp. Vår ensemblemodell med hjälp av olika uppmärksamhetsarkitekturer ger ett nytt toppmodernt resultat i WMT'15 engelska till tyska översättningsuppgift med 25,9 BLEU poäng, en förbättring med 1,0 BLEU poäng över det befintliga bästa systemet som stöds av NMT och en n-gram reranker. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning.
Alla källord var närvarande och endast en delmängd av källorden ansågs vid en tidpunkt REF.
1,998,416
Effective Approaches to Attention-based Neural Machine Translation
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
12,104
I detta arbete visar vi de inneboende sambanden mellan optimal transport och konvex geometri, särskilt variationen för att lösa Alexandrov problem: att bygga en konvex polytop med ordinerade ansikte normals och volymer. Detta leder till en geometrisk tolkning till generativa modeller, och leder till en ny ram för generativa modeller. Genom att använda den optimala transportvyn av GAN-modellen, visar vi att discriminatorn beräknar Kantorovich potential, generatorn beräknar transportkartan. För en stor klass av transportkostnader, kan Kantorovich potential ge den optimala transportkartan med en närformig formel. Därför räcker det att enbart optimera diskriminatorn. Detta visar att den kontradiktoriska konkurrensen kan undvikas, och beräkningsarkitekturen kan förenklas. Preliminära experimentella resultat visar den geometriska metoden överträffar WGAN för approximering av sannolikhetsmått med flera kluster i lågdimensionellt utrymme.
REF ger en geometrisk bild av halvdiskret optimal transport.
43,676,739
A Geometric View of Optimal Transportation and Generative Model
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
12,105
Abstrakt. Data på den semantiska webben är halvstrukturerade och följer inte ett fast schema. Faceded surfing [23] är en naturlig teknik för att navigera sådana data och dela upp informationsutrymmet i ortogonala begreppsmässiga dimensioner. Nuvarande facetterade gränssnitt är manuellt konstruerade och har begränsad frågeuttrycklighet. Vi utvecklar ett uttrycksfullt facetterat gränssnitt för halvstrukturerade data och visar formellt förbättringen jämfört med befintliga gränssnitt. För det andra utvecklar vi mätvärden för automatisk rankning av facetkvalitet, vilket förbigår behovet av manuell konstruktion av gränssnittet. Vi utvecklar en prototyp för facetterad navigering av godtyckliga RDF-data. Experimentell utvärdering visar förbättrad användbarhet över nuvarande gränssnitt.
Ett genomförande för facetterad navigering av godtyckliga RDF-data presenteras i REF.
8,384,747
Extending faceted navigation for RDF data
{'venue': 'SEMWEB', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,106
Vi presenterar en språkagnostisk, oövervakad metod för att framkalla morfologiska omvandlingar mellan ord. Metoden bygger på vissa regulariteter som manifesteras i högdimensionella vektorutrymmen. Vi visar att denna metod är kapabel att upptäcka ett brett spektrum av morfologiska regler, som i sin tur används för att bygga morfologiska analysatorer. Vi utvärderar denna metod över sex olika språk och nio datauppsättningar, och visar betydande förbättringar över alla språk.
I REF infördes en oövervakad metod för att inducera anbringande omvandlingar mellan ord med hjälp av inbäddade ord.
16,326,127
Unsupervised Morphology Induction Using Word Embeddings
{'venue': 'Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies', 'journal': 'Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies', 'mag_field_of_study': ['Computer Science']}
12,107
I detta dokument föreslås en ny modell för att ta fram en tolkningsbar mening genom att införa självuppmärksamhet. Istället för att använda en vektor, använder vi en 2-D-matris för att representera inbäddningen, med varje rad av matrisen närvarande på en annan del av meningen. Vi föreslår också en självbetjäningsmekanism och en speciell legaliseringsterm för modellen. Som en bieffekt kommer inbäddningen med ett enkelt sätt att visualisera vilka specifika delar av meningen är kodade i inbäddningen. Vi utvärderar vår modell på 3 olika uppgifter: upphovsmansprofilering, känsloklassificering och textingrepp. Resultat visar att vår modell ger en betydande resultatvinst jämfört med andra meningar som inbäddar metoder i alla de 3 uppgifterna.
REF introducerar en självbetjäningsmekanism med flera hopp av uppmärksamhet ovanpå BiLSTM, där de olika humlena tar hand om olika delar av inmatningssatsen.
15,280,949
A Structured Self-attentive Sentence Embedding
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
12,108
Datakommunikation och feltolerans är viktiga frågor i multiprocessorsystem. Ett sätt t o uppnå fel tolerant kommunikation i s b y utnyttja och eektivt utnyttja de skilda vägar som finns mellan par av källa, destination noder. I detta papper konstruerar vi en struktur, kallas flera kantdished spanning träd, på stjärnnätverket, betecknad av S n. Detta används för härledning av en optimal enda nod sändningsalgoritm, som o ers en hastighet upp av n, 1 jämfört med den enkla enda nod sändningsalgoritm som använder en enda bredd rst spanning träd. Det används också för att härleda feltoleranta kommunikationsalgoritmer. Till följd av detta presenteras feltoleranta algoritmer för fyra grundläggande kommunikationsproblem: problemet med en enda nod som sänder samma meddelande till alla andra noder eller enstaka nodsändningar, problemet med samtidiga enstaka nodsändningar från alla noder eller multinodesändningar, problemet med en enda nod som sänder separata meddelanden till var och en av de andra noderna eller en enda nod som sprider sig och problemet med samtidig enskild nodspridning från alla noder eller totalt utbyte. Fult tolerans uppnås genom att skicka flera kopior av meddelandet genom ett antal olika vägar. Dessa algoritmer fungerar framgångsrikt i närvaro av upp till n, 1 felaktiga noder eller kanter i systemet. De kan också kontrollera graden av feltolerans, beroende på hur pålitligt nätverket är. Som påpekades i 28, Betydelsen av dessa algoritmer ligger i det faktum att ingen kunskap om de felaktiga noder eller kanter krävs i förväg. Alla de algoritmer som presenteras gör antagandet att varje nod kan utbyta meddelanden av xed längd med alla sina grannar samtidigt vid varje steg, dvs.. Alla hamnars kommunikationsantagande och denna kommunikation är dubbelriktad.
I REF tillhandahålls en tillförlitlig sändningsalgoritm genom att man utnyttjar olika vägar mellan par av käll- och destinationsnoder.
10,611,171
Edge-disjoint spanning trees on the star network with applications to fault tolerance
{'venue': 'IEEE Trans. Computers', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,109
I detta papper studeras prestandan hos cacheaktiverade täta små cellnätverk som består av multi-antenna sub-6 GHz och millimeter-våg (mm-våg) basstationer. Olika från de befintliga verken som endast beaktar en enda antenn vid varje basstation är den optimala innehållsplaceringen okänd när basstationerna har flera antenner. Vi får först fram den framgångsrika sannolikheten för leverans av innehåll genom att redovisa de viktigaste kanalfunktionerna vid sub-6 GHz- och mm-vågfrekvenser. Maximeringen av den framgångsrika leveransen av innehåll är ett utmanande problem. För att ta itu med det föreslår vi först en begränsad korsentropialgoritm som uppnår den nästan optimala lösningen med måttlig komplexitet. Därefter utvecklar vi en annan enkel men effektiv heuristisk probabilistisk innehållsplaceringsplan, kallad tvåvåningsalgoritm, som skapar en balans mellan caching av det mest populära innehållet och att uppnå innehållsmångfald. Numeriska resultat visar den överlägsna prestandan hos den begränsade kors-entropi-metoden och att två-sta-algoritmen ger betydligt bättre prestanda än bara caching det mest populära innehållet. Jämförelserna mellan sub-6 GHz- och mm-vågsystemen visar på en intressant avvägning mellan cachekapacitet och densitet för mm-vågsystemet för att uppnå samma prestanda som under-6 GHz-systemet. Index Terms-Sub-6 GHz, millimetervåg, cacheplacering, användarkoppling, täta nätverk.
Zhu m.fl. REF undersökte prestandan hos cacheaktiverade ultradense små cellnätverk och härledde sannolikheten för framgångsrik innehållsleverans (SCDP).
7,933,396
Content Placement in Cache-Enabled Sub-6 GHz and Millimeter-Wave Multi-Antenna Dense Small Cell Networks
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
12,110
Sammanfattning av denna webbsida: Problemuttalande: Det har bevisats att Thread, Desire, Intention (BDI) agent architecture, presterar lämpligt i dynamiska och oförutsägbara miljöer. Även om BDI arkitektur har formulerats rigoröst, är genomförandet av BDI arkitektur inte så enkelt som det har utlovats. Den främsta implementeringen av BDI-arkitekturen är dock procedurresonemang (PRS) och Jadex är en Java-baserad plattform som framgångsrikt tillämpar PRS BDI-arkitektur för att implementera BDI-agenter. Men Jadex använder XML-format för att representera planer, övertygelser och mål som är kärnan i PRS BDI agenter. Även om XML är ett lämpligt format för utbyte av data, lägger den inte till någon semantisk data som den representerar. Tillvägagångssätt: I vår föreslagna ontologidrivna PRS-modell (O-PRS) använde vi däremot Ontology med OWL-format för att representera troende, planer och händelser. Vår Ontologi hade utformats särskilt för att implementera BDI-agenter som används i Mobile Workforce Brokering Systems (MWBS), ett multi-agentsystem som automatiserade processen för att fördela uppgifter till Mobile Workforces. Resultat: Denna forskning var ett försök att utrusta PRS-modellen med ontologi och semantisk kunskap representation och resonemangsförmåga. I denna studie formulerades först vår föreslagna modell, sedan undersöktes modellen med hjälp av ett simuleringsverktyg (MWBS-SIM) som simulerade MWBS i sin initieringsfas. Vi använde JADE för att implementera agenterna Protégé OWL för att skapa Ontology och Jena som en semantisk webbplattform med hjälp av vilken MWBS kan ansluta till Ontology och tillämpa O-PRS-modellen. Slutsats: Resultatet av vår simulering visade att O-PRS är en genomförbar metod. Dessutom gav Ontology bättre medel för kunskapsdelning och navigering, multiagentsystem konstruerade med O-PRS, var mer generiska och mer anpassningsbara jämfört med dem som använder XML.
O-PRS (ontologidriven processuella resonanssystem som modell) REF använder OWL ontologies för att uttrycka begreppen i Tro, Desire, Intention (BDI) agent arkitektur.
18,075,305
An Ontology Driven, Procedural Reasoning System-Like Agent Model, For Multi-Agent Based Mobile Workforce Brokering Systems
{'venue': None, 'journal': 'Journal of Computer Science', 'mag_field_of_study': ['Computer Science']}
12,111
Även om de flesta tillvägagångssätt för att automatiskt känna igen samband har använt klassificerare som använder handgjorda funktioner som härrör från komplexa naturligt språk bearbetning pipelines, i praktiken har deras prestanda bara varit något bättre än påse-of-word par klassificerare med endast lexical likhet. Det enda försöket hittills att bygga en end-to-end differentiable neurala nätverk för implementation misslyckades med att överträffa en sådan enkel likhet klassificerare. I det här dokumentet föreslår vi en neural modell som avläser två meningar för att bestämma påföljd med hjälp av långtidsminnesenheter. Vi utökar denna modell med en ord för ord neural uppmärksamhet mekanism som uppmuntrar resonemang över inslag av par av ord och fraser. Dessutom lägger vi fram en kvalitativ analys av de uppmärksamhetsvikter som denna modell ger upphov till, vilket visar på en sådan resonemangsförmåga. På ett stort behov dataset denna modell överträffar den tidigare bästa neurala modellen och en klassificerare med konstruerade funktioner med en betydande marginal. Det är det första generiska differentierbara systemet från end-to-end som uppnår den senaste noggrannheten på en textbaserad uppsättning uppgifter.
Ett erkännande av textingrepp mellan två meningar togs också upp i REF som använde LSTM:er och en neural uppmärksamhetsmekanism ord för ord på SNLI:s corpus.
2,135,897
Reasoning about Entailment with Neural Attention
{'venue': 'ICLR 2016', 'journal': 'arXiv: Computation and Language', 'mag_field_of_study': ['Computer Science']}
12,112
Abstrakt. Ett bördigt forskningsområde inom teoretisk datavetenskap undersöker representationen av allmänna rekursiva funktioner i extensiva typteorier. Bland de mest framgångsrika tillvägagångssätten finns: användning av välgrundade relationer, genomförande av operationella semantik, formalisering av domänteori och induktiv definition av domänpredikat. Här föreslås en annan lösning: att utnyttja myntledande typer för att modellera oändliga beräkningar. Till varje typ A associerar vi en typ av partiella element A mot, myntduktivt genererad av två konstruktörer: den första, en bara returnerar ett element a : A; den andra, x, lägger till en beräkning steg till en rekursiv element x : A mot. Vi visar hur denna enkla anordning är tillräcklig för att formalisera alla rekursiva funktioner mellan två givna typer. Det gör det möjligt att definiera fasta punkter för finansiella, dvs. kontinuerliga, operatörer. Vi kommer att jämföra detta tillvägagångssätt med andra metoder än litteraturen. Slutligen nämner vi att formaliseringen, med lämpliga strukturella kartor, definierar en stark monad.
Partialitet Monad. Caprettas participity monad REF använder myntledande typer för att bädda in allmän rekursion i typteori.
1,637,907
General Recursion via Coinductive Types
{'venue': 'LMCS 1 (2:1) 2005', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,113
Att spåra nya ämnen, idéer och "memes" över webben har varit en fråga av stort intresse. Den senaste tidens arbete har utvecklat metoder för att spåra ämnesskiften över långa tid skalor, samt abrupta spikar i utseendet av vissa namngivna enheter. Dessa tillvägagångssätt är dock mindre lämpade för att identifiera innehåll som sprider sig brett och sedan bleknar över tid i ordning av dagar - den tidsskala på vilken vi uppfattar nyheter och händelser. Vi utvecklar ett ramverk för att spåra korta, distinkta fraser som reser relativt intakt genom on-line text; utveckla skalbara algoritmer för att klusterera textvarianter av sådana fraser, vi identifierar en bred klass av memes som uppvisar bred spridning och rik variation på en daglig basis. Som vårt huvudsakliga studieområde visar vi hur ett sådant meme-tracking tillvägagångssätt kan ge en sammanhängande representation av nyhetscykeln - de dagliga rytmerna i nyhetsmedierna som länge har varit föremål för kvalitativ tolkning men aldrig har fångats tillräckligt noggrant för att tillåta faktiska kvantitativa analyser. Vi spårade 1,6 miljoner mainstream media webbplatser och bloggar under en period av tre månader med totalt 90 miljoner artiklar och vi hittar en uppsättning av nya och ihållande temporal mönster i nyhetscykeln. I synnerhet observerar vi en typisk fördröjning på 2,5 timmar mellan topparna av uppmärksamhet på en fras i nyhetsmedia respektive i bloggar, med olika beteende runt den totala toppen och ett "hjärtat"-liknande mönster i överlämnandet mellan nyheter och bloggar. Vi utvecklar och analyserar också en matematisk modell för de tidsvariationer som systemet uppvisar.
Mer nyligen, Leskovec et al. REF utvecklade ett ramverk för att spåra korta, distinkta fraser som reser relativt intakta via online-media.
207,173,284
Meme-tracking and the dynamics of the news cycle
{'venue': 'KDD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
12,114
Sammanfattning av denna webbsida: Segmentering av flygbilder har stor potential när det gäller övervakning och scenförståelse av stadsområden. Det ger ett medel för automatisk rapportering av de olika händelser som sker i bebodda områden. Detta främjar på ett anmärkningsvärt sätt tillämpningen av allmän säkerhet och trafikledning. Efter den breda antagandet av konvolutionella neurala nätverk metoder, noggrannheten av semantiska segmentering algoritmer kan lätt överträffa 80% om en robust datauppsättning tillhandahålls. Trots denna framgång, införandet av en förutbildad segmentering modell för att kartlägga en ny stad som inte ingår i utbildningen uppsättning avsevärt minskar noggrannheten. Detta beror på domänskiftet mellan källdatauppsättningen som modellen utbildas på och den nya måldomänen för de nya stadsbilderna. I detta dokument tar vi upp denna fråga och överväger utmaningen med domänanpassning vid semantisk segmentering av flygbilder. Vi designar en algoritm som minskar domänbyteseffekten med hjälp av Generativa Adversarial Networks (GANS). I experimenten testar vi den föreslagna metoden för International Society for Photogrammetrie och Remote Sensing (ISPRS) semantiska segmenteringsdata och fann att vår metod förbättrar den totala noggrannheten från 35% till 52% när den passerar från Potsdam domän (betraktas som källdomän) till Vaihingen domän (betraktas som måldomän). Dessutom gör metoden det möjligt att effektivt återställa de inverterade klasserna på grund av sensorvariation. I synnerhet förbättrar det den genomsnittliga segmenteringsnoggrannheten hos de inverterade klasserna på grund av sensorvariation från 14% till 61%.
För att ta itu med dessa frågor har författarna i REF föreslagit en teknik för domänanpassning baserad på generativa kontradiktoriska nätverk (GAN) för att förbättra den semantiska segmenteringsnoggrannheten i stadsmiljön i flygbilder.
147,703,793
Unsupervised Domain Adaptation using Generative Adversarial Networks for Semantic Segmentation of Aerial Images
{'venue': 'MDPI Remote Sensing, Volume 11, Issue 11, 2019', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Geology']}
12,115
N samtida stereotaktisk funktionell neurokirurgi för rörelsestörningar, kartläggning av basala ganglier baseras på lokalisera AC och PC, bestämma funktionella mål med hjälp av Schaltenbrand och Wahren Atlas, 7 och identifiera den neurala strukturen med hjälp av den elektrofysiologiska metoden. För en visualisering av AC-PC linjen, ventriculografi anses guld standard och används fortfarande i vissa medicinska center. Nyligen, användningen av intraoperativ ventrikulografi har minskat och ersätts av MR avbildning för preoperativ mållokalisering. Magnetisk resonanstomografi är överlägsen datortomografi i upplösningen av rekonstruerade bilder och i identifieringen av landmärken. Dessutom kan bildstyrd neurokirurgisk planering med hjälp av MR-bilder korrigera den lilla lutningen och rotationen av huvudet inom stereotaktisk huvudram, som inte kan korrigeras i ventriculografi. Funktionella mål har indirekt lokaliserats genom beräkningar baserade på koordinaterna för AC och PC med CT eller MR-bilder, eller direkt visualiseras med MR-avbildning. 1,10 Det bör dock noteras att informationen om MR-tomografi om patientens tillstånd erhålls före operation, medan ventriculografi ger informationen efter burhålsöppningen. Därför, även om hjärnan flyttas av någon anledning under operation, ventriculografi kan uppdatera realtidspositionen för AC och PC. Effekten i stereotaktisk kirurgi för rörelsestörningar beror på exakt lesion eller elektrodpositionering, samt lokalisera den neurala strukturen anatomiskt och fysiologiskt idealisk för varje symptom. År 1975 var Gerdes et al. 3 först beskrev felet till följd av subdural luft invasion och "hjärnsänkning" i stereotaktisk procedur. Det är empiriskt känt att en intrakraniell luftinvasion och utflöde av cerebrospinalvätska är förknippade med hjärnsänkning under operation, men författare till få studier har visat ef- Object. Målet med denna studie var att fokusera på tendensen till hjärnskifte under stereotaktisk neurokirurgi och förändringens inverkan på unilateral och bilateral implantation av elektroder för djup hjärnstimulering (DBS). Metoder. Åtta unilaterala och 10 bilaterala DBS-elektroder vid 10 nucleiventrales intermedii och 18 subtalamic nuklei implanterades hos patienter på Kaizuka sjukhus med hjälp av magnetisk resonans (MR) avbildningsstyrda och mikroelektrodstyrda metoder. Hjärnförskjutning bedömdes som förändringar i 3D-koordinaterna för främre och bakre kommissioner (AC och PC) med MR-bilder före och omedelbart efter implantationsoperationen. Positionerna för de implanterade elektroderna, baserade på midcommissuralpunkten och AC-PC-linjen, mättes både på röntgenfilmer (virtuell position) under operation och de postoperativa MR-bilder (faktisk position) som erhölls den sjunde dagen postoperativt. Resultat. Kontralaterala och bakre förskjutningar av växelströms- och PC-systemet var utmärkande för ensidiga respektive bilaterala förfaranden. Författarna föreslår följande: 1) Den första ensidiga proceduren framkallar en ensidig luftinvasion, vilket resulterar i ett kontralateralt hjärnskifte. 2) Under den andra proceduren i den bilaterala kirurgin, den kontralaterala förskjutningen återställs till mittlinjen och, samtidigt, den anteroposterior stöd av den kontralaterala halvklotet mot gravitation förloras på grund av en bilateral luft invasion, vilket resulterar i en betydande bakre (kaudala) förskjutning. Slutsatser. Att notera hjärnans tendens att skifta är mycket viktigt för korrekt implantation av en DBS-elektrod eller hög frekvens termokoagulation, samt för förutsägelse av terapeutiska och negativa effekter av stereotaktisk kirurgi.
Miyagi m.fl. Ref studerade både unilaterala och bilaterala implantationer och drog slutsatsen om hjärnförskjutningsbenägenheten för båda typerna av ingrepp.
12,438,823
Brain shift: an error factor during implantation of deep brain stimulation electrodes.
{'venue': 'Journal of neurosurgery', 'journal': 'Journal of neurosurgery', 'mag_field_of_study': ['Medicine']}
12,116
Neuroimaging-baserad åldersförutsägelse med maskininlärning föreslås som en biomarkör av hjärnans åldrande, som relaterar till kognitiv prestanda, hälsoresultat och progression av neurodegenerativ sjukdom. Men även ledande åldersprediction algoritmer innehåller mätfel, motivera ansträngningar för att förbättra experimentella rörledningar. T1-viktad MRI används ofta för åldersförutsägelse, och förbehandlingen av dessa skanningar innebär normalisering till en gemensam mall och omsampling till en vanlig voxel storlek, följt av rumslig utjämning. Omprovtagningsparametrar väljs ofta godtyckligt. Här försökte vi förbättra exaktheten i hjärnåldern genom att optimera omsamplingsparametrar med Bayesianoptimering. Med hjälp av data på N = 2003 friska individer (i åldrarna 16-90 år) tränade vi vektormaskiner för att (i) skilja mellan unga (<22 år) och gamla (>50 år) hjärnor (klassificering) och (ii) förutsäga kronologisk ålder (regression). Vi utvärderade också åldersregressionsmodellens allmängiltighet till ett oberoende dataset (CamCAN, N = 648, 18-88 år). Bayesian optimering användes för att identifiera optimal voxel storlek och utjämning kärna storlek för varje uppgift. Detta förfarande tar adaptivt prov på parameterutrymmet för att utvärdera noggrannheten över en rad möjliga parametrar, med hjälp av oberoende delprover för att iterativt bedöma olika parameterkombinationer för att komma fram till optimala värden. Vid åtskillnad mellan unga och gamla hjärnor uppnåddes en klassificeringsnoggrannhet på 88,1 % (optimal voxelstorlek = 11,5 mm 3, utjämningskärna = 2,3 mm). För att förutsäga kronologisk ålder, ett medelvärde absolut fel (MAE) på 5.08 år uppnåddes, (optimal voxel storlek = 3,73 mm 3, utjämning kärna = 3,68 mm). Detta jämfördes med prestanda med hjälp av standardvärden på 1,5 mm 3 respektive 4 mm, vilket resulterade i MAE = 5,48 år, även om denna förbättring på 7,3% inte var statistiskt signifikant. Vid bedömning av allmängiltighet uppnåddes bästa prestanda vid tillämpning av hela Bayesian optimeringsramverket på den nya datauppsättningen, vilket överträffade de parametrar som optimerades för den inledande träningsdatauppsättningen. Vår studie beskriver proof-of-principen att neuroimaging modeller för hjärnförutsägelse kan använda Bayesian optimering för att härleda fallspecifika förbehandling Bayesian Optimization för Brain-Age Analys parametrar. Våra resultat tyder på att olika förbearbetningsparametrar väljs när optimering sker i specifika sammanhang. Detta kan motivera användning av optimeringstekniker på många olika punkter under den experimentella processen, vilket kan förbättra statistisk känslighet och minska möjligheterna för försöksledda fördomar.
En annan intressant studie på REF förbättrar exaktheten i hjärnåldern genom att optimera omsamplingsparametrar med Bayesian optimering.
3,573,598
Bayesian Optimization for Neuroimaging Pre-processing in Brain Age Classification and Prediction
{'venue': 'Front. Aging Neurosci.', 'journal': None, 'mag_field_of_study': ['Psychology', 'Medicine']}
12,117
Vi föreslår ett kriterium för diskriminering av ett specificerat känsligt attribut i övervakad inlärning, där målet är att förutsäga ett visst mål baserat på tillgängliga funktioner. Förutsatt att data om prediktor, mål och medlemskap i den skyddade gruppen finns tillgängliga, visar vi hur man optimalt justerar alla inlärda prediktorer för att ta bort diskriminering enligt vår definition. Vårt ramverk förbättrar också incitamenten genom att flytta kostnaderna för dålig klassificering från missgynnade grupper till beslutsfattaren, som kan svara genom att förbättra klassificeringsnoggrannheten. I linje med andra studier är vår uppfattning glömsk: den beror endast på den gemensamma statistiken över prediktorn, målet och det skyddade attributet, men inte på tolkningen av enskilda egenskaper. Vi studerar de inneboende gränserna för att definiera och identifiera förutfattade meningar som bygger på sådana omedvetna åtgärder och beskriver vad som kan och inte kan härledas från olika omedvetna tester. Vi illustrerar vår idé med hjälp av en fallstudie av FICO poäng.
I Ref föreslog författarna en ram för optimal anpassning av prediktiva modeller för att undanröja diskriminering.
7,567,061
Equality of Opportunity in Supervised Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
12,118
Vi tar itu med problemet med storskalig visuell platsigenkänning, där uppgiften är att snabbt och korrekt känna igen platsen för en given frågebild. Vi presenterar följande tre huvudsakliga bidrag. Först utvecklar vi en konvolutionell neurala nätverk (CNN) arkitektur som kan tränas på ett end-to-end sätt direkt för platsen erkännande uppgift. Huvudkomponenten i denna arkitektur, NetVLAD, är ett nytt generaliserat VLAD-lager, inspirerat av "Vector of Locally Aggregated Descriptors" bildrepresentation som vanligen används i bildhämtning. Lagret kan enkelt anslutas till alla CNN-arkitekturer och är kompatibelt med träning via backpropagation. För det andra utvecklar vi ett utbildningsförfarande, baserat på en ny svagt övervakad rankning förlust, för att lära sig parametrar för arkitekturen på ett end-to-end sätt från bilder som skildrar samma platser över tid laddas ner från Google Street View Time Machine. Slutligen visar vi att den föreslagna arkitekturen avsevärt överträffar icke-lärande bildrepresentationer och off-the-shelf CNN-deskriptorer på två utmanande plats igenkänningsriktmärken, och förbättrar över nuvarande toppmoderna kompakta bildrepresentationer på standardiserade riktmärken för hämtning av bilder.
Till skillnad från tidigare implementationer där bilddeskriptorer bildades manuellt från CNN lageraktiveringar, Arandjelovic et al. REF utbildade ett nytt VLAD-skikt (Vector of Locally Aggregated Descriptors) för en end-to-end CNN-baserad VPR.
44,604,205
NetVLAD: CNN Architecture for Weakly Supervised Place Recognition
{'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
12,119
I det här dokumentet föreslår vi en dataförstärkningsmetod för träningsmaskin/djupt lärande gångigenkänningsalgoritmer. Även om tidigare publicerade metoder genererade syntetiska data för att förstärka utbildnings- och/eller testuppsättningar [1] eller för att lära sig egenskaper som invarianta till vissa villkor [2] har de inkorporerat ett mycket begränsat antal kovariata faktorer. Enligt vår kunskap är detta det första försöket att ge förmågan att samtidigt generera syntetisk data med så många kontrollerbara villkor för gångigenkänning. Kombinationen av verklig rörelse fånga, data förberedelse, avatar konstruktion och scripted rendering tillåter syntetiska ramar att genereras, med nästan godtyckliga grader av variation. Figur 1 visar ett litet urval av de kontrollerbara förväxlingsfaktorer som kan genereras med den föreslagna metoden. Figur 1: Ett litet prov av de kontrollerbara förväxlingsfaktorerna. Det är tydligt hur de extraherade gångegenskaperna påverkas direkt. Genom att använda Gait Energy Image (GEI) [3] som gångegenskaper, extraherade direkt från de syntetiskt framtagna ramarna, utförde vi experiment för att bedöma den nivå till vilken identiteten bevaras i de syntetiska datamängderna. Resultat från våra experiment -presenterade i figur 2 - tyder på att information om försökspersonernas identitet bevaras i de syntetiskt genererade data. Experimenten med GEI som funktioner i vår datauppsättning visade att förstärkning av en begränsad mängd verkliga data med syntetiskt genererade data kan ge identifiering av försökspersoner med en noggrannhet på mer än 95%. Resultaten av denna studie tyder på att syntetiska data kan användas för att öka utbildningen av gångigenkänningsalgoritmer under förutsättning att funktionen uppsättning (t.ex. Huvudkomponenterna) utvidgas till att omfatta både verkliga och syntetiska exempel på data.
I REF, t.ex., använder Charalambous och Bharath vägledning i samband med erkännande av åtgärder.
3,106,160
A data augmentation methodology for training machine/deep learning gait recognition algorithms
{'venue': 'Procedings of the British Machine Vision Conference 2016', 'journal': 'Procedings of the British Machine Vision Conference 2016', 'mag_field_of_study': ['Computer Science']}
12,120