src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Vi introducerar YOLO9000, ett toppmodernt system för att upptäcka objekt i realtid som kan upptäcka över 9000 objektkategorier. Först föreslår vi olika förbättringar av YOLO-detektionsmetoden, både ny och hämtad från tidigare arbete. Den förbättrade modellen, YOLOv2, är toppmodern på standard detektionsuppgifter som PASCAL VOC och COCO. Med hjälp av en ny, flerskalig träningsmetod kan samma YOLOv2-modell köras i olika storlekar, vilket ger en enkel avvägning mellan hastighet och noggrannhet. Vid 67 FPS får YOLOv2 76,8 mAP på VOC 2007. Vid 40 FPS, får YOLOv2 78,6 mAP, outperforming state-of-the-art metoder som Snabbare R-CNN med ResNet och SSD medan fortfarande kör betydligt snabbare. Slutligen föreslår vi en metod för att gemensamt träna på att upptäcka och klassificera föremål. Med denna metod tränar vi samtidigt YOLO9000 på COCO-detektionsdatasetet och ImageNet-klassificeringsdatasetet. Vår gemensamma utbildning gör det möjligt för YOLO9000 att förutsäga detektioner för objektklasser som inte har märkt detektionsdata. Vi validerar vår strategi för att upptäcka ImageNet. YOLO9000 får 19,7 mAP på ImageNet detektion valideringsset trots att endast ha detektionsdata för 44 av de 200 klasserna. På 156 klasser inte i COCO, får YOLO9000 16,0 mAP. YOLO9000 förutspår upptäckter för mer än 9000 olika objektkategorier, allt i realtid.
Nyligen tågar YOLO-9000 REF gemensamt på klassificerings- och detektionsdata.
786,357
YOLO9000: Better, Faster, Stronger
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
8,647
Abstract-Den snabba spridningen av trådlösa sensornätverk har stimulerat enorma forskningsinsatser som syftar till att maximera livslängden för batteridrivna sensornoder och, i förlängningen, den totala nätverkslivslängden. De flesta arbeten inom detta område kan delas in i två lika viktiga trådar, nämligen i) energieffektiv routing som balanserar trafikbelastningen över nätet enligt energirelaterade mått och ii) viloschemaläggning som minskar energikostnaden på grund av tomgångslyssnande genom att tillhandahålla periodiska sömncykler för sensornoder. Hittills bedrivs dessa två trådar separat i litteraturen, vilket leder till konstruktioner som optimerar den ena komponenten förutsatt att den andra är förutbestämd på förhand. Sådana konstruktioner ger upphov till praktiska svårigheter när det gäller att fastställa lämpliga scheman för routing och vilotid i den verkliga utbyggnaden av sensornätverk, eftersom ingen av komponenterna kan optimeras utan att den andra prefixeras. Detta papper strävar efter att ta itu med bristen på en gemensam routing-och-sömn-schemaläggning i litteraturen genom att införliva utformningen av de två komponenterna i en optimeringsram. Särskilt, gemensam routing-andsleep-schemaläggning i sig är ett icke-konvext optimeringsproblem, vilket är svårt att lösa. Vi tar itu med problemet genom att omvandla det till ett likvärdigt Signomial Program (SP) genom att lätta flödet bevarande begränsningar. SP problemet löses sedan med en iterativ Geometrisk programmering (IGP) metod, vilket ger en nära optimal routing-och-sömn-schemaläggning som maximerar nätverkets livslängd. Såvitt vi vet är detta det första försöket att få den optimala gemensamma routing-andsleep-schemaläggningsstrategin för trådlösa sensornätverk. Den nästan optimala lösning som detta arbete ger öppnar upp nya möjligheter att utforma praktiska och heuristiska system som riktar sig mot samma problem, för nu kan prestandan hos alla nya heuristiker enkelt utvärderas med hjälp av det föreslagna nästan optimala systemet som riktmärke.
Forskningen REF löser routing- och schemaläggningsproblemen genom att använda konvex optimeringsteori och slutligen förverkligar maximeringen av nätverkets livslängd.
23,239,531
Joint Routing and Sleep Scheduling for Lifetime Maximization of Wireless Sensor Networks
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
8,648
Förstärkt lärande i fleragentscenarier är viktigt för tillämpningar i verkligheten men innebär utmaningar utöver dem som ses i enagentmiljöer. Vi presenterar en aktörskritisk algoritm som utbildar decentraliserade policyer i multiagentinställningar, med hjälp av centralt beräknade kritiker som delar en uppmärksamhetsmekanism som väljer relevant information för varje agent i varje steg. Denna uppmärksamhetsmekanism möjliggör effektivare och mer skalbar inlärning i komplexa multiagentiska miljöer jämfört med den senaste tidens metoder. Vårt tillvägagångssätt är tillämpligt inte bara på kooperativa miljöer med delade belöningar, utan också individualiserade belöningsinställningar, inklusive kontradiktoriska inställningar, och det gör inga antaganden om agenternas aktionsutrymmen. Som sådan är det tillräckligt flexibelt för att tillämpas på de flesta fleragentiska inlärningsproblem.
Iqbal och Sha REF föreslår en uppmärksamhetsmekanism som gör det möjligt för den centraliserade kritikern att välja relevant information för varje agent.
52,939,327
Actor-Attention-Critic for Multi-Agent Reinforcement Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
8,649
I detta dokument presenteras QUEST++, ett verktyg med öppen källkod för kvalitetsuppskattning som kan förutsäga kvalitet för texter på ord-, menings- och dokumentnivå. Det ger också rörledning bearbetning, varigenom förutsägelser som gjorts på en lägre nivå (t.ex. För ord) kan användas som input för att bygga modeller för förutsägelser på en högre nivå (t.ex. meningar). QUEST++ möjliggör extraktion av en mängd olika funktioner, och ger maskininlärning algoritmer för att bygga och testa kvalitetsuppskattning modeller. Resultaten från de senaste datauppsättningarna visar att QUEST++ uppnår toppmoderna resultat.
Ett nytt arbete på ordnivå QE är QuEst++ REF, som är en verktygslåda med öppen källkod för QE på ord-, menings- och dokumentnivå.
2,956,077
Multi-level Translation Quality Prediction with QuEst++
{'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,650
Abstract-I detta dokument undersöker vi resursfördelningsstrategier för ett point-to-point trådlöst kommunikationssystem med hybridenergikällor som består av en energiskördare och en konventionell energikälla. Särskilt som ett incitament för att främja användningen av förnybar energi antar vi att den förnybara energin har en lägre kostnad än den konventionella energin. Sedan, genom att anta att den icke-causala informationen om energi ankomster och kanal effektvinster är tillgängliga, minimerar vi den totala energikostnaden för ett sådant system över N bleknings tider under en föreslagen avbrott begränsning tillsammans med begränsningar energi skörd. Utegångsbegränsningen kräver ett minimum av fast antal slots för att avkodas tillförlitligt, och därmed leder till en mixed-integer programmering formulering för optimeringsproblem. Denna begränsning är till exempel användbar om en yttre kod används för att återställa alla databitar. Optimala linjära tidsalgoritmer erhålls för två extrema fall, dvs. antalet avbrott är 1 eller N − 1. För det allmänna fallet, en lägre gräns baserad på linjär programmering avkoppling, och två suboptimala algoritmer föreslås. Det visas att de föreslagna suboptimala algoritmerna endast uppvisar en liten lucka från den nedre gränsen. Vi utvidgar sedan de föreslagna algoritmerna till flercykelscenariot där avbrottsbegränsningen införs för varje cykel separat. Slutligen undersöker vi resursfördelningsstrategierna när endast kausalinformation om energianländande och endast kanalstatistik finns tillgänglig. Det visas att den giriga energitilldelningen är optimal för detta scenario. Index Terms-Energi skörd, hybrid strömförsörjning, grön trådlös kommunikation, blockera blekning kanaler, optimal resursfördelning, icke-konvex optimering, blandade-integer programmering.
Till exempel, med tanke på icke-causal kanal tillstånd information (CSI) och icke-kausal energi tillstånd information (ESI), författarna i REF optimerade den totala energikostnaden för punkt-till-punkt systemet under energi skörd begränsning och avbrott begränsning över flera bleknings tider.
1,609,180
Cost Minimization for Fading Channels With Energy Harvesting and Conventional Energy
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
8,651
Vi anser att priset på stabilitet för Nash och korrelerad jämvikt av linjär trängsel spel. Priset på stabilitet är det optimistiska priset på anarki, förhållandet mellan kostnaden för den bästa Nash eller korrelerad jämvikt över den sociala optimal. Vi visar att för summan sociala kostnader, som motsvarar den genomsnittliga kostnaden för spelarna, varje linjär trängsel spel har Nash och korrelerade priset på stabilitet på högst 1,6. Vi ger också en nästan matchande nedre gräns på 1 + ε 3/3 = 1.577. Vi betraktar också priset på anarki för korrelerad jämvikt. Vi utvidgar några av resultaten i [2, 4] till korrelerad jämvikt och visar att för summan samhällskostnad, priset på anarki är 2.5. Samma gräns håller för symmetriska spel också. Detta motsvarar de nedre gränser som ges i [2, 4] för ren Nash equilibria. Vi utökar också resultaten i [2] för viktade trängselspel till korrelerad jämvikt. Särskilt visar vi att när den sociala kostnaden är den totala latency, priset för anarki är (3 + 5)/2 = 2.618.
Dessa gränser håller också när man överväger priset på anarki av generaliseringar av PNE såsom blandade Nash equilibria och korrelerade equilibria, som visas av Christodoulou och Koutsoupias i REF.
928,588
On the Price of Anarchy and Stability of Correlated Equilibria of Linear Congestion Games
{'venue': 'ESA', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,652
Dependent Object Types (DOT) är avsedd att vara en kärnkalkyl för modellering Scala. Dess särskiljande funktion är abstrakta typ medlemmar, fält i objekt som innehåller typer snarare än värden. Att bevisa sundheten i DOT har varit förvånansvärt utmanande, och befintliga bevis är komplicerade, och resonera om flera begrepp på samma gång (t.ex. Typer, värden, utvärdering). För att fungera som en kärnkalkyl för Scala, DOT bör vara lätt att experimentera med och förlänga, och därför dess sundhet bevis måste vara lätt att ändra. I detta dokument presenteras en enkel och modulär bevisstrategi för resonemang i DOT. Strategin skiljer resonemanget om olika typer från andra frågor. Den är centrerad kring ett teorem som kopplar hela DOT-systemet till en begränsad variant där de utmaningar och paradoxer som orsakas av abstrakta typmedlemmar elimineras. Nästan allt resonemang i bevisen görs i den intuitiva världen av detta begränsade typsystem. När vi har de nödvändiga resultaten om typer, Vi observerar att de andra aspekterna av DOT är mestadels standard och kan införlivas i en ljudstyrka bevis med hjälp av bekanta tekniker som är kända från andra beräkningar. Vårt papper levereras med en maskin-verifierad version av beviset i Coq. medger skrivningar som helt enkelt verkar helt fel, och ger inget hopp om sundhet, så det verkar nödvändigt att ha lemmas som resonerar samtidigt om de invecklade egenskaper värden, typer och miljöer som de bor i. En kärnanalys måste vara lätt att förlänga. Vissa tillägg av DOT är nödvändiga även för att modellera viktiga Scala funktioner. Som ett framträdande exempel, typer i Scala kan bero på sökvägar x.a 1.·a n.A (där x är en variabel, a i är fält, och A är en typ medlem), men typer i den befintliga DOT calculi kan endast vara direkt beroende av variabler (x.A). Path-beroende typer behövs för att modellera viktiga funktioner såsom klasser och egenskaper (som medlemmar inbäddade i objekt och paket) och den berömda tårta mönster [Odersky och Zenger 2005]. En annan viktig Scala-funktion som ska studeras i DOT är implicita parametrar. Dessutom är språkändringar och tillägg existensberättigandet för en kärnkalkyl. DOT gör det möjligt för designers att experimentera med spännande nya funktioner som kan läggas till Scala, att justera dem och resonera om deras egenskaper innan de försöker integrera dem i kompilatorn med komplexiteten i hela Scala språk. Bevisets komplexitet utgör ett hinder för en sådan utvidgning och försöksverksamhet. Under de senaste tio åren har DOT utformats och omformats för att vara precis rätt, så att de lysande lemmas som säkerställer dess ljudstyrka håller och kan bevisas. När DOT-kalkylen störs av en ändring är det svårt att förutsäga vilka delar av beviset som kommer att påverkas. Att experimentera med modifieringar av DOT är svårt eftersom varje tweak kräver att många lemmas ska testas på nytt. Vårt mål i den här artikeln är ett sundhetsbevis som är enklare, mer modulärt och mer intuitivt. Vi strävar efter att separera begreppen typer, värderingar och operationella semantik, och att resonera om ett begrepp i taget. Sedan, om en språktillägg ändrar endast ett begrepp, såsom skrivande, de nödvändiga ändringarna lokaliseras till de delar av beviset som behandlar typer. Vi strävar också efter att isolera det mesta av resonemanget i ett enklare system som är immunt mot paradoxen med dåliga gränser, den viktigaste utmaningen som plågade det långa sökandet efter ett sundhetsbevis. I detta system kan vårt resonemang förlita sig på intuitiva föreställningar från bekanta objektkalkyl utan beroende objekttyper [Abadi och Cardelli 1996; Pierce 2002]. Resultatet av detta resonemang lyfts till det fullständiga DOT-systemet genom ett enda, enkelt teorem. Huvudfokus för våra bevis ligger på typer. Beroende objekttyper är en funktion som skiljer DOT, så vi strävar efter att koppla bort en funktion, som främst påverkar det statiska typsystemet, från andra bekymmer. Vi fokuserar på att bevisa de egenskaper som man förväntar sig av typer, och avsiktligt hålla beviset oberoende av andra aspekter, såsom operationella semantik och runtime värden, som är liknande i DOT som i andra objekt calculi. Naturligtvis måste ett sundhetsbevis så småningom tala om avrättning och värden, men när vi har den nödvändiga teorin för att resonera om typer, kan dessa andra farhågor hanteras separat, i slutet av beviset, med hjälp av standard bevisteknik. Vår slutliga sundhet teorem anges för de små steg operationella semantik ges av, men det är bara den slutliga slutsatsen; teorin att vi utvecklar om beroende objekttyper skulle vara lika tillämpliga i ett bevis för en stor steg operationell semantik. På sätt och vis rör sig detta dokument i motsatt riktning jämfört med andra arbeten på senare tid relaterade till DOT: detta dokument syftar till ett enklare bevis på en specifik kalkyl, medan andra arbeten generaliserar DOT med inslag från andra kalkyler. Den mest betydande addition i är subtyping mellan rekursiva typer, vilket kräver sofistikerade bevistekniker och induktionssystem, men inte behövs för att modellera Scala. Amin och Rompf [2017] fokuserar på en familj av kalkyler med vissa egenskaper som liknar dem i DOT, och på allmänna bevistekniker som gäller för hela familjen. Även om det är användbart att generalisera och jämföra DOT med andra calculi, det är inte ämnet för detta papper. Detta dokument fokuserar inåt, på DOT sig själv, på endast de funktioner i DOT som är nödvändiga för modellering Scala, i syfte att göra ljudstyrka bevis för dessa specifika funktioner så enkel och modulär som möjligt.
Hittills har arbetet med DOT calculi främst fokuserat på ljudstyrka bevis REF.
2,199,016
A simple soundness proof for dependent object types
{'venue': 'PACMPL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,653
I detta dokument studeras interaktioner och energiutbytesbeslut för ett antal geografiskt distribuerade lagringsenheter under beslutsfattande med slutanvändare. I synnerhet är ett icke-kooperativt spel formulerat mellan kundägda lagringsenheter där varje lagringsenhets ägare kan besluta om att ladda eller frigöra energi med en given sannolikhet för att maximera en nytta som återspeglar avvägningen mellan de monetära transaktionerna från laddning/avladdning och påföljd från effektreglering. Till skillnad från befintliga spelteoretiska verk som utgår från att spelarna fattar sina beslut rationellt och objektivt, använder vi den nya ramen för prospektteori (PT) för att uttryckligen införliva användarnas subjektiva uppfattningar om deras förväntade verktyg. För tvåspelarspelet visar vi att det finns en korrekt blandad Nash-jämvikt för både det vanliga spelteoretiska fallet och fallet med PT-överväganden. Simuleringsresultat visar att införandet av användarbeteende via PT avslöjar flera viktiga insikter i belastningshantering samt ekonomi av energilagringsanvändning. Resultaten visar till exempel att avvikelser från den konventionella spelteorin, såsom den förutspås av PT, kan leda till oönskade nätbelastningar och intäkter, vilket innebär att kraftbolaget måste se över sina prissättningssystem och kunderna för att ompröva sina val av användning av energilagring.
I REF jämförs optimalt energiutbyte mellan geografiskt distribuerade konsumentägda energilagringsenheter enligt klassisk spelteori och prospektteori.
18,448,079
Integrating Energy Storage into the Smart Grid: A Prospect Theoretic Approach
{'venue': '2014 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)', 'journal': '2014 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
8,654
I detta dokument föreslås en övervakad inlärningsmetod för att gemensamt utföra ansiktsåtgärdsenhetens lokaliserings- och intensitetsuppskattning. I motsats till tidigare arbeten som försöker lära sig en oövervakad representation av åtgärdsenhetens regioner, föreslår vi att direkt och gemensamt uppskatta alla AU-intensiteter genom värmekarta regression, tillsammans med platsen i ansiktet där de orsakar synliga förändringar. Vårt tillvägagångssätt syftar till att lära sig en pixel-wise regressionsfunktion som returnerar en poäng per AU, vilket indikerar en AU-intensitet på en given rumslig plats. Heatmap regression genererar sedan en bild, eller kanal, per AU, där varje pixel anger motsvarande AU intensitet. För att generera mark-truth värmekartor för ett mål AU, ansikts landmärken först uppskattas, och en 2D Gaussian dras runt de punkter där AU är känd för att orsaka förändringar. Gaussianens amplitud och storlek bestäms av AU:s intensitet. Vi visar att med hjälp av ett enda Hourglass nätverk räcker för att uppnå nya toppmoderna resultat, visar effektiviteten av en sådan enkel strategi. Användningen av värmekarta regression gör det möjligt att lära sig av en delad representation mellan AU utan att behöva förlita sig på latenta representationer, eftersom dessa är implicit lärt från data. Vi validerar den föreslagna metoden för BP4D dataset, visar en blygsam förbättring på senaste, komplexa, tekniker, samt robusthet mot feljustering fel. Kod för testning och modeller kommer att finnas tillgänglig för nedladdning från https://github.com/ESanchezLozano/ Action-Units-Heatmaps.
På grund av tillgången på AU-styrkor, Sanchez et al. REF använde AU-intensiteten för att bestämma amplituden och storleken på en Gaussian distribution så att generera en uppmärksamhet karta för varje AU.
13,662,461
Joint Action Unit localisation and intensity estimation through heatmap regression
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
8,655
M achine learning är ett kraftfullt verktyg för att omvandla data till beräkningsmodeller som kan driva användarvänliga applikationer. Potentiella användare av sådana tillämpningar, som ofta är domänexperter för ansökan, har dock begränsat deltagande i processen för att utveckla dem. Intrikaterna i att tillämpa maskininlärningsteknik på vardagliga problem har till stor del begränsat deras användning till skickliga utövare. I det traditionella tillämpade arbetsflödet för maskininlärning samlar dessa utövare in data, väljer funktioner för att representera data, förbehandla och omvandla data, väljer en representation och lärande algoritm för att konstruera modellen, melodiparametrar för algoritmen, och slutligen bedöma kvaliteten på den resulterande modellen. Denna bedömning leder ofta till ytterligare upprepningar av många av de tidigare stegen. Vanligtvis är alla slutanvändares engagemang i denna process förmedlat av utövarna och är begränsat till att tillhandahålla data, svara på domänrelaterade frågor eller ge feedback om den lärda modellen. Detta resulterar i en designprocess med långa och asynkrona iterationer och begränsar slutanvändarnas förmåga att påverka de resulterande modellerna. Betrakta följande fall studie av maskininlärning utövare som arbetar med biokemister för att utveckla en protein taxonomi genom att samla låg nivå proteinstrukturer (Caruana et al. 2006).................................................................. Projektledningen berättade om sin erfarenhet i ett inbjudet föredrag på Intelligent User Interfaces workshop 2013 om Interactive Machine Learning (Amershi et al. 2013)................................................................. För det första skulle utövarna skapa en klunga av proteinstrukturerna. Sedan träffade de biokemisterna för att diskutera resultaten. Biokemisterna skulle kritisera resultaten (t.ex. "dessa två proteiner bör/bör inte vara i samma kluster" eller "detta kluster är för litet"), vilket ger nya begränsningar för nästa iteration. Efter varje möte skulle utövarna noga anpassa klusterparametrarna för att följa den givna con- (Cohn, Caruana, och McCallum 2003; Caruana et al. 2006).................................................................. Dessa algoritmer var avsedda att ge människor möjlighet att snabbt iterera och inspektera många alternativa kluster inom ett enda sammanträde. Deras senare tillvägagångssätt är ett exempel på interaktivt maskininlärning, där inlärningscykler innebär snabbare, fokuserade och stegvisa modelluppdateringar än i den traditionella maskininlärningsprocessen. Dessa egenskaper gör det möjligt för vardagliga användare att interaktivt utforska modellutrymmet och driva systemet mot ett avsett beteende, vilket minskar behovet av övervakning av utövare. Följaktligen kan interaktiv maskininlärning underlätta demokratiseringen av tillämpat maskininlärning, vilket ger slutanvändarna möjlighet att skapa maskininlärningsbaserade system för sina egna behov och syften. Att möjliggöra effektiv interaktion mellan slutanvändare och interaktiv maskininlärning innebär dock nya utmaningar som kräver en bättre förståelse för slutanvändarnas möjligheter, beteenden och behov. Denna artikel främjar den empiriska studien av användare av interaktiva maskininlärningssystem som en metod för att ta itu med dessa utmaningar. Genom en serie fallstudier illustrerar vi följande förslag: Snabba, fokuserade och inkrementella inlärningscykler resulterar i en tät koppling mellan användaren och systemet, där de två påverkar varandra. Som ett resultat av detta är det svårt att frikoppla deras inflytande på den resulterande modellen och studera sådana system isolerat. Explicit studera användarinteraktion kan utmana antaganden om traditionella inlärningssystem om användare och bättre informera utformningen av interaktiva inlärningssystem. De sätt på vilka slutanvändare interagerar med inlärningssystem kan utvidgas till att omfatta de metoder som utövare gör (t.ex. inställningsparametrar eller definition av nya begränsningar), men nya interaktionsmetoder bör utvärderas noggrant med potentiella slutanvändare. Medan de presenterade fallstudierna målar upp en bred bild av den senaste forskningen i användarinteraktion med interaktiv maskininlärning, undersöker denna artikel inte uttömmande litteraturen i detta utrymme. I stället väljs dessa fallstudier ut för att belysa användarens roll och betydelse i den interaktiva maskininlärningsprocessen, vilket fungerar som en introduktion till ämnet och ett verktyg för att överväga denna forskning helt och hållet. Vi avslutar denna artikel med en diskussion om det aktuella läget på området, identifiera möjligheter och öppna utmaningar för framtida interaktiv maskininlärning forskning. Det tillämpade arbetsflödet för maskininlärning innebär ofta långa och komplexa iterationer. Processen inleds med data som tillhandahålls av domänexperter eller som särskilt samlas in för målapplikationen. Maskinlearning utövare arbetar sedan med domänexperter för att identifiera funktioner för att representera data. Därefter experimenterar utövarna med olika maskininlärningsalgoritmer, iteratively tuning parametrar, tweaking funktioner, och ibland samla in mer data för att förbättra målprestandamått. Resultaten undersöks sedan vidare av både utövare och domänexperter för att informera den efterföljande iterationen. I slutet av denna långa cykel uppdateras modellen på flera sätt och kan drastiskt skilja sig från den tidigare iterationen. Dessutom drivs denna iterativa undersökning av modellutrymmet främst av maskininlärningsutövarna, som förlitar sig på sin förståelse av maskininlärningsteknik för att göra välinformerade modelluppdateringar i varje iteration. Modelluppdateringar i interaktiv maskininlärning är däremot snabbare (modellen uppdateras omedelbart som svar på användarinmatning), fokuserad (endast en viss aspekt av modellen uppdateras) och inkrementell (uppdateringens omfattning är liten; modellen ändras inte drastiskt med en enda uppdatering). Detta gör det möjligt för användare att interaktivt undersöka effekten av sina åtgärder och anpassa efterföljande indata för att få önskade beteenden. Som ett resultat av dessa snabba interaktionscykler, även användare med liten eller ingen maskininlärning expertis kan styra maskininlärning beteenden genom låg kostnad försök och fel eller fokuserade experiment med input och outputs. Kanske de mest bekanta exempel på interaktiv maskininlärning i verkliga tillämpningar är rekommenderar system som Amazon produktrekommendationer, Netflix film rekommendationer, och Pandora musik rekommendationer. Användare av recommender system ställs ofta riktade frågor om sina preferenser för enskilda objekt 2 (som de tillhandahåller genom att gilla eller ogilla dem, till exempel). Dessa preferenser införlivas sedan snabbt i det underliggande inlärningssystemet för efterföljande rekommendationer. Om ett rekommendationssystem börjar rekommendera oönskade objekt efter att ha infört nya inställningar, kan användaren försöka omdirigera systemet genom att korrigera det eller ge olika preferensinformation i framtiden. Därefter presenterar vi två fallstudier som exemplifierar den interaktiva maskininlärningsprocessen och demonstrerar dess potential som ett verktyg för slutanvändare. Interactive Machine Learning for Image Segmentation Misslyckas och Olsen (2003) var de första att introducera artiklarna WINTER 2014 107 termen interaktiv maskininlärning i människa-datorinteraktion gemenskapen, som karakteriserar det med snabba tåg-feedback-korrigerande cykler, där användare iterativt ge korrigerande feedback till en inlärare efter att ha sett dess utgång. De demonstrerade denna process med sina Crayons system, som gjorde det möjligt för användare utan maskininlärning bakgrund att träna pixel klassificerare genom att iterativt markera pixlar som förgrund eller bakgrund genom penseldrag på en bild. Efter varje användarinteraktion svarade systemet med en uppdaterad bildsegmentering för ytterligare granskning och korrigerande inmatning. Utvärderingar av Crayons genom användarstudier visade att systemets omedelbara resultat gjorde det möjligt för användarna att snabbt se och korrigera felklassificeringar genom att lägga till nya utbildningsdata inom de mest problematiska områdena. Som illustreras i figur 2, efter en första klassificering, ger användaren Crayons med mer data i kanterna på handen där klassificeringen misslyckades. På frågan vad de tänkte när de interagerade med systemet, de flesta användare uppgav att de var fokuserade på att se delar av bilden som klassificerades felaktigt. Misslyckas och Olsens arbete med Crayons visade att användarna modifierar sitt beteende baserat på en inlärares resultat, vilket är en underliggande förutsättning för en stor del av följande forskning om interaktiv maskininlärning. Ett annat exempel på ett interaktivt maskininlärningssystem kommer från musiksammansättningens område Inom maskininlärning levererar människor iterativt information till ett inlärningssystem och observerar och tolkar sedan systemets utgångar för att informera efterföljande iterationer. I interaktiv maskininlärning är dessa iterationer mer fokuserade, frekventa och inkrementella än traditionell maskininlärning. Det tätare samspelet mellan användare och inlärningssystem i interaktiv maskininlärning kräver ett ökat fokus på att studera användarens engagemang i processen. och prestanda. Denna domän är naturligt interaktiv: musiker är vana vid att få omedelbar feedback när de interagerar med ett musikinstrument. Fiebrink, Cook och Trueman (2011) utvecklade Wekinator, ett maskininlärningssystem som gör det möjligt för människor att interaktivt skapa nya gestbaserade instrument, som att flytta en arm framför en webbkamera för att producera olika ljud baserat på armens position, hastighet eller rotation. I detta system får ett neuralt nätverk parade gester och ljud från användaren som ingång och lär sig att interpolera från oobserverade gestpositioner till en rad olika ljud. Användarna utvärderar sina instrument direkt genom att ge och bedöma de producerade ljuden. Samtidigt som man observerar elever som använder Wekinator i en tvärvetenskaplig musik- och datavetenskaplig kurs, fann författarna att systemets interaktiva karaktär, när eleverna tränade sina respektive instrument, också bidrog till att utbilda eleverna. Eleverna lärde sig till exempel hur man känner igen buller i sina träningsprover och ger klarare exempel till eleven. I vissa fall justerade eleverna till och med sina mål för att matcha elevens observerade förmåga. I en uppföljning undersökning med en professionell cellist (Fiebrink, Cook, och Trueman 2011), cellisten identifierade brister i hennes spelteknik samtidigt som man försöker träna en gest känna igen. Processen visade att cellistens böjande artikulation inte var så exakt som hon hade trott. Genom att observera utdata från systemet i realtid, Wekinator användare kunde ändra sitt beteende på sätt som tillät dem att skapa instrument till sin tillfredsställelse. Dessa exempel illustrerar de snabba, fokuserade och inkrementella interaktionscykler som är grundläggande för interaktiv maskininlärning; det är dessa cykler som underlättar slutanvändarnas engagemang i maskininlärningsprocessen. Dessa cykler resulterar också i en tät koppling mellan användaren och systemet, vilket gör det omöjligt att studera systemet isolerat från användaren. Detta kräver ett ökat fokus på att studera hur användarna effektivt kan påverka maskininlärningssystemet och hur inlärningssystemet på lämpligt sätt kan påverka användarna. I följande avsnitt undersöks hur explicit studier av slutanvändare kan utmana antaganden om traditionell maskininlärning och bättre informera utvecklingen av interaktiva maskininlärningssystem. Många av de fallstudier att följa dessutom överväga mindre traditionella typer av input och output, som går bortom märkta exempel och observationer av inlärare förutsägelser. Se figur 2 i bilaga II till förordning (EG) nr 1069/2009. Interaktiv träning av Crayons System. Systemet tar pixlar märkta som bakgrund/förgrund som ingång (tillhandahålls genom penseldrag), och ger en helt segmenterad bild som utgång (finns genom en klassificering som märker varje pixel som förgrund/bakgrund). Användarens input är fokuserad på områden där klassificeringen misslyckas i tidigare iterationer (Underkänder och Olsen 2003). InsatsdataSegmentering Iteration 1 Iteration 2 Iteration 3 Den ökade interaktionen mellan användare och lärandesystem i interaktiv maskininlärning kräver en ökad förståelse för hur slutanvändarnas engagemang påverkar inlärningsprocessen. I detta avsnitt presenterar vi fallstudier som visar hur en sådan förståelse i slutändan kan leda till bättre informerade systemkonstruktioner. För det första presenterar vi fallstudier som visar hur människor kan bryta antaganden gjorda av traditionella maskininlärare, vilket resulterar i oväntade resultat och användaren frustration. Därefter presenterar vi fallstudier som visar att människor kanske vill interagera med maskininlärningssystem på ett rikare sätt än förväntat, vilket tyder på nya input- och utdatafunktioner. Slutligen presenterar vi fallstudier som experimenterar med ökad transparens om hur maskininlärningssystem fungerar, och som visar att sådan transparens kan förbättra användarupplevelsen i vissa scenarier, samt noggrannheten hos resulterande modeller. Aktivt lärande är ett maskininlärningsparadigm där eleven väljer de exempel han kommer att lära sig (Settles 2010). Dessa exempel väljs ut ur en samling omärkta prover på grundval av ett urvalskriterium (t.ex. prov för vilka eleven har maximal osäkerhet). För varje utvalt prov frågar eleven ett orakel för att begära en etikett. Denna metod har varit framgångsrik när det gäller att påskynda inlärningen (dvs. att kräva färre etiketter för att uppnå en målnoggrannhet) i tillämpningar som textklassificering och objektigenkänning, där orakel ofta betalas för att tillhandahålla etiketter under lång tid. Cakmak och kollegor (2010) upptäckte dock att aktivt lärande kan orsaka flera problem när det tillämpas på interaktiva inställningar, t.ex. en person som lär ut en uppgift till en robot genom exempel. Cakmaks studie (figur 3) fann att den konstanta strömmen av frågor från roboten under interaktionen uppfattades som obalanserad och irriterande. Strömmen av frågor ledde också till en nedgång i användarens mentala modell av hur roboten lärde sig, vilket fick vissa deltagare att "stänga av sin hjärna" eller "förlora spår av vad de undervisade" (enligt deras självrapport) (Cakmak, Choa, och Thomaz 2010). Guillory och Bilmes (2011) rapporterade liknande fynd för ett aktivt filmrekommenderingssystem som de utvecklat för Netflix. Dessa studier visar att användarna inte nödvändigtvis är villiga att vara enkla orakel (dvs. gång på gång tala om för datorn om det är rätt eller fel), bryta ett grundläggande antagande om aktivt lärande. I stället måste dessa system redogöra för sådana mänskliga faktorer som frånkopplingsförmåga eller frustration när man använder metoder som aktivt lärande. I förstärkande inlärning, en agent sinnen och agerar i en uppgift miljö och får numeriska belöningsvärden efter varje handling. Med denna erfarenhet försöker inlärningsagenten hitta beteendestrategier som förbättrar dess förväntade ansamling av belöningar. Ett antal forskningsprojekt har undersökt det scenario i vilket denna belöning kommer som återkoppling från en mänsklig användare snarare än en funktion som definierats av en expert (Isbell et al. 2006, Thomaz och Breazeal 2008, Knox och sten 2012. Vid utvärderingen av genomförbarheten av icke-expertanvändare undervisning genom belöningssignaler, dessa forskare syftar till att både utnyttja mänsklig kunskap för att förbättra inlärningshastigheten och tillåta användare att anpassa en agents beteende för att passa sina egna behov. Thomaz och Breazeal (2008) konstaterade att människor har en stark tendens att ge mer positiva belöningar än negativa belöningar. Knox och Stone (2012) bekräftade senare denna positiva partiskhet i sina egna experiment. De visade vidare att sådan partiskhet leder många agenter att undvika det mål som användarna lär den att nå (till exempel vattnet i figur 4). Denna oönskade konsekvens uppstår med en gemensam klass av förstärkande inlärningsalgoritmer: agenter som värdebelönade på lång sikt och lärs att slutföra så kallade tillfälliga uppgifter. Denna insikt rättfärdigade den tidigare populära lösningen att göra agenter som hedonistiskt endast strävar efter kortsiktiga mänskliga belöningar, och den ledde Knox och Stone (2013) att skapa en algoritm som framgångsrikt lär sig genom att värdera mänskliga belöningar som kan vinnas på lång sikt. Agenter tränade genom sitt nya tillvägagångssätt var mer robusta till miljöförändringar och betedde sig mer lämpligt i okända stater än gjorde mer hedonistiska (dvs. myopiska) varianter. Dessa medel och de algoritmiska riktlinjer Knox och Stone skapade var resultatet av flera iterationer av användarstudier, som identifierade positiv partiskhet och sedan verifierade dess hypoteseffekter. I ett experiment av Thomaz och Breazeal (2008) tränade användare en simulerad agent att baka en kaka genom ett förstärkande inlärningsramverk. I sitt gränssnitt gav användare feedback till eleven genom att klicka och dra en mus -längre drag gav större-magnitud belöning värden, och dra riktning bestämde valence (+ /-) av belöningsvärdet (figur 4). Vidare kunde användarna klicka på specifika objekt för att signalera att återkopplingen var specifik för det objektet, men de fick höra att de inte kunde kommunicera vilka åtgärder agenten skulle vidta. Thomaz och Breazeal fann bevis för att människor ändå gav positiv feedback till objekt som de ville att agenten skulle manipulera, till exempel en tom skål som agenten är i stånd att plocka upp. Dessa användare bröt mot instruktionerna genom att tillämpa vad som kunde anses vara en irrelevant grad av frihet - att ge återkoppling till objekt som inte nyligen manipulerats - att ge vägledning till agenten om framtida åtgärder, snarare än faktisk feedback om tidigare åtgärder. Efter att Thomaz och Breazeal anpassat agentens gränssnitt och algoritm för att införliva sådan vägledning, förbättrade agentens inlärningsprestanda avsevärt. Andra forskare har kommit fram till liknande slutsatser. I en Wizard-of-Oz-studie (dvs. agentens resultat tillhandahölls i hemlighet av en människa) av Kaochar och kollegor (2011), lärde användare en simu-försedd obemannad flygfarkost (UAV) att utföra olika uppdrag. När som helst valde dessa användare att undervisa genom demonstration, feedback eller genom att ge ett exempel på ett koncept. De kunde också testa agenten för att se vad den hade lärt sig. Författarna fann att användarna aldrig lärde ut enbart feedback, utan att de i allmänhet använde den efter att ha undervisat på andra tillgängliga sätt. Tillsammans ger dessa två studier inblick i utformningen av naturliga gränssnitt för lärare. Människor vill naturligtvis ge mer än bara dataetiketter Märkningsdata är fortfarande den mest populära metoden för slutanvändarens inmatning till interaktiva maskininlärningssystem på grund av dess enkelhet och användarvänlighet. Som framgår av tidigare fallstudier kan dock märkningsbaserade indata ha nackdelar (t.ex. negativa attityder till att behandlas som ett orakel). Dessutom tyder ny forskning på att användarna i vissa scenarier kan vilja ha mer kontroll över maskininlärningssystem än att bara märka data. Till exempel har Stumpf och kollegor (2007) genomfört en studie för att förstå vilka typer av slutanvändare som kan tillhandahålla maskininlärningssystem om gränssnittet är obegränsat. Författarna genererade tre typer av förklaringar för förutsägelser från ett textklassificeringssystem som fungerar över e-postmeddelanden. Dessa förklaringar presenterades för människor i form av pappersbaserade mockups för att undvika intrycket av ett färdigt system och uppmuntra människor att ge mer feedback. Människor ombads då att ge feedback i fri form på pappersprototyperna med målet att försöka rätta till klassificeringens misstag. Detta experiment genererade cirka 500 återkopplingar från deltagarna, som sedan kommenterades och kategoriserades. Författarna fann att människor naturligt gav ett brett utbud av inmatningstyper för att förbättra klassificeringens prestanda, bland annat föreslå alternativa funktioner att använda, justera betydelsen eller vikten som ges till olika funktioner, och ändra den information som extraheras från texten. Dessa resultat ger en möjlighet att utveckla nya maskininlärningsalgoritmer som bättre kan stödja den naturliga feedback människor vill ge till inlärare, snarare än tvinga användare att interagera på begränsade, inlärarcentrerade sätt. Förutom att människor vill ha rikare kontroller vill de ibland ha mer insyn i hur deras maskininlärningssystem fungerar. Kulesza och kollegor (2012) gav användare av en innehållsbaserad musikrekommendation med en 15-minuters handledning som diskuterade hur rekommendationen fungerade och hur olika återkopplingskontroller (till exempel betygslåtar, styrning mot specifika funktionsvärden, och så vidare) skulle påverka eleven. Förvånansvärt nog reagerade deltagarna positivt på att lära sig dessa detaljer om systemet. Dessutom fann forskarna att ju fler deltagare som lärde sig om rekommendationen samtidigt som de interagerade med den, desto mer nöjda var de med rekommendationens resultat. Denna fallstudie ger bevis för att användarna inte alltid är nöjda med "black box" inlärningssystem - ibland vill de ge nyanserad feedback för att styra systemet, och de är villiga och kan lära sig detaljer om systemet för att göra det. Rashid och kollegor (2006) undersökte insynen på en mer social nivå och undersökte effekten av att visa användarna värdet av deras potentiella filmbetyg till en bredare gemenskap i MovieLens rekommendationssystem. Användare som fick information om värdet av sitt bidrag till hela MovieLens community gav fler betyg än de som inte fick sådan information, och de som fick information om värde för en grupp användare med liknande smaker gav fler betyg än de som fick information om hela MovieLens community. Ibland gör användare misstag medan märkning, vilket ger falsk information till eleven. Även om de flesta inlärningssystem är robusta för enstaka mänskliga fel, Rosenthal och Dey satte ut för att lösa detta problem vid källan. De försökte minska användarnas misstag genom att tillhandahålla riktad information när en etikett begärs i en aktiv inlärningsmiljö. Den information som lämnades till användaren innehöll en kombination av kontextuella egenskaper hos det prov som ska märkas, förklaringar av dessa egenskaper, elevens egen förutsägelse av etiketten för provet, och dess osäkerhet i denna förutsägelse (Rosenthal och Dey 2010). De genomförde två studier för att bestämma den delmängd av sådan information som är mest effektiv för att förbättra märkningen noggrannheten hos användarna. Den första handlade om att märka främlingars e-postmeddelanden i kategorier, samt om att märka möjligheten att avbryta främlingars aktiviteter, den andra om att märka sensoriska inspelningar av deras egen fysiska aktivitet. Båda studierna visade att den högsta märkningsnoggrannheten uppstod när systemet gav tillräckliga kontextuella egenskaper och aktuella förutsägelser utan osäkerhetsinformation. Denna forskningslinje visar att det sätt på vilket information presenteras (t.ex. med eller utan sammanhang) i hög grad kan påverka kvaliteten på det svar som framkallas av användaren. Denna fallstudie visar också att inte alla typer av transparens förbättrar prestandan hos interaktiva maskininlärningssystem, och användarstudier kan hjälpa till att avgöra vilken information som är mest användbar för den avsedda publiken. Artiklar Sammanfattning Att förstå hur människor faktiskt interagerar - och vill interagera - med maskininlärningssystem är avgörande för att utforma system som människor kan använda effektivt. Att utforska interaktionsteknik genom användarstudier kan avslöja luckor i en designers antaganden om sina slutanvändare och kan föreslå nya algoritmiska lösningar. I några av de fall vi granskade bröt människor naturligtvis antaganden om maskininlärningsalgoritmen eller var ovilliga att följa dem. Andra fall visade att användarstudier kan leda till användbara insikter om vilka typer av input och output som gränssnitt för interaktiv maskininlärning bör stödja. I allmänhet kan denna typ av forskning ta fram designförslag och överväganden, inte bara för människor som bygger användargränssnitt och utvecklar den övergripande användarupplevelsen, utan även för maskininlärningssamhället.
Människa-datorinteraktion gemenskapen har identifierat fördelarna med mänsklig ingång för verktyg som drivs av AI och ML algoritmer som sträcker sig bortom det aktiva lärande paradigm där människor fungerar som datamärkning oracles REF.
127,197
Power to the People: The Role of Humans in Interactive Machine Learning
{'venue': 'AI Magazine', 'journal': 'AI Magazine', 'mag_field_of_study': ['Computer Science']}
8,656
Motivering: Integrativa matematiska och statistiska modeller av hjärtanatomi och fysiologi kan spela en viktig roll för att förstå hjärtsjukdom fenotyp och planering av terapeutiska strategier. Men exaktheten och den prediktiva kraften hos sådana modeller är beroende av bredden och djupet av icke-invasiva bilddataset. Hjärtatlasprojektet (CAP) har etablerat en storskalig databas över hjärttomografiundersökningar och tillhörande kliniska data för att utveckla ett gemensamt, webbtillgängligt, strukturellt och funktionellt atlas av det normala och patologiska hjärtat för kliniska, forsknings- och utbildningsändamål. Ett mål med den gemensamma jordbrukspolitiken är att underlätta samverkande statistiska analyser av regional hjärtform och väggrörelse och karakterisera hjärtfunktion bland och inom befolkningsgrupper. Resultat: Tre huvudsakliga programvarukomponenter med öppen källkod utvecklades: (i) en databas med webbgränssnitt; (ii) en modelleringsklient för 3D + tidsvisualisering och parametrisk beskrivning av form och rörelse; och (iii) öppna dataformat för semantisk karakterisering av modeller och annoteringar. Databasen implementerades med hjälp av en tredelad arkitektur som använder MySQL, JBoss och Dcm4chee, i enlighet med DICOM-standarden för att ge kompatibilitet med befintliga kliniska nätverk och enheter. Delar av Dcm4chee utökades för att komma åt bildspecifika attribut som sökparametrar. Hittills finns cirka 3000 avidentifierade hjärtundersökningar tillgängliga i databasen. Alla programvarukomponenter som utvecklats av den gemensamma jordbrukspolitiken är öppen källkod och är fritt tillgängliga under Mozilla Public License Version 1.1
Ett specialfall av hjärtatlaser är hjärtatlasprojektet (CAP) REF.
3,896,048
The Cardiac Atlas Project—an imaging database for computational modeling and statistical atlases of the heart
{'venue': 'Bioinformatics', 'journal': 'Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
8,657
Abstrakt. Att skaffa modeller som fångar bildmarkörer relevanta för sjukdomsprogression och behandling övervakning är utmanande. Modeller är vanligtvis baserade på stora mängder data med kommenterade exempel på kända markörer som syftar till att automatisera detektion. Stor anteckning ansträngning och begränsningen till en vokabulär av kända markörer begränsa kraften i sådana metoder. Här utför vi oövervakad inlärning för att identifiera avvikelser i avbildningsdata som kandidater för markörer. Vi föreslår AnoGAN, en djup konvolutionell generativ kontrarial nätverk för att lära sig en mångfald av normal anatomisk variabilitet, som åtföljer en ny anomali scoring schema baserat på kartläggning från bildutrymme till en latent utrymme. Tillämpas på nya data, modellen etiketter anomalier, och poäng bild patchar som visar deras passform i den lärda distributionen. Resultat på optisk sammanhållning tomografi bilder av näthinnan visar att metoden korrekt identifierar anomala bilder, såsom bilder som innehåller näthinnevätska eller hyperreflexiv foci.
ADGAN REF föreslås för att identifiera sjukdomsmarkörer på tomografi bilder av näthinnan.
17,427,022
Unsupervised Anomaly Detection with Generative Adversarial Networks to Guide Marker Discovery
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
8,658
Abstrakt. Kooperativa multiagentsystem (MAS) är sådana där flera agenter försöker, genom sitt samspel, att gemensamt lösa uppgifter eller att maximera nyttan. På grund av interaktionen mellan agenterna, multi-agent problem komplexitet kan stiga snabbt med antalet agenter eller deras beteendeförfining. Den utmaning som detta innebär för uppgiften att programmera lösningar på MAS-problem har skapat ett ökat intresse för maskininlärningsteknik för att automatisera sök- och optimeringsprocessen. Vi tillhandahåller en bred kartläggning av den kooperativa fleragentlitteraturen. Tidigare undersökningar inom detta område har till stor del fokuserat på frågor som är gemensamma för specifika delområden (t.ex. förstärkt lärande, RL eller robotik). I denna undersökning försöker vi dra nytta av mångagentiskt lärande inom ett spektrum av områden, inklusive RL, evolutionsberäkning, spelteori, komplexa system, agentmodellering och robotik. Vi finner att denna breda syn leder till en uppdelning av arbetet i två kategorier, var och en med sina egna speciella frågor: att tillämpa en enda inlärare för att upptäcka gemensamma lösningar på multiagentproblem (teaminlärning), eller att använda flera samtidiga inlärare, ofta en per agent (konkurrent lärande). Dessutom diskuterar vi direkt och indirekt kommunikation i samband med lärande, plus öppna frågor i uppgiftsnedbrytning, skalbarhet och adaptiv dynamik. Vi avslutar med en presentation av multi-agent inlärning problemdomäner, och en lista över multi-agent lärande resurser.
Se REF för en enkät om lärande i multiagentsystem.
19,706
Cooperative Multi-Agent Learning: The State of the Art
{'venue': 'Autonomous Agents and Multi-Agent Systems', 'journal': 'Autonomous Agents and Multi-Agent Systems', 'mag_field_of_study': ['Computer Science']}
8,659
Abstract-In icke-ortogonal multipel åtkomst (NOMA) nedlänk, flera dataflöden är överinsatta i maktdomänen och användaren avkodning bygger på successiv störningsavstängning. NOMA:s prestanda beror i hög grad på maktdelningen mellan dataflödena och problemet med tillhörande effektfördelning (PA). I detta brev studerar vi NOMA ur en rättvis synvinkel och vi undersöker PA-tekniker som säkerställer rättvisa för nedlänkanvändare under i) momentan kanaltillståndsinformation (CSI) vid sändaren, och ii) genomsnittlig CSI. Även om de formulerade problemen inte är konvexa har vi utvecklat polynomalgoritmer med låg komplexitet som ger den optimala lösningen i båda fallen.
Ur rättvis synvinkel undersöktes problemet med makttilldelning i REF för både CSI och genomsnittlig CSI vid sändarsidan.
10,175,679
Fairness for Non-Orthogonal Multiple Access in 5G Systems
{'venue': 'IEEE Signal Processing Letters', 'journal': 'IEEE Signal Processing Letters', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
8,660
I detta papper används intelligenta reflekterande ytor (IRS) för att förbättra den fysiska lagersäkerheten i en utmanande radiomiljö. I synnerhet måste en multi-antenna åtkomstpunkt (AP) betjäna flera legitima användare, som inte har line-of-sight kommunikation länkar, i närvaro av flera multi-antenna potentiella tjuvlyssnare vars kanaltillstånd information (CSI) inte är helt känd. Artificiellt buller (AN) överförs från AP för att avsiktligt försämra tjuvlyssnande kanaler för säkerhetsförsörjning. Vi undersöker den gemensamma konstruktionen av strålformarna och AN covariance-matrisen vid AP och fasskiftarna vid IRS för maximering av systemets summering samtidigt som det maximala informationsläckaget begränsas till potentiella tjuvlyssnare. I detta syfte formulerar vi ett robust icke-konvext optimeringsproblem med hänsyn till effekterna av den bristfälliga CSI av tjuvlyssnande kanaler. För att ta itu med problemets icke-konvexitet utvecklas en effektiv algoritm genom att utnyttja alternerande optimering, ett straffbaserat tillvägagångssätt, successiv konvex approximation och semidefinit avkoppling. Simuleringsresultat visar att IRS kan avsevärt förbättra prestandan för systemsekretess jämfört med konventionella arkitekturer utan IRS. Dessutom avslöjar våra resultat att, för fysisk lagersäkerhet, jämnt fördela de reflekterande elementen bland flera IRS är att föredra framför att distribuera dem på en enda IRS. Detta arbete kommer att presenteras delvis på följande webbplats:
Därför, Yu, et al. REF undersökte ett optimeringsproblem med tanke på effekten av föråldrade CSI av tjuvlyssnande kanaler i ett IRS-stödd säkert kommunikationssystem, och en robust algoritm föreslogs för att ta itu med optimeringsproblem i närvaro av flera tjuvlyssnare.
208,548,431
Robust and Secure Wireless Communications via Intelligent Reflecting Surfaces
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Engineering']}
8,661
Vi undersöker problemet med akustiska emanationer på tangentbordet. Vi presenterar en ny attack tar som ingång en 10-minuters ljudinspelning av en användare som skriver engelsk text med hjälp av ett tangentbord och återhämtar sig upp till 96% av maskinskrivna tecken. Det finns inget behov av utbildningsinspelningar märkta med motsvarande tydlig text. En igenkännare bootstrappad från en 10-minuters ljudinspelning kan även känna igen slumpmässig text som lösenord: I våra experiment, 90% av 5 tecken slumpmässiga lösenord med endast bokstäver kan genereras i färre än 20 försök av en motståndare; 80% av 10 tecken lösenord kan genereras i färre än 75 försök av en motståndare. I attacken använder vi de statistiska begränsningarna i det underliggande innehållet, engelska språket, för att rekonstruera text från ljudinspelningar utan att känna till motsvarande tydlig text. Angreppet innehåller en kombination av standard maskininlärning och taligenkänning tekniker, inklusive cepstrum funktioner, dolda Markov modeller, linjär klassificering, och feedback-baserat inkrementellt lärande.
Författarna i REF, med start från en 10-minuters ljudinspelning, byggde en attack som kan återhämta sig upp till 95% av de skrivna tecknen.
6,742,572
Keyboard acoustic emanations revisited
{'venue': 'TSEC', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,662
Vi introducerar och studerar problemet med att beräkna likheten själv-join i ett strömmande sammanhang (ssj), där indata är en obegränsad ström av objekt som anländer kontinuerligt. Målet är att hitta alla par av objekt i strömmen vars likhet är större än en given tröskel. Den enklaste formuleringen av problemet kräver obegränsat minne, och därför är det oåtkomligt. För att göra problemet genomförbart introducerar vi begreppet tidsberoende likhet: likheten mellan två punkter minskar med skillnaden i ankomsttid. Genom att utnyttja egenskaperna hos denna tidsberoende likhetsfunktion utformar vi två algoritmiska ramar för att lösa sssj-problemet. Den första, MiniBatch (MB), använder befintliga indexbaserade filtreringstekniker för den statiska versionen av problemet, och kombinerar dem i en pipeline. Den andra ramen, Streaming (STR), lägger till tidsfiltrering till befintliga index, och integrerar nya tidsbaserade gränser djupt i arbetet med algoritmerna. Vi introducerar också en ny indexeringsteknik (L2), som bygger på en befintlig toppmodern indexeringsteknik (L2AP), men är optimerad för streamingfallet. Omfattande experiment visar att STR-algoritmen, när den instanteras med L2-indexet, är det mest skalbara alternativet över ett brett spektrum av datauppsättningar och parametrar.
Morales m.fl. REF-studie en likhet ansluter där uppsättningarna anländer i en ström.
6,325,068
Streaming Similarity Self-Join
{'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']}
8,663
Abstract-De explosiva ökande kraven på mobil trafiktjänst medför både utmaningar och möjligheter för trådlösa nätverk, bland annat föreslås trådlös nätverksvirtualisering som huvudutveckling mot 5G. I detta dokument föreslår vi först en programvarudefinierad nätverksarkitektur (SDN) baserad på trådlös virtualiseringsarkitektur för att möjliggöra multiflödesöverföring för att spara kapitalkostnader (CapEx) och driftskostnader (OpEx) avsevärt med flera infrastrukturleverantörer (InPs) och flera mobila virtuella nätverksoperatörer (MVNOs). Vi formulerar det virtuella resursfördelningsproblemet med olika QoS-krav som ett socialt välfärdsmaximeringsproblem med transaktionskostnader. På grund av den höga computational komplexiteten av formulerade problem och dold information av InPs och MVNOs för SDN controller, introducerar vi skuggpriset för att säkerställa de önskvärda ekonomiska egenskaper samt den totala välfärden i systemet. Simuleringar utförs med olika systemkonfigurationer för att visa effektiviteten hos den föreslagna SDN-baserade trådlösa virtualiseringsramen och dubbelauktionsmekanismen.
För att tydligt minimera kostnaderna för kapital och drift föreslås SDN först baserat på den trådlösa virtualiseringsarkitekturen, som kan lösa problem med flera flödesöverföringar när det finns flera infrastrukturleverantörer och flera mobila virtuella nätverksoperatörer REF.
4,879,931
A double auction mechanism for virtual resource allocation in SDN-based cellular network
{'venue': '2016 IEEE 27th Annual International Symposium on Personal, Indoor, and Mobile Radio Communications (PIMRC)', 'journal': '2016 IEEE 27th Annual International Symposium on Personal, Indoor, and Mobile Radio Communications (PIMRC)', 'mag_field_of_study': ['Computer Science']}
8,664
Är det möjligt att göra statistiska slutsatser allmänt tillgängliga för icke-statistiker utan att offra matematisk stelbenthet eller slutledningskvalitet? Detta dokument beskriver BayesDB, en probabilistisk programmeringsplattform som syftar till att göra det möjligt för användare att fråga de sannolika konsekvenserna av sina data så direkt som SQL-databaser gör det möjligt för dem att fråga själva data. Detta dokument fokuserar på fyra aspekter av BayesDB: (i) BQL, ett SQL-liknande frågespråk för Bayesian data analys, som besvarar frågor genom att i genomsnitt över ett implicit utrymme av probabilistiska modeller; (ii) tekniker för att genomföra BQL med hjälp av en bred klass av multivariata probabilistiska modeller; (iii) en semiparametrisk Bayesian modell-byggare som auomatically bygger ensembler av faktoriella blandningsmodeller för att tjäna som baslinjer; och (iv) MML, ett "meta-modeling" språk för att införa kvalitativa begränsningar på modellen-byggaren och kombinera basmodeller med anpassade algoritmiska och statistiska modeller som kan genomföras i extern programvara. BayesDB illustreras med hjälp av tre tillämpningar: rengöring och utforska en offentlig databas över jordsatelliter, bedömning av bevis för tidsberoende mellan makroekonomiska indikatorer, och analys av en löneundersökning.
Detta dokument illustrerar CGPMs genom att integrera dem i BayesDB REF, en probabilistisk programmeringsplattform för dataanalys.
11,939,113
BayesDB: A probabilistic programming system for querying the probable implications of data
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
8,665
Vi anser att följande märkning process (rw-rand) görs av en slumpmässig promenad på en oriktad graf G. Vid ankomsten till en vertex v, det markerar v om omärkt och annars markerar en slumpmässigt vald omärkt granne av v. Vi överväger också en variant av denna process som kallas rw-r-rank. Här varje vertex tilldelas en global slumpmässig rank först och sedan i varje steg, den promenad markerar den lägsta rankade omärkta granne till den för närvarande besökta vertex. Beroende på graden och expansionen av grafen, vi bevisa flera övre gränser på den tid som krävs av dessa processer för att markera alla hörn. Till exempel, om G är en hyperkub eller slumpmässig graf, våra processer markerar alla hörn i tiden O(n), avsevärt påskyndar till (n log n) - cover tid standard slumpmässiga promenader.
För expanderdiagram, Berenbrink et al. visade en enkel variant av standard random walk som uppnår en linjär (dvs, O (n) cover time REF.
14,655,091
Speeding up random walks with neighborhood exploration
{'venue': "SODA '10", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
8,666
Vi presenterar EDA: enkla dataförstärkningstekniker för att öka prestandan på textklassificeringsuppgifter. EDA består av fyra enkla men kraftfulla operationer: synonymersättning, slumpmässig insättning, slumpmässig swap och slumpmässig radering. På fem textklassificeringsuppgifter visar vi att EDA förbättrar prestandan för både konvolutionella och återkommande neurala nätverk. EDA visar särskilt goda resultat för mindre dataset; i genomsnitt mellan fem dataset, utbildning med EDA samtidigt som endast 50 % av de tillgängliga utbildningsseten uppnådde samma noggrannhet som normal träning med alla tillgängliga data. Vi har också genomfört omfattande ablationsstudier och föreslår parametrar för praktisk användning.
Föreslagen i REF, Easy Data Augmentation (EDA) är en uppgraderad version av SR, som består av fyra olika deloperationer: synonymersättning, slumpmässig insättning, slumpmässig swap och slumpmässig radering.
59,523,656
EDA: Easy Data Augmentation Techniques for Boosting Performance on Text Classification Tasks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
8,667
normal fältbläckfiskens ingång (d-djup)... convolution pooling convolution pooling d-1 3 2......... Bilda. 1................................................................ En illustration av vårt oktree-baserade konvolutionella neurala nätverk (O-CNN). Vår metod representerar ingångsformen med en bläckfisk och matar de genomsnittliga normala vektorer som lagras i de finaste bladoktanterna till CNN som ingång. Alla CNN-operationer utförs effektivt på GPU och de resulterande funktionerna lagras i bläckfiskstrukturen. Siffror inuti den blå prickade kvadraten betecknar djupet av de oktanter som är involverade i beräkningen. Vi presenterar O-CNN, en Octree-baserad Convolutional Neural Network (CNN) för 3D formanalys. Byggt på bläckfisk representation av 3D-former, vår metod tar den genomsnittliga normala vektorer av en 3D-modell provtagna i de finaste bladoktanter som ingång och utför 3D CNN operationer på oktanter som ockuperas av 3D-formytan. Vi designar en ny octree datastruktur för att effektivt lagra den oktenta informationen och CNN-funktionerna i grafikminnet och utföra hela O-CNN utbildning och utvärdering på GPU. O-CNN stöder olika CNN strukturer och fungerar för 3D former i olika representationer. Genom att begränsa beräkningarna på de oktanter som upptas av 3D-ytor, växer O-CNN:s minnes- och beräkningskostnader fyrsidigt allteftersom bläckfiskens djup ökar, vilket gör 3D CNN möjligt för högupplösta 3D-modeller. Vi jämför O-CNN:s prestanda med andra befintliga 3D CNN-lösningar och demonstrerar O-CNN:s effektivitet och effektivitet i tre formanalysuppgifter, inklusive objektklassificering, formhämtning och formsegmentering.
Vårt arbete är mest relevant för OCNN REF, som använde en bläckfisk för att lagra ytegenskaperna hos en 3D-modell och minskade minnesförbrukningen för 3D CNNs till O(N 2 ).
4,377,681
O-CNN: octree-based convolutional neural networks for 3D shape analysis
{'venue': 'TOGS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,668
Att söka efter och fatta beslut om information blir allt svårare i takt med att mängden information och antalet val ökar. Rekommendationssystem hjälper användare att hitta objekt av en viss typ, såsom filmer eller restauranger, men är fortfarande något obekvämt att använda. Vår lösning är att dra nytta av de kompletterande styrkorna av personliga rekommendationssystem och dialogsystem, skapa personliga assistenter. Vi presenterar ett system -Adaptive Place Advisor - som behandlar objektval som en interaktiv, konversationsprocess, med programmet frågar om objektattribut och användaren svarar. Individuella, långsiktiga användarpreferenser erhålls diskret under normala rekommendationsdialoger och används för att styra framtida samtal med samma användare. Vi presenterar en ny användarmodell som påverkar både objektsökning och de frågor som ställs under ett samtal. Vi visar hur effektivt vårt system är när det gäller att avsevärt minska den tid och det antal interaktioner som krävs för att hitta en tillfredsställande produkt, jämfört med en kontrollgrupp av användare som interagerar med en icke-adaptiv version av systemet.
REF föreslår också ett samtalsbaserat, dialogbaserat tillvägagångssätt i ADAPTIVE PLACE ADVISOR, ett konversationsrekommendationer system för restauranger i Palo Alto området.
2,411,932
A Personalized System for Conversational Recommendations
{'venue': 'Journal Of Artificial Intelligence Research, Volume 21, pages 393-428, 2004', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,669
Neurala nätverk är kraftfulla och flexibla modeller som fungerar bra för många svåra inlärningsuppgifter i bild, tal och naturligt språkförståelse. Trots deras framgång är neurala nätverk fortfarande svåra att designa. I detta papper använder vi ett återkommande nätverk för att generera modellbeskrivningar av neurala nätverk och träna denna RNN med förstärkning lärande för att maximera den förväntade noggrannheten hos de genererade arkitekturer på en valideringsuppsättning. På CIFAR-10-datasetet kan vår metod, med början från grunden, designa en ny nätverksarkitektur som konkurrerar med den bästa människouppfinnade arkitekturen när det gäller testuppsättningens noggrannhet. Vår CIFAR-10-modell uppnår en testfelfrekvens på 3,65, vilket är 0,09 procent bättre och 1,05x snabbare än den tidigare toppmoderna modellen som använde ett liknande arkitektoniskt system. På Penn Treebanks datauppsättning kan vår modell komponera en ny återkommande cell som överträffar den allmänt använda LSTM-cellen och andra toppmoderna baslinjer. Vår cell uppnår en testuppsättning på 62.4 perplexitet på Penn Treebank, vilket är 3,6 perplexitet bättre än den tidigare toppmoderna modellen. Cellen kan också överföras till teckenspråkets modelleringsuppgift på PTB och uppnå en toppmodern perplexitet på 1.214.
REF använde förstärkningsinlärning på en djupare arkitektur med fast längd.
12,713,052
Neural Architecture Search with Reinforcement Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
8,670
Vi anser i detta papper problemet med bullriga 1-bitars matris avslutning under en allmän icke-uniform provtagning distribution med hjälp av max-norm som en konvex avkoppling för rank. En maxnorm begränsad uppskattning av maximal sannolikhet införs och studeras. Konvergensen för uppskattningen erhålls. Informationsteoretiska metoder används för att fastställa en lägre minimigräns enligt den allmänna provtagningsmodellen. Minimax övre och nedre gränser tillsammans ger den optimala konvergenshastigheten för Frobenius normförlust. Beräkningsalgoritmer och numeriska prestanda diskuteras också.
I stället för nukleär norm använde REF max-normen som en konvex avslappning för rankfunktion.
17,381,836
A Max-Norm Constrained Minimization Approach to 1-Bit Matrix Completion
{'venue': 'J. Mach. Learn. Res.', 'journal': 'J. Mach. Learn. Res.', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
8,671
Vårt mål är att prova noden uppsättningen av en stor okänd graf via krypning, att korrekt uppskatta ett givet mått av intresse. Vi designar en slumpmässig promenad på en lämpligt definierad viktad graf som uppnår hög effektivitet genom att företrädesvis krypa dessa noder och kanter som förmedlar mer information om målet metrisk. Vår strategi börjar med att använda teorin om stratifiering för att hitta optimala nodvikter, för en given uppskattning problem, under en oberoende provtagare. Medan optimal under oberoende provtagning, dessa vikter kan vara opraktiska under graf krypande på grund av begränsningar som uppstår från strukturen av grafen. Därför bör kantvikterna för vår slumpmässiga gång väljas för att leda till en jämviktsfördelning som skapar en balans mellan att approximera de optimala vikterna under en oberoende provtagare och att uppnå snabb konvergens. Vi föreslår en heuristisk metod (stratifierad viktad slumpmässig gång, eller S-WRW) som uppnår detta mål, samtidigt som endast begränsad information om grafstrukturen och nodegenskaperna används. Vi utvärderar vår teknik i simulering, och experimentellt, genom att samla ett urval av Facebook college användare. Vi visar att S-WRW kräver 13-15 gånger färre prover än den enkla omviktade randomgången (RW) för att uppnå samma uppskattningsnoggrannhet för ett intervall av mätvärden.
En slumpmässig gång har utformats på en lämpligt definierad viktad graf REF, som uppnår hög effektivitet genom att företrädesvis krypande noder och kanter som förmedlar rik information.
7,691,412
Walking on a graph with a magnifying glass: stratified sampling via weighted random walks
{'venue': 'PERV', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics', 'Mathematics']}
8,672
Vi presenterar en enkel, språkoberoende metod för att integrera återhämtning av tomma element i syntaktisk tolkning. Denna metod överträffar den bäst publicerade metod vi är medvetna om på engelska och en nyligen publicerad metod på kinesiska.
I Ref föreslogs en språkoberoende metod för att integrera återvinning av tomma element i syntaktisk tolkning.
2,218,985
Language-Independent Parsing with Empty Elements
{'venue': 'Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,673
Abstract-I detta dokument, för att minimera den on-grid energikostnaden i ett storskaligt grönt cellulärt nätverk, vi tillsammans utforma den optimala basstationen (BS) ON / OFF drift politik och on-grid energi inköp politik ur ett nätverk-perspektiv. Vi anser att BS är aggregerade som en mikrogrid med hybridenergi och en tillhörande central energilagring, som kan lagra den skördade förnybara energin och den köpta on-grid energi över tiden. På grund av fluktuationerna i energipriserna på jordbruksprodukter, den skördade förnybara energin och nättrafikens belastningar över tiden, samt BS-samordningen för att lämna över den trafik som avlastas från de inaktiva BS till de aktiva BS, är det i allmänhet svårt att hitta en optimal anpassningspolitik på nätverksnivå som kan minimera kostnaderna för energi on-grid på lång sikt och ändå säkerställa kvaliteten på nedlänköverföringen på samma gång. Med sikte på den dynamiska systemdesignen på nätverksnivå tillämpar vi gemensamt stokastisk geometri (Geo) för storskalig grön cellulär nätverksanalys och dynamisk programmering (DP) för adaptiv BS ON/OFF-driftsdesign och energiinköpsdesign, och föreslår därmed en ny Geo-DP-design. Genom detta tillvägagångssätt får vi den optimala BS ON / OFF-policyn, som visar att den optimala BS: s aktiva driftsannolikhet i varje horisont är bara tillräcklig för att säkerställa den nödvändiga nedlänkens överföringskvalitet med tidsvarierande belastning i det storskaliga cellulära nätverket. På grund av UP:s dimensionella fördömelse är det dock mycket komplicerat att få fram en optimal politik för energiinköp på egen hand. Vi föreslår därför en icke-optimal politik för energiinköp på plats med låg komplexitet, där den låga priset på energi på jordbruksprodukter är över inköpt i den nuvarande horisonten först när den nuvarande lagringsnivån och den framtida nivån på förnybar energi är både låg. Simuleringsresultat visar att det suboptimala energiköpet on-grid kan uppnå en nästan optimal prestanda. Vi jämför också den föreslagna politiken med de befintliga systemen för att visa att vår föreslagna politik på ett effektivare sätt kan minska kostnaderna för energi på jordbruksföretaget med tiden. Index Terms-Base station on/off drift, hybrid energiförsörjning, on-grid energikostnad minimering, energilagring, stokastisk geometri, dynamisk programmering.
I REF tillämpas dynamisk programmering för att hitta den optimala BS On-OFF-policyn med tanke på energipriset i on-grid för att minimera de energikostnader i on-grid som operatören köper, samtidigt som man säkerställer nedlänkens överföringskvalitet.
14,586,280
Dynamic Base Station Operation in Large-Scale Green Cellular Networks
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
8,674
Bakgrund: Booleska modeller används alltmer för att studera biologiska signalnätverk. I ett booleskt nätverk, noder representerar biologiska enheter såsom gener, proteiner eller proteinkomplex, och kanter indikerar aktivera eller hämma påverkan av en nod mot en annan. Beroende på inmatningen av aktivatorer eller inhibitorer kategoriserar Booleska nätverk noder som antingen aktiva eller inaktiva. Formalismen är tilltalande eftersom vi för många biologiska relationer saknar kvantitativ information om bindningskonstanter eller kinetiska parametrar och endast kan förlita sig på en kvalitativ beskrivning av typen "A aktiverar (eller hämmar) B". Ett centralt mål för Booleska nätverksanalyser är bestämning av attraherare (stadiga tillstånd och/eller cykler). Detta problem är känt för att vara computationally komplexa, dess viktigaste parameter är antalet nätverksnoder. Olika algoritmer tacklar den med stor framgång. I detta dokument presenterar vi en algoritm, som utökar storleken på analyzable nätverk tack vare enkla och intuitiva argument. Resultat: Vi presenterar lnet, ett programvarupaket som, i fullt asynkront uppdateringsläge och utan någon nätverksreducering, detekterar de fasta tillstånden i Booleska nätverk med upp till 150 noder och en stor del av alla nuvarande cykler för nätverk med upp till hälften av ovanstående antal noder. Algoritmen går igenom en fullständig uppräkning av tillstånden för lämpligt valda subrymder i hela nätverksstatsutrymmet. Storleken på dessa relevanta subrymder är liten jämfört med hela nätverksstatsutrymmet, vilket gör det möjligt att analysera stora nätverk. De subrymder som skannas för analys av cykler är större, vilket minskar storleken på tillgängliga nätverk. Viktigt, inneboende i cykel detektion är ett klassificeringssystem som bygger på antalet icke-frysta noder i cykeln medlemsstater, med cykler som kännetecknas av färre icke-frysta noder är lättare att upptäcka. Det hävdas vidare att dessa påvisbara cykler också är de biologiskt viktigare. Dessutom ger lnet också standard Booleska analysfunktioner såsom nod slinga upptäckt. Slutsatser: lnet är ett programvarupaket som underlättar analysen av stora Booleska nätverk. Dess intuitiva tillvägagångssätt hjälper till att bättre förstå nätverket i fråga.
För det asynkrona uppdateringsläget föreslogs ett tillvägagångssätt baserat på en uttömmande uppräkning av subrymder för ett nätverksutrymme som implementerats i programpaketet INET REF.
1,988,389
Detection of attractors of large Boolean networks via exhaustive enumeration of appropriate subspaces of the state space
{'venue': 'BMC Bioinformatics', 'journal': 'BMC Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
8,675
I detta arbete visar vi att den vanliga grafdelningsbaserade nedbrytningen av sparse matriser inte återspeglar det faktiska kravet på kommunikationsvolym för parallell matris-vektor multiplikation. Vi föreslår två beräkningshypergrafmodeller som undviker denna kritiska brist på grafmodellen. De föreslagna modellerna minskar nedbrytningsproblemen till det välkända problemet med partitionering av hypergrafer. Det nyligen föreslagna framgångsrika flernivåramverket utnyttjas för att utveckla ett multilevel hypergraph partitioningsverktyget PaToH för experimentell verifiering av våra föreslagna hypergrafmodeller. Experimentella resultat på ett brett spektrum av realistiska testmatriser bekräftar giltigheten hos de föreslagna hypergrafmodellerna. I nedbrytningen av testmatriserna resulterar hypergrafmodellerna med hjälp av PaToH och hMeTiS i upp till 63 % mindre kommunikationsvolym (30 %–38 % mindre i genomsnitt) än grafmodellen med MeTiS, medan PaToH endast är 1,3–2,3 gånger långsammare än MeTiS i genomsnitt. Index Terms-Sparse matriser, matris multiplikation, parallell bearbetning, matris sönderdelning, beräkningskurva modell, graf partitionering, beräknings hypergraph modell, hypergraph partitionering.
Hypergraph partitionering tillämpades först i sparse matris sönderdelning för parallella sparse matris-vektorn multiplikation av Ç atalyürek och Aykanat i REF.
2,954,155
Hypergraph-partitioning based decomposition for parallel sparse-matrix vector multiplication
{'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,676
Abstract-Vi studerar en ny hierarkisk trådlös nätverksstrategi där vissa av noderna är mer kapabla än andra. I sådana nätverk kan de mer kapabla noderna fungera som mobila ryggben noder och ge en ryggrad över vilken end-to-end kommunikation kan äga rum. Vårt tillvägagångssätt består i att kontrollera rörligheten för ryggbensnoderna för att upprätthålla anslutningsmöjligheterna. Vi formulerar problemet med att minimera antalet ryggrad noder och hänvisar till det som problemet Connected Disk Cover (CDC). Vi visar att den kan brytas ner i problemet Geometric Disk Cover (GDC) och Steiner Tree Problem med minimalt antal Steiner Points (STP-MSP). Vi bevisar att om dessa subproblem löses separat av - och - approximationsalgoritmer, är approximationsförhållandet för den gemensamma lösningen +. Sedan fokuserar vi på de två delproblemen och presenterar ett antal distribuerade approximationsalgoritmer som upprätthåller en lösning på problemet med GDC under mobilitet. En ny metod för lösning av STP-MSP beskrivs också. Vi visar att detta tillvägagångssätt kan utvidgas för att uppnå en gemensam ungefärlig lösning på problemet med CDC. Slutligen utvärderar vi algoritmernas prestanda genom simulering och visar att de föreslagna GDC-algoritmerna presterar mycket bra under mobilitet och att det nya tillvägagångssättet för den gemensamma lösningen avsevärt kan minska antalet mobila ryggbensnoder.
De formulerar problemet med att minska antalet MBS och hänvisar till det som problemet med ansluten Diskover (CDC).
235,728
Construction and Maintenance of Wireless Mobile Backbone Networks
{'venue': 'IEEE/ACM Transactions on Networking', 'journal': 'IEEE/ACM Transactions on Networking', 'mag_field_of_study': ['Computer Science']}
8,677
Många abstrakta värdedomäner som intervaller, bitvis, konstanter och värdeuppsättningar har utvecklats för att stödja dataflödesanalys. Olika domäner erbjuder alternativa avvägningar mellan analyshastighet och precision. Dessutom är vissa domäner en bättre matchning för vissa typer av kod än andra. Detta dokument presenterar utformningen och genomförandet av cXprop, ett analys- och transformationsverktyg för C som implementerar "villkorlig X-förökning", en generalisering av den välkända villkorliga konstantförökningsalgoritmen där X är en abstrakt värdedomän som tillhandahålls av användaren. cXprop är interprocedural, kontext-okänslig, och uppnår rimlig precision på pekarrika koder. Vi har tillämpat cXprop på sensornätverksprogram som körs på TinyOS, för att minska kodstorleken genom interprocedural död kod eliminering, och för att hitta begränsad-bitwidth globala variabler. Vår analys av globala variabler stöds av en ny konvergensmodell för avbrottsdriven programvara. cXprop minskar TinyOS applikationskodstorlek med i genomsnitt 9,2 % och förutspår en genomsnittlig datastorleksreduktion på 8,2 % genom RAM-komprimering.
cXprop REF är vårt statiska analys- och omvandlingsverktyg för C-kod och innehåller alternativ för att specifikt rikta WSN-applikationer.
2,498,978
Pluggable abstract domains for analyzing embedded software
{'venue': "LCTES '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,678
Vi föreslår en metod för att extrahera semantiska riktningar av ord: önskvärd eller oönskad. När det gäller semantiska orienteringar som snurr av elektroner använder vi den genomsnittliga fält approximationen för att beräkna den ungefärliga sannolikhetsfunktionen i systemet istället för den intractable faktiska sannolikhetsfunktionen. Vi föreslår också ett kriterium för parameterval på grundval av magnetisering. Med bara ett litet antal frö ord, den föreslagna metoden extraherar semantiska orienteringar med hög noggrannhet i experimenten på engelska lexikon. Resultatet är jämförbart med det bästa värde som någonsin rapporterats.
REF föreslås använda spin-modeller för att extrahera semantisk orientering av ord.
5,129,476
Extracting Semantic Orientations Of Words Using Spin Model
{'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,679
Semantiskt samband mellan ord är viktigt för många NLP uppgifter, och många åtgärder finns som använder en mängd olika resurser. Hittills är sådant arbete begränsat till att mäta likheten mellan två ord (eller två texter), och endast en handfull använder nätet som en corpus. I detta dokument införs en fördelningsliknande åtgärd som använder internetsökningsräkningar och som även omfattar beräkning av likheter inom ordgrupper. Utvärderingsresultaten är uppmuntrande: för ordpar är korrelationerna med mänskliga bedömningar jämförbara med toppmoderna webbsökningssidor med heuristik. När resultaten används för att mäta likheter inom uppsättningar med 10 ord korrelerar de i hög grad (upp till 0,8) med de förväntade. Relativt lite jämförelse har gjorts mellan resultaten från olika sökmotorer. Här jämför vi experimentella resultat från Google, Windows Live Search och Yahoo och hitta märkbara skillnader.
Ann Gledson et al., REF beskriver en enkel webbaserad likhetsmått som endast bygger på sidräkningar, kan användas för att mäta likheten av hela uppsättningar av ord utöver ordpar och kan använda någon webb-tjänst aktiverat sökmotor distributionslikvärdighetsmått som använder internetsökning räknas och sträcker sig till att beräkna likheten inom ordgrupper.
820,832
Using Web-Search Results to Measure Word-Group Similarity
{'venue': 'International Conference On Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,680
Abstract-Road trafikstockningar resulterar i ett enormt slöseri med tid och produktivitet för miljontals människor. Ett möjligt sätt att ta itu med detta problem är att låta transportmyndigheterna sprida trafikinformation till förare, som i sin tur kan besluta (eller få hjälp av en navigatör) att trafikera överbelastade områden. Sådan trafikinformation kan samlas in genom att man förlitar sig på statiska sensorer som placeras på särskilda vägar (t.ex. induktionsslingor och videokameror) eller genom att man låter enskilda fordon rapportera var de befinner sig, hastigheten och restiden. Även om det tidigare tillvägagångssättet har utnyttjats i stor utsträckning, har det senare kommit till stånd först på senare tid, vilket innebär att dess potential är mindre förstådd. Därför studerar vi i detta dokument ett realistiskt testfall som gör det möjligt att utvärdera effektiviteten hos en sådan lösning. Som en del av denna process, a) vi utformade ett system som tillåter fordon att crowd-source trafikinformation på ett ad hoc-sätt, vilket gör det möjligt för dem att dynamiskt omdirigera baserat på individuellt insamlade trafikinformation; b) vi införde en realistisk nätverksmobilitet simulator som gjorde det möjligt för oss att utvärdera en sådan modell; och c) vi utförde en fallstudie som utvärderar om ett sådant decentraliserat system kan hjälpa förare att minimera restiderna, vilket är huvudfokus i detta papper. Denna studie bygger på trafikundersökningsdata från Portland, OR, och våra resultat visar att sådana navigationssystem verkligen kan förbättra trafikflödet avsevärt. Slutligen, för att testa genomförbarheten av vår strategi, implementerade vi vårt system och körde några riktiga experiment på UCLA: s C-Vet testbädd. Index Terms-Ad hoc, intelligent transportsystem (ITS), realistisk simulering av trafikflödet, fordonsspecifika ad hoc-nätverk (VANET), trådlös kommunikation.
Leontiadis m.fl. I Ref föreslås ett opportunistiskt trafikstyrningssystem där fordon delar trafikinformation på ett ad hoc- sätt, vilket gör det möjligt för dem att dynamiskt omdirigera på grundval av individuellt insamlad trafikinformation.
1,561,300
On the Effectiveness of an Opportunistic Traffic Management System for Vehicular Networks
{'venue': 'IEEE Transactions on Intelligent Transportation Systems', 'journal': 'IEEE Transactions on Intelligent Transportation Systems', 'mag_field_of_study': ['Engineering', 'Computer Science']}
8,681
ABSTRACT The Internet of Drones (IoD) är en skiktad nätverksstyrningsarkitektur som främst är utformad för att samordna obemannade luftfartygs tillträde till kontrollerat luftrum och tillhandahålla navigationstjänster mellan platser som kallas noder. IoD tillhandahåller generiska tjänster för olika drönarapplikationer, såsom paketleverans, trafikövervakning, sökning och räddning med mera. I detta dokument presenterar vi en konceptuell modell för hur en sådan arkitektur kan organiseras och vi specificerar de funktioner som ett IoD-system baserat på vår arkitektur bör implementera. För att göra det tar vi fram nyckelkoncept från tre befintliga storskaliga nätverk, nämligen nätverket för flygkontroll, det cellulära nätverket och Internet, och utforskar deras anslutningar till vår nya arkitektur för styrning av drönartrafik. En simuleringsplattform för IoD håller på att implementeras, som kan nås från www.IoDnet.org i framtiden. INDEX TERMS Layered arkitektur, Internet of Drones (IoD), Internet, cellulära nätverk, flygkontroll (ATC), låg höjd flygtrafikledning, obemannade luftfartyg (UAV).
Ett annat IoT-relaterat arbete är i REF, Det presenterar de funktioner som ett UAV-system bör genomföra för drönare trafikledning, nämligen nätverket för flygtrafikledning, det cellulära nätverket, och Internet.
17,153,490
Internet of Drones
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
8,682
Fenomenet förändring blindhet visar att människor är förvånansvärt dålig på att upptäcka oväntade visuella förändringar; men forskning om individuella skillnader i detektionsförmåga är knapp. Prediktiva bearbetningskonton av visuell perception tyder på att bättre förändringsdetektering kan kopplas till att tilldela större vikt till förutsägelsefelsignaler, som indexeras av en ökad alternationshastighet i perceptuell rivalitet eller större känslighet för låga visuella signaler. Alternativt kan överlägsen detektionsförmåga associeras med robusta visuella förutsägelser mot vilka sensoriska förändringar kan registreras mer effektivt, vilket tyder på ett samband med mekanismer på hög nivå av visuellt korttidsminne (VSTM) och uppmärksamhet. Vi administrerade ett batteri av 10 åtgärder för att utforska dessa förutsägelser och för första gången bestämma test-retest tillförlitligheten av vanligt använda förändring detektion åtgärder. Förändring detektionsprestanda var stabil över tid och generaliserades från displayer av statiska scener till videoklipp. En undersökande faktoranalys avslöjade två faktorer som förklarar prestanda över hela batteriet, som vi identifierar som visuell stabilitet (laddning på förändringsdetektering, uppmärksamhetsåtgärder, VSTM och perceptuell rivalitet) och visuell förmåga (laddning på ikoniskt minne, bedömning av temporal ordning och kontrastkänslighet). Dessa resultat belyser vikten av starka, stabila representationer och förmågan att motstå distraktion, för att framgångsrikt införliva oväntade förändringar i innehållet i visuell medvetenhet.
En nyligen genomförd studie REF visade att detektionsprestanda är förknippad med förmågan att bilda stabila perceptuella slutsatser och med att kunna motstå uppgiftsrelevanta distraktorer.
59,337,883
Individual differences in change blindness are predicted by the strength and stability of visual representations
{'venue': 'Neuroscience of consciousness', 'journal': 'Neuroscience of consciousness', 'mag_field_of_study': ['Psychology', 'Medicine']}
8,683
Ökningen av sociala medier har fört beräkningslingvistik i allt närmare kontakt med dåligt språk: text som trotsar våra förväntningar på ordförråd, stavning och syntax. Detta dokument kartlägger landskapet av dåligt språk, och erbjuder en kritisk granskning av NLP-gemenskapens svar, som till stor del har följt två vägar: normalisering och domänanpassning. Varje tillvägagångssätt utvärderas inom ramen för det teoretiska och empiriska arbetet med datormedierad kommunikation. I dokumentet presenteras dessutom en kvantitativ analys av den lexiska mångfalden i sociala medier och dess förhållande till andra organ.
Eisenstein REF beskriver utmaningarna med det dåliga språk som kännetecknar Internet, och undersöker två av de mest populära riktningar där NLP-gemenskapen har tagit itu med denna fråga: normalisering och domänanpassning.
13,163,299
What to do about bad language on the internet
{'venue': 'NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,684
Abstract-Vi anser att ett heterogent sensornätverk där noder ska sättas in över ett enhetsområde för övervakningsändamål. Ett flygplan besöker området regelbundet och samlar in data om aktiviteten i området från sensornoder. Det finns två typer av noder som är fördelade över området med hjälp av tvådimensionell homogena Poisson punktprocesser; typ 0 noder med intensitet (genomsnittligt antal per enhet område) 0 och batterienergi E 0 ; och typ 1 noder med intensitet 1 och batterienergi E 1. Typ 0 noder gör avkänningen medan typ 1 noder fungerar som kluster huvuden förutom att göra avkänning. Noder använder multihopping för att kommunicera med sina närmaste klusterhuvuden. Vi bestämmer de optimala nodintensiteterna ( 0, 1 ) och nodenergierna (E 0, E 1 ) som garanterar en livstid av minst T-enheter, samtidigt som anslutning och täckning av övervakningsområdet med stor sannolikhet. Vi minimerar den totala kostnaden för nätet under dessa begränsningar. Livstid definieras som antalet lyckade datainsamlingsresor (eller cykler) som är möjliga tills anslutning och/eller täckning går förlorad. Villkoren för en skarp brytpunkt beaktas också, dvs. vi ser till att nästan alla noder får slut på energi ungefär samtidigt så att det finns mycket lite energiavfall på grund av restenergi. Vi jämför resultaten för slumpmässig utplacering med resultaten från ett rutnät där noder placeras deterministiskt längs rutnätspunkter. Vi observerar att i båda fallen 1 skalor ungefär som ffffffffifffi 0 p. Våra resultat kan direkt utökas för att ta hänsyn till opålitliga noder.
En minimikostnad nod och energi distributionssystem för heterogena sensornät med en livstid begränsning föreslås i REF.
12,664,952
A minimum cost heterogeneous sensor network with a lifetime constraint
{'venue': 'IEEE Transactions on Mobile Computing', 'journal': 'IEEE Transactions on Mobile Computing', 'mag_field_of_study': ['Computer Science']}
8,685
I detta dokument presenteras resultaten av den första studien av källkodens unika karaktär. Vi definierar unikheten av en enhet av källkod med avseende på hela kroppen av skriven programvara, som vi approximerar med en corpus av 420 miljoner rader av källkod. Vår metodik på hög nivå består i att undersöka en samling av 6.000 programvaruprojekt och mäta i vilken grad varje projekt kan "samlas" enbart från delar av denna corpus, vilket ger ett exakt mått på "unikhet" som vi kallar syntaktisk redundans. Vi parameteriserade vår studie över en mängd olika variabler, av vilka de viktigaste är den nivå av granularitet där vi ser källkod. Vår serie experiment tillsammans konsumerade cirka fyra månader av CPU-tid, vilket ger kvantitativa svar på följande frågor: på vilka nivåer av granularitet är programvara unik, och på en given nivå av granularitet, hur unik är programvara? Samtidigt som vi anser att dessa frågor är av stort intresse diskuterar vi möjliga tillämpningar för genetisk programmering och utveckling av produktivitetsverktyg.
Gabel m.fl. REF presenterade resultaten av den första studien av källkodens unika karaktär.
5,881,272
A study of the uniqueness of source code
{'venue': "FSE '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,686
ABSTRACT Att upptäcka icke-mänsklig aktivitet i sociala nätverk har blivit ett område av stort intresse för både näringsliv och akademi. I detta sammanhang är att få en hög detektionsnoggrannhet inte den enda önskade kvaliteten; experter på applikationsområdet skulle också vilja ha en förståelig modell, med vilken man kan förklara ett beslut. En förklarande beslutsmodell kan hjälpa experter att överväga till exempel att vidta rättsliga åtgärder mot ett konto som har visat kränkande beteende, eller förvarna en kontoinnehavare om misstänkt aktivitet. I detta papper ska vi använda en mönsterbaserad klassificeringsmekanism för social bot upptäckt, särskilt för Twitter. Dessutom kommer vi att införa en ny funktionsmodell för social bot upptäckt, som utökar (en del av) en befintlig modell med funktioner utanför Twitter kontoanvändning och tweet innehåll känsla analys. Utifrån våra experimentella resultat ska vi se att vår mekanism överträffar andra, toppmoderna klassificeringar, inte baserade på mönster, och att vår funktionsmodell ger bättre klassificeringsresultat än andra som redovisas i litteraturen. INDEX TERMS Kontrastmönster, botdetektion, övervakad klassificering, sociala nätverk.
Loyola-González m.fl. REF använde en mönsterbaserad klassificeringsmekanism för social bot-detektion speciellt för Twitter och införde en ny funktionsmodell för social bot-detektion som delvis utvidgade en befintlig modell med funktioner baserade på Twitter-kontoanvändning och en tweet-innehållsanalys.
116,864,301
Contrast Pattern-Based Classification for Bot Detection on Twitter
{'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']}
8,687
Abstract-Den senaste tidens höghastighetståg introducerar nya rörlighetsmönster i trådlösa miljöer. LTE-A (Long Term Evolution of 3GPP -Advanced) nätverk har i stor utsträckning tagit itu med Doppler effekt problem i det fysiska skiktet och kan hålla trådlös service med 100Mpbs genomströmning inom en cell i hastigheter upp till 350 km/h. Men de mycket mer frekventa överlämnanden över celler ökar avsevärt möjligheten till serviceavbrott, och problemet är framträdande för multimediakommunikation som kräver både hög genomströmning och kontinuerliga anslutningar. I detta dokument presenterar vi en ny LTE-baserad lösning för att stödja hög genomströmning och kontinuerliga multimediatjänster för tågpassagerare med hög hastighet. Vår lösning är baserad på en Cell Array som smart organiserar cellerna längs en järnväg, tillsammans med en femtocelltjänst som aggregaterar trafikkrav i enskilda tåghytter. Med tanke på att rörelseriktningen och hastigheten för ett höghastighetståg är allmänt kända, vår Cell Array förutspår effektivt de kommande LTE-celler i drift, och möjliggör en sömlös överlämning som inte kommer att avbryta multimediaströmmar. För att tillgodose de extrema kanalvariationerna föreslår vi vidare en mekanism för schemaläggning och resursfördelning för att maximera servicehastigheten baserat på periodiska signalkvalitetsförändringar. Vår simulering under olika nätverks- och tågkonfigurationer visar att den föreslagna lösningen uppnår mycket lägre latens och högre datagenomströmning jämfört med befintliga lösningar. Den står också väl emot nätverks- och trafikdynamiken, vilket möjliggör oavbrutna multimediatjänster av hög kvalitet för passagerare i höghastighetståg.
För att stödja trådlös höggenomströmningsåtkomst för höghastighetståganvändare, Karimi et al. Ref föreslog en ny infrastruktur och schemaläggningsalgoritmer.
1,873,300
Seamless Wireless Connectivity for Multimedia Services in High Speed Trains
{'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']}
8,688
Förstå adoptionsprocessen av en idé, en produkt eller en app, eftersom det cirkulerar över ett online socialt nätverk (OSN) kan låta oss bättre planera reklamkampanjer eller till och med styra den adoptionsprocessen. Hur sprider sig en idé? Vilka egenskaper driver den? Vilken roll spelar inflytelserika människor? I en nyligen publicerad artikel 1 i New York Times diskuteras hur traditionella återförsäljare samarbetar med OSN-företag för att utnyttja det växande antalet shoppare som vandrar runt i gångarna, mobiltelefoner i handen. Väl i ett OSN, de flesta chefsmarknadsföring officerare skulle säkert älska att veta hur man mest effektivt sprida nyheten om deras senaste försäljning händelse och vilka kunder, om någon, bör ägnas särskild uppmärksamhet. Att försöka besvara sådana frågor genom en empirisk studie av socialt beteende på ett populärt OSN är en utmaning. Även om man kan samla in nödvändiga data i stor skala, trots den uppenbara integriteten, finns det fortfarande behov av att fånga alla de olika kanaler som kan användas för reklam och rekrytering inom ett OSN, såsom e-post, nyhetsflöden och ansökningar (AR). Författarna har lyckats göra just det. De fick sina händer på en imponerande dataset från en populär Facebook "gåva" ansökan, som sträcker sig över 64 veckor och täcker den stora livslängden för appen. Eftersom begåvade appar endast använder AR för kommunikation mellan användare, och alla AR är en del av denna datauppsättning, deras analys står för all kommunikation (naturligtvis endast inom OSN). Förutom lämplig timing, imponerande dataset och smart metodik påpekade granskarna de intressanta mätningarna av kaskadfenomenet (en kedja av adoptioner initierade av en utsädesanvändare) och några av deras spännande resultat. Dessa inkluderar till exempel det faktum att ut-graden av en fröanvändare inte korrelerar med storleken på den kaskad den initierar och att inte heller det faktum att ett frö initierade en stor kaskad indikerar att detta frö orsakade det. Det fanns inga tydliga svagheter som påpekades, utan en allmän oro över giltigheten av författarnas iakttagelser i andra tillämpningar, med olika dynamik och sociala strategier för att stimulera antagandet. Offentlig granskning skriven av Northwestern University, USA E. Harris, Återförsäljare Sök Partners i sociala nätverk Online sociala nätverk (OSN) baserade applikationer förlitar sig ofta på användarinteraktioner för att sprida information eller rekrytera fler användare, producerar en sekvens av användaråtgärder som kallas adoptionsprocess eller kaskader. Detta dokument presenterar det första försöket att kvantitativt studera adoptionsprocessen eller kaskaden av sådana OSN-baserade applikationer genom att analysera detaljerade användaraktivitetsdata från en populär Facebook gåva ansökan. I synnerhet, på grund av utmaningen att övervaka användarinteraktioner över alla möjliga kanaler på OSN-plattformar, fokuserar vi på att karakterisera adoptionsprocessen som endast bygger på användarbaserad inbjudan (som är tillämplig på de flesta gåvoprogram). Vi karakteriserar adoptionerna genom att följa de inbjudningar som skickas av befintliga användare till sina vänner genom Facebook presenting ansökan och händelser när deras vänner installerar programmet för första gången. Vi fann att ett litet antal stora kaskader bär antagandet av de flesta av applikationsanvändarna. I motsats till vanliga uppfattningar, vi inte observera speciella inflytelserika noder som är ansvariga för virus antagandet av ansökan.
Vårt förberedande arbete undersökte frönas roll i adoptionsprocessen av Facebooks gåvoprogram och visade att storskaliga adoptioner inte är korrelerade till välkända egenskaper hos frön (såsom ut-grad eller aktiv livstid) REF.
995,227
Peeking into the invitation-based adoption process of OSN-based applications
{'venue': 'CCRV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,690
Mål Att säkerställa säkerhet och lämplig användning av patienthälsoinformation i elektroniska patientjournalsystem är en utmaning. Genom att observera dessa svårigheter presenterar vi ett tillägg till det förklaringsbaserade revisionssystemet (EBAS) som försöker fastställa den kliniska eller operativa orsaken till att tillgång till medicinska journaler sker baserat på patientdiagnosinformation. Åtkomster som kan förklaras med en anledning filtreras så att compliance officer har färre misstänkta åtkomster för att granska manuellt. Metoder Vår hypotes är att specifika sjukhusanställda ansvarar för att behandla en given diagnos. Till exempel fick dr Carl tillgång till Alices medicinska journal eftersom Hem/Onc-anställda ansvarar för kemoterapipatienter. Vi presenterar mätvärden för att avgöra vilka medarbetare som är ansvariga för en diagnos och kvantifiera deras förtroende. Revisionssystemet försöker använda denna ansvarsinformation för att fastställa orsaken till en åtkomst. Vi utvärderar revisionssystemets klassificeringskvalitet med hjälp av data från University of Michigan Health System. Resultat EBAS avgör korrekt vilka avdelningar som ansvarar för en given diagnos. Genom att lägga till denna ansvarsinformation till EBAS ökar antalet första åtkomster som förklaras med en faktor på två jämfört med tidigare arbete och förklarar över 94 % av alla åtkomster med hög precision. Slutsatser EBAS fungerar som ett kompletterande säkerhetsverktyg för personlig hälsoinformation. Det filtrerar en majoritet av åtkomster så att det är mer möjligt för en compliance officer att granska de återstående misstänkta åtkomster manuellt.
Med tanke på svårigheterna med att garantera säkerhet och lämplig användning av patienthälsoinformation i journaler föreslogs ett förklaringsbaserat granskningssystem (EBAS) för att skilja mellan de kliniska eller operativa orsakerna och presentera mätvärden för att fastställa vilka sjukhusanställda som ansvarar för att behandla en viss diagnos.
206,847,388
Explaining accesses to electronic medical records using diagnosis information
{'venue': 'Journal of the American Medical Informatics Association : JAMIA', 'journal': 'Journal of the American Medical Informatics Association : JAMIA', 'mag_field_of_study': ['Computer Science', 'Medicine']}
8,691
häst zebra zebra häst Sommar Vinter vinter vinter vinter sommar Fotografering Van Gogh Cezanne Monet Ukiyo-e Monet Bilder Monet foto foto Monet Figur 1: Med tanke på två oordnade bildsamlingar X och Y, vår algoritm lär sig att automatiskt "översätta" en bild från en till den andra och vice versa. Exempel ansökan (botten): med hjälp av en samling målningar av en berömd konstnär, lära sig att göra en användares fotografi i deras stil. Image-to-image översättning är en klass av vision och grafik problem där målet är att lära sig kartläggningen mellan en ingångsbild och en utgångsbild med hjälp av en utbildning uppsättning av anpassade bildpar. För många uppgifter kommer dock inte parade träningsdata att finnas tillgängliga. Vi presenterar ett tillvägagångssätt för att lära sig översätta en bild från en källkodsdomän X till en måldomän Y i avsaknad av parade exempel. Vårt mål är att lära sig en kartläggning G : X → Y sådan att distributionen av bilder från G(X) är oskiljaktig från distributionen Y med hjälp av en kontradiktorisk förlust. Eftersom denna kartläggning är mycket underkonsekventa, vi par det med en invers kartläggning F : Y → X och införa en cykelkonsistens förlust att push F (G(X)) på X (och vice versa). Kvalitativa resultat presenteras på flera uppgifter där parade träningsdata inte finns, inklusive insamling stil överföring, objekttransfiguration, säsong överföring, fotoförbättring, etc. Kvantitativa jämförelser mot flera tidigare metoder visar hur överlägsen vår strategi är.
Det problem som författarna tar upp gäller sammanhanget för översättning från en bild till en annan – som syftar till att fånga en kartläggning av en indatabild och en utdatabild (par) – med tanke på avsaknaden av utdatabilder, med tanke på GAN uppgiften att lära sig en generisk kartläggning (inom specifika sammanhang) med tanke på indatabilderna REF.
206,770,979
Unpaired Image-to-Image Translation Using Cycle-Consistent Adversarial Networks
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
8,692
Abstract-olicensierat spektrum kan användas av långsiktig utveckling (LTE) cellulära system för att uppfylla höga genomströmningskrav. I detta brev föreslås en ångerbaserad inlärningshjälp nedlänk trafikbalansering system för licensierade och olicensierade band samtidigt säkerställa rättvis samexistens av LTE-olicensierad (LTE-U) och Wi-Fi-enheter i samma band. Den förbättras ytterligare genom optimering av energieffektivitet (EE) för scenarier med små celler (SC) och makroceller, följt av en inter-SC-interferenshanteringsmekanism med bättre prestanda jämfört med befintlig litteratur. Jämfört med fall med fast flygtid visas upp till 8%-10% bättre resultat för scenarierna för EE respektive hastighetsmaximering.
När det gäller trafikbalansen i nedlänken mellan licensierade och olicensierade band föreslog REF ett ångerbaserat system för trafikbalansering i nedlänken för att säkerställa en rättvis samexistens mellan LTE-U och WiFi.
8,859,859
Learning-Based Small Cell Traffic Balancing Over Licensed and Unlicensed Bands
{'venue': 'IEEE Wireless Communications Letters', 'journal': 'IEEE Wireless Communications Letters', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
8,693
Att tillfälligt lokalisera åtgärder i en video är en grundläggande utmaning i videoförståelse. De flesta befintliga metoder har ofta hämtat inspiration från detektering av bildobjekt och utökat framstegen, t.ex. SSD och Snabbare R-CNN, för att producera timliga platser för en åtgärd i en 1D-sekvens. Ändå kan resultaten lida av robusthet problem på grund av utformningen av förutbestämda temporal skalor, som förbise den timliga strukturen av en åtgärd och begränsar nyttan med att upptäcka åtgärder med komplexa variationer. I detta dokument föreslår vi att man tar itu med problemet genom att introducera Gaussiska kärnor för att dynamiskt optimera tidsskalan för varje åtgärdsförslag. Särskilt presenterar vi Gaussian Temporal Awareness Networks (GTAN) en ny arkitektur som nyligen integrerar exploateringen av temporal struktur i en en-steg handling localization ram. Tekniskt modellerar GTAN tidsstrukturen genom att lära sig en uppsättning Gaussiska kärnor, var och en för en cell i funktionskartorna. Varje Gaussisk kärna motsvarar ett visst intervall i ett åtgärdsförslag och en blandning av Gaussiska kärnor kan ytterligare karakterisera åtgärdsförslag med olika längd. Dessutom återspeglar värdena i varje Gaussisk kurva de kontextuella bidragen till lokaliseringen av ett åtgärdsförslag. Omfattande experiment utförs på både THUMOS14 och ActivityNet v1.3 datauppsättningar, och överlägsna resultat rapporteras när man jämför med state-of-the-art metoder. Mer anmärkningsvärt, GTAN uppnå 1,9% och 1,1% förbättringar i mAP på testning uppsättning av de två dataset.
REF introducerar Gaussianska kärnor för att dynamiskt optimera tidsskalan för varje åtgärdsförslag.
196,183,677
Gaussian Temporal Awareness Networks for Action Localization
{'venue': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
8,694
Modern systemdesign drivs i allt högre grad av tillämpningar som multimedia och trådlös avkänning och kommunikation, som har krav på tjänstekvalitet (QoS) som t.ex. genomströmning, felfrekvens och upplösning. En av de viktigaste QoS-garantierna som systemet måste tillhandahålla är tidsbegränsningen mellan de interagerande medierna (synkronisering) och inom varje media (latens). Vi har utvecklat det första ramverket för systemdesign med timing QoS-garantier. I synnerhet tar vi upp hur man designar system-on-chip med minsta kiselyta för att möta både latens och synkroniseringsbegränsningar. Den föreslagna designmetodiken består av två faser: maskinvarukonfigurationsval och minimering av minne/lagring på chip. I den första fasen använder vi kiselområde och systemprestanda som kriterier för att identifiera alla konkurrenskraftiga hårdvarukonfigurationer (dvs. Pareto-punkter) som underlättar behovet av synkrona applikationer. I den andra fasen bestämmer vi minimikravet på minne på chip för att uppfylla tidsbegränsningarna för varje Pareto-punkt. En övergripande systemutvärdering görs för att välja den bästa systemkonfigurationen. Vi har utvecklat optimala algoritmer som schemalägger ett i förväg specificerat program för att uppfylla deras synkroniseringskrav med minsta storlek på minnet. Vi har även implementerat on-line heuristik för realtidsapplikationer. Effektiviteten av våra algoritmer har visats på en uppsättning simulerade MPEG strömmar från populära filmer.
Nyligen har de första insatserna i QoS, och i synnerhet synkronisering under systemdesignprocessen, rapporterats i designautomatiseringslitteratur REF.
3,075,129
System synthesis of synchronous multimedia applications
{'venue': 'TECS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,695
: I detta papper är vi intresserade av att definiera visuell likhet mellan bilder över olika domäner, såsom bilder tagna under olika årstider, målningar, skisser, etc. Det som gör detta utmanande är att det visuella innehållet bara är likartat på den högre scennivån, men ganska olikartat på pixelnivån. Här presenterar vi ett tillvägagångssätt som fungerar bra över olika visuella domäner. Målet med detta arbete är att hitta visuellt liknande bilder även om de ser helt olika ut på rå pixelnivå. Denna uppgift är särskilt viktig för att matcha bilder över visuella domäner, såsom bilder tagna över olika säsonger eller ljusförhållanden, målningar, handritade skisser, etc. Vi föreslår en förvånansvärt enkel metod som uppskattar den relativa betydelsen av olika funktioner i en frågebild baserad på begreppet "datadriven unikhet". Vi använder standardverktyg från discriminativ objektdetektering på ett nytt sätt, vilket ger ett generiskt tillvägagångssätt som inte är beroende av en viss bildrepresentation eller en specifik visuell domän. Vår strategi visar goda resultat på ett antal svåra korsdomäniska visuella uppgifter, t.ex. matchande målningar eller skisser till riktiga fotografier. Metoden gör också att vi kan demonstrera nya tillämpningar som Internet re-photography, och painting2gps. Även om tekniken för närvarande är för beräkningsintensiv för att vara praktisk för interaktiv bildsökning, hoppas vi att några av idéerna så småningom kommer att bli tillämpliga även på den domänen.
REF definierar visuella likheter mellan målningar och bilder tagna under olika årstider.
13,898,083
Data-driven visual similarity for cross-domain image matching
{'venue': "SA '11", 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,696
Maskininlärning, och mer specifikt djupinlärning, har visat anmärkningsvärda prestationer i sensation, kommunikation och slutledning. I detta dokument överväger vi tillämpningen av den djuputvecklade tekniken i problemet med signalrekonstruktion från dess en bit bullriga mätningar. Nämligen föreslår vi en modellbaserad maskininlärningsmetod och utvecklar iterationer av en inferenceoptimeringsalgoritm till skikten i ett djupt neuralt nätverk för en bit signalåterställning. Det resulterande nätverket, som vi kallar DeepRec, kan effektivt hantera återvinningen av högdimensionella signaler från förvärvade enstaka bullriga mätningar. Den föreslagna metoden resulterar i en förbättring av noggrannheten och beräkningseffektiviteten i förhållande till det ursprungliga ramverket, vilket visas genom numerisk analys.
Å andra sidan använde REF den djuputvecklade tekniken för att lösa flerdimensionella signalåterställningsproblem med en bit kvantisering.
54,436,837
Deep Signal Recovery with One-Bit Quantization
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Engineering', 'Mathematics']}
8,698
Datorsystem (eller hosting datacenter) har rönt stor uppmärksamhet under de senaste åren. Utility computing, pålitlig datalagring och infrastrukturoberoende databehandling är exempel på tillämpningar av sådana system. Elenergikostnaden för ett molndatasystem är en stark funktion av de konsoliderings- och migreringsmetoder som används för att tilldela inkommande kunder till befintliga servrar. Dessutom har varje kund vanligtvis ett servicenivåavtal (SLA), som specificerar begränsningar av prestanda och/eller kvalitet på tjänster som den får från systemet. Dessa begränsningar leder till en grundläggande avvägning mellan den totala energikostnaden och kundnöjdheten i systemet. I detta dokument anses ett resursfördelningsproblem som syftar till att minimera den totala energikostnaden för molndatasystem samtidigt som man uppfyller de angivna SLA-kraven på klientnivå i en probabilistisk bemärkelse. Cloud computing systemet betalar straff för andelen av en kunds förfrågningar som inte uppfyller en specificerad övre gräns på sin servicetid. En effektiv heuristisk algoritm baserad på konvex optimering och dynamisk programmering presenteras för att lösa ovannämnda resursfördelningsproblem. Simuleringsresultat visar hur effektiv den föreslagna algoritmen är jämfört med tidigare arbete. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning.
Jämförelsen mellan den totala energikostnaden och kundnöjdheten i ett system undersöks i REF.
557,121
SLA-based Optimization of Power and Migration Cost in Cloud Computing
{'venue': '2012 12th IEEE/ACM International Symposium on Cluster, Cloud and Grid Computing (ccgrid 2012)', 'journal': '2012 12th IEEE/ACM International Symposium on Cluster, Cloud and Grid Computing (ccgrid 2012)', 'mag_field_of_study': ['Computer Science']}
8,699
Vi presenterar ett nytt tillvägagångssätt för RTE som utnyttjar en strukturorienterad meningsrepresentation följd av en likhetsfunktion. De strukturella egenskaperna förvärvas automatiskt från trädskelett som extraheras och generaliseras från beroende träd. Vår metod använder sig av en begränsad storlek av träningsdata utan någon extern kunskapsbas (t.ex. WordNet) eller handgjorda inferens regler. Vi har uppnått en noggrannhet på 71,1 % på RTE-3-utvecklingssetet som utför en 10-faldig korsvalidering och 66,9 % på RTE-3-testdata.
I det system som presenteras i Ref föreslogs ett nytt tillvägagångssätt för RTE som utnyttjar en strukturorienterad meningsrepresentation följd av en likhetsfunktion.
868,993
Recognizing Textual Entailment Using Sentence Similarity based on Dependency Tree Skeletons
{'venue': 'ACL-PASCAL Workshop on Textual Entailment and Paraphrasing', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,700
Klassificera webbvideor med hjälp av en Bag of Words (BoW) representation har fått ökad uppmärksamhet på grund av dess beräknings enkelhet och goda prestanda. Det ökande antalet kategorier, inklusive åtgärder med stor förvirring, och införandet av betydande kontextuell information har lett till att de flesta författarna fokuserat sina insatser på kombinationen av deskriptorer. I detta fält föreslår vi att du använder multikärna Support Vector Machine (SVM) med ett kontrasterat urval av kärnor. Det är allmänt vedertaget att användningen av deskriptorer som ger olika typer av information tenderar att öka prestandan. I detta syfte introducerar vår strategi kontextuell information, dvs. objekt som är direkt relaterade till utförda åtgärder genom att förvälja en uppsättning punkter som tillhör objekt för att beräkna kodboken. För att veta om en punkt är en del av ett objekt, är objekten tidigare spåras av matchande på varandra följande ramar, och objekt avgränsande rutan beräknas och märkt. Vi kodar actionvideor med hjälp av BoW representation med objektkodorden och introducerar dem till SVM som ytterligare en kärna. Experiment har genomförts på två åtgärdsdatabaser, KTH och HMDB, resultaten ger en betydande förbättring med avseende på andra liknande metoder.
För detta ändamål upptäcker vi först den uppsättning punkter som tillhör objektet som i REF.
37,252,006
Using Action Objects Contextual Information for a Multichannel SVM in an Action Recognition Approach based on Bag of VisualWords
{'venue': 'VISAPP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,701
I detta papper introducerar vi en generativ parametrisk modell som kan producera högkvalitativa prover av naturliga bilder. Vår strategi använder en kaskad av konvolutionella nätverk inom en Laplacian pyramid ram för att generera bilder på ett grovt till fint sätt. På varje nivå av pyramiden tränas en separat generativ konvnetmodell med hjälp av Generative Adversarial Nets (GAN) approach [10]. Prover från vår modell är av betydligt högre kvalitet än alternativa metoder. I en kvantitativ bedömning av mänskliga utvärderare misstogs våra CIFAR10-prover för verkliga bilder omkring 40 % av tiden, jämfört med 10 % för prover som tagits från en GAN-baslinjemodell. Vi visar också prover från modeller som är utbildade på de högre upplösningsbilderna av LSUN scendatasetet.
Denton m.fl. REF använder en grov-till-fin strategi i samband med bildgenerering.
1,282,515
Deep Generative Image Models using a Laplacian Pyramid of Adversarial Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
8,702
Abstract-We studerar effektiv interference-aware gemensam routing och TDMA länk schemaläggning för en multihop trådlöst nätverk för att maximera dess genomströmning. Effektiv länkplanering kan i hög grad minska interferenseffekten av närbelägna sändningar. Till skillnad från tidigare studier som ofta antar en enhet disk graf (UDG) modell, antar vi att olika terminaler kan ha olika överföringsintervall och olika interferenser. I vår modell är det också möjligt att en kommunikationslänk inte kan existera på grund av hinder eller inte används av ett förutbestämt routing protokoll, medan överföringen av en nod alltid resulterar störningar till alla icke-avsedda mottagare inom dess interferenssområde. Med hjälp av en matematisk formulering utvecklar vi interferensmedvetna gemensamma routing och synkroniserade TDMA-länkscheman som optimerar nätverksgenomströmningen med olika begränsningar. Vår linjära programmeringsformulering kommer att hitta ett flöde routing vars uppnådda genomströmning är minst en konstant bråkdel av det optimala, och den uppnådda rättvisa är också en konstant bråkdel av kravet. Sedan, genom att anta kända länkkapaciteter och länka trafikbelastningar, studerar vi länkplanering enligt interferensmodellen request-to-send och clear-to-send (RTS/CTS) och protokollinterferensmodellen (PrIM) med fast överföringseffekt. För båda modellerna presenterar vi både effektiva centraliserade och distribuerade algoritmer som använder tidslotter inom en konstant faktor för det optimala. Vi presenterar också effektiva distribuerade algoritmer vars prestanda fortfarande är jämförbara med optimal, men med mycket mindre kommunikation. Vi bevisar att de tidslotter som behövs av våra snabbare distribuerade algoritmer endast är som mest Oðminðlog n; logg på RTS/ CTS interferensmodell och PrIM. Våra teoretiska resultat bekräftas av omfattande simuleringsstudier.
I REF studerade författarna länkplanering under en PrIM med fast överföringskraft.
2,999,978
Interference-Aware Joint Routing and TDMA Link Scheduling for Static Wireless Networks
{'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']}
8,703
När multi-view rekonstruktion tekniker utvecklas, de åstadkommer att rekonstruera större miljöer. Detta är möjligt på grund av tillgången till stora bildsamlingar av målscenerna. Inom de närmaste åren kommer det att bli nödvändigt att redovisa alla tillgängliga källor till visuell information för att tillhandahålla framtida 3D-rekonstruktionsstrategier. Följaktligen, Structure from Motion (SfM) algoritmer kommer att behöva hantera en sådan mängd olika bildkällor, dvs.. perspektiv, vidvinkel eller sfäriska bilder. Även om SfM för perspektiv och sfäriska bilder samt katadioptriska system redan har studerats, toppmoderna algoritmer inte kan hantera dessa bilder samtidigt. För att täppa till denna lucka utvecklade vi SPHERA, ett enande SfM-ramverk utformat för centrala projektionskameror. Den använder en sfär som underliggande modell, vilket gör det möjligt att behandla enskilda effektiva synvinklar på ett enhetligt sätt. Vi validerar vårt ramverk med kvantitativa utvärderingar av syntetiska sfäriska samt verkliga perspektiv, sfäriska och hybrida bilddataset. Resultaten visar att SPHERA är ett kraftfullt ramverk för att stödja kommande algoritmer och tillämpningar i stor skala 3D-rekonstruktion.
Nyligen föreslog Gava och Stricker REF ett enhetligt SFM-ramverk som möjliggör enhetlig behandling av centrala projektionskameror med en sfär som underliggande modell.
22,763,563
SPHERA - A Unifying Structure from Motion Framework for Central Projection Cameras
{'venue': 'VISAPP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,704
Djupa inbäddningar besvarar en enkel fråga: Hur lika är två bilder? Att lära sig dessa inbäddningar är grunden för verifiering, noll-shot lärande, och visuell sökning. De mest framträdande tillvägagångssätt optimera ett djupt konvolutionsnätverk med en lämplig förlustfunktion, såsom kontrasterande förlust eller triplet förlust. Medan ett rikt arbete fokuserar enbart på förlustfunktionerna, visar vi i detta dokument att valet av utbildningsexempel spelar en lika viktig roll. Vi föreslår avståndsvägd provtagning, som väljer mer informativa och stabila exempel än traditionella metoder. Dessutom visar vi att en enkel marginalbaserad förlust är tillräcklig för att överträffa alla andra förlustfunktioner. Vi utvärderar vår strategi på Stanford Online Products, CAR196, och CUB200-2011 dataset för bildsökning och klusterbildning, och på LFW dataset för ansiktsverifiering. Vår metod uppnår toppmoderna prestanda på dem alla.
ProvtagningMatters Ref föreslår en strategi för avståndsvägd provtagning.
24,718,057
Sampling Matters in Deep Embedding Learning
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
8,705
Abstrakt. I detta dokument presenteras Weka4WS, ett ramverk som utökar Weka-verktyget för att stödja distribuerad datautvinning på Grid-miljöer. Weka4WS antar den framväxande Web Services Resource Framework (WSRF) för att få tillgång till fjärrdata mining algoritmer och hantera distribuerade beräkningar. Weka4WS användargränssnitt är en modifierad Weka Explorer-miljö som stöder utförandet av både lokala och fjärrdata mining uppgifter. På varje datornod används en WSRF-kompatibel webbtjänst för att exponera alla databrytningsalgoritmer som tillhandahålls av Wekabiblioteket. Dokumentet beskriver utformningen och genomförandet av Weka4WS med hjälp av en första utgåva av WSRF-biblioteket. För att utvärdera effektiviteten i det föreslagna systemet, presenteras en prestandaanalys av Weka4WS för att utföra distribuerade data mining uppgifter i olika nätverksscenarier.
WEKA4WS REF anpassar Weka toolkit till en Grid-miljö och exponerar alla 78 algoritmer som WSRF-kompatibla Web Services.
16,075,947
Weka4WS: A WSRF-Enabled Weka Toolkit for Distributed Data Mining on Grids
{'venue': 'PKDD', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,706
Diskussionsforum, som används av MOOC leverantörer som det främsta sättet att interagera mellan instruktörer och studenter, har vuxit fram som en av de viktiga komponenterna i online-kurser. Vi studerar empiriskt bidrag beteende i dessa online samarbetsforum lärande med hjälp av data från 44 MOOCs värd på Coursera, med fokus främst på de högsta volym bidragslämnare-"superpostörer" i ett forum. Vi utforskar vilka dessa superaffischer är och studerar deras engagemangsmönster över MOOC-plattformen, med fokus på följande fråga-i vilken utsträckning är superposting ett positivt fenomen för forumet? Särskilt, medan superpostörer tydligt bidrar kraftigt till forumet i termer av kvantitet, hur dessa bidrag i termer av kvalitet, och påverkar detta produktiva utstationering beteende negativt bidrag från den stora återstoden av eleverna i klassen? Vi analyserar dessa frågor över kurserna i vårt dataset, och finner att superaffischer visar över genomsnittet engagemang över Kursra, att anmäla sig till fler kurser och få bättre betyg än den genomsnittliga forum deltagare; dessutom, studenter som är superaffischer i en kurs är betydligt mer sannolikt att vara superaffischer i andra kurser de tar. När det gäller nytta, vår analys visar att även om varken vara den snabbaste eller den mest uppröstade, superposters svar är snabbare och får mer uppröstningar än den genomsnittliga forumanvändarens inlägg; en manuell bedömning av kvalitet på en delmängd av detta innehåll stöder denna slutsats att en stor del av superposters bidrag verkligen utgör användbart innehåll. Slutligen finner vi att superpostörers produktiva bidrag beteende inte "drown ut den tysta majoriteten"-hög superposter aktivitet korrelerar positivt och signifikant med högre övergripande aktivitet och forum hälsa, mätt som total bidrag volym, högre genomsnittlig upplevd nytta i form av mottagna röster, och en mindre bråkdel av föräldralösa trådar.
Huang m.fl. Undersöka 44 kurser i Coursera och fann att superaffischernas aktivitet korrelerar positivt med forumets övergripande aktivitet REF.
207,210,340
Superposter behavior in MOOC forums
{'venue': "L@S '14", 'journal': None, 'mag_field_of_study': ['Sociology', 'Computer Science']}
8,707
Distribuerade lagringssystem ger tillförlitlig tillgång till data genom redundans sprids över individuellt opålitliga noder. Tillämpningsscenarier inkluderar datacenter, peer-to-peer-lagringssystem och lagring i trådlösa nätverk. Lagring av data med en radering kod, i fragment spridda över noder, kräver mindre redundans än enkel replikering för samma nivå av tillförlitlighet. Men eftersom fragment måste bytas ut regelbundet när noderna misslyckas, är en nyckelfråga hur man genererar kodade fragment på ett distribuerat sätt samtidigt som så lite data som möjligt överförs över nätverket. För en radering kodat system, en vanlig praxis att reparera från en enda nod misslyckande är för en ny nod att rekonstruera hela kodade data objekt för att generera bara ett kodat block. Vi visar att detta förfarande är ooptimalt. Vi introducerar begreppet regenererande koder, som tillåter en ny nod att kommunicera funktioner av lagrade data från de överlevande noderna. Vi visar att regenererande koder avsevärt kan minska reparationsbandbredden. Vidare visar vi att det finns en grundläggande avvägning mellan lagrings- och reparationsbandbredd som vi teoretiskt karakteriserar med hjälp av flödesargument på ett lämpligt konstruerat diagram. Genom att åberopa konstruktiva resultat i nätkodning, introducerar vi regenererande koder som kan uppnå någon punkt i denna optimala kompromiss.
Dimakis m.fl. utmärkte kompromissen mellan per nod lagring (α) och reparation bandbredd (γ) REF.
502,158
Network Coding for Distributed Storage Systems
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
8,708
Varningssystemet för intersektionskollision har studerats i stor utsträckning med utvecklingen inom trådlös kommunikationsteknik och positioneringsutrustning, som nu i allt högre grad finns tillgänglig på smarta telefoner. I detta papper presenterar vi en Intersektion Collision Warning (ICW) system med Wi-Fi smarta telefoner med inbyggda GPS-mottagare för fordon ad-hoc nätverk. I systemet hämtar smarta telefoner först säkerhetsrelaterad information, dvs. plats, rörelseriktning och hastighet, via GPS-mottagare ombord och utbyter sedan regelbundet informationen med hjälp av vanlig trådlös kommunikation mellan fordon för att beräkna sannolikheten för eventuell kollision och utfärda varningar vid behov. Simuleringsresultat visar att vårt ICW-system avsevärt kan minska risken för kollisioner.
Ett annat arbete, kallas Intersektion Collision Warning, studerar varningsmeddelande spridning med smartphones med inbyggd GPS; i synnerhet, det använder WiFi-nätverk i smartphones för att hämta säkerhetsrelaterad information som plats, flytta riktning, och hastighet REF.
26,065,000
An Intersection Collision Warning System Using Wi-Fi Smartphones in VANET
{'venue': '2011 IEEE Global Telecommunications Conference - GLOBECOM 2011', 'journal': '2011 IEEE Global Telecommunications Conference - GLOBECOM 2011', 'mag_field_of_study': ['Computer Science']}
8,709
Abstract-Using drönare som flygande basstationer är en lovande strategi för att förbättra nättäckning och områdeskapacitet genom att flytta utbudet mot efterfrågan när det behövs. Utplacering av sådana basstationer kan dock utsättas för vissa begränsningar som måste beaktas. En av begränsningarna vid användning av drönarbasstationer (drone-BS) är tillgången till tillförlitlig trådlös backhaul-länk. I detta dokument undersöks hur olika typer av trådlösa backhaul som erbjuder olika datahastigheter skulle påverka antalet betjänade användare. Två tillvägagångssätt, nämligen nätverkscentrerade och användarcentrerade, införs och den optimala 3D backhaul-aware placeringen av en drönare-BS hittas för varje tillvägagångssätt. För detta ändamål maximeras det totala antalet betjänade användare och summor i de nätverkscentrerade respektive användarcentrerade ramarna. Eftersom det är att föredra att minska drone-BS-rörelserna för att spara mer på batteriet och öka flygtiden och minska kanalvariationerna, undersöks nätverkets robusthet som hur känslig den är med avseende på användarförskjutningar.
Ett annat arbete av Kalantari et al., i REF, undersöker användningen av flygbasstationer med hänsyn till olika typer av backhaul länkar.
17,392,841
Backhaul-aware robust 3D drone placement in 5G+ wireless networks
{'venue': '2017 IEEE International Conference on Communications Workshops (ICC Workshops)', 'journal': '2017 IEEE International Conference on Communications Workshops (ICC Workshops)', 'mag_field_of_study': ['Computer Science']}
8,710
Sammanfattning av denna webbsida: Många relevanta uppgifter kräver att en agent når ett visst tillstånd eller manipulerar objekt till en önskad konfiguration. Vi kanske till exempel vill att en robot anpassar och monterar en växel på en axel eller sätter in och vrider en nyckel i ett lås. Dessa målinriktade uppgifter utgör en avsevärd utmaning för att förstärka lärandet, eftersom deras naturliga belöningsfunktion är sparsam och oöverkomliga mängder prospektering krävs för att nå målet och få en viss inlärningssignal. Tidigare strategier tar itu med dessa problem genom att utnyttja expertdemonstrationer eller genom att manuellt utforma en uppgiftsspecifik belöningsformande funktion för att vägleda inlärningsagenten. I stället föreslår vi en metod för att lära sig dessa uppgifter utan att kräva några andra förkunskaper än att få ett enda tillstånd där uppgiften utförs. Roboten tränas i "omvänd" och lär sig gradvis att nå målet från en uppsättning startstater allt längre bort från målet. Vår metod genererar automatiskt en läroplan för start stater som anpassar sig till agentens prestanda, vilket leder till effektiv utbildning om målinriktade uppgifter. Vi demonstrerar vår inställning till svåra simulerade navigations- och finkorniga manipulationsproblem, som inte går att lösa genom toppmoderna förstärkande inlärningsmetoder.
Omvänd läroplansgenerering genererar automatiskt en läroplan av startstater, längre och längre bort från målet, som anpassar sig till agentens prestanda REF.
19,181,872
Reverse Curriculum Generation for Reinforcement Learning
{'venue': 'CoRL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,711
Konvolutionella nätverk är kraftfulla visuella modeller som ger hierarkier av funktioner. Vi visar att konvolutionsnätverken själva, tränade end-to-end, pixlar till pixel, överskrider toppmoderna i semantisk segmentering. Vår nyckelinsikt är att bygga "fullständigt konvolutionella" nätverk som tar input av godtycklig storlek och producerar motsvarande storlek utdata med effektiv slutledning och lärande. Vi definierar och specificerar utrymmet för helt konvolutionella nätverk, förklarar deras tillämpning på rumsligt täta förutsägelser uppgifter, och ritar anslutningar till tidigare modeller. Vi anpassar dagens klassificeringsnät (AlexNet [20], VGG-nätet [31] och GoogLeNet [32]) till helt konvolutionella nätverk och överför deras inlärda representationer genom finjustering [3] till segmenteringsuppgiften. Vi definierar sedan en skippa arkitektur som kombinerar semantisk information från ett djupt, grovt lager med utseende information från ett grunt, fint lager för att producera exakta och detaljerade segmenteringar. Vårt helt konvolutionella nätverk uppnår toppmodern segmentering av PASCAL VOC (20 % relativ förbättring till 62,2 % genomsnittlig IE 2012), NYUDv2 och SIFT Flow, medan slutsatsen tar mindre än en femtedel av en sekund för en typisk bild. 3431 978-1-4673-6964-0/15/$31.00 ©2015 IEEE
Under de senaste åren, Long et al. REF populariserade användningen av end-to-end helt konvolutionella nätverk (FCN) för semantisk segmentering.
56,507,745
Fully convolutional networks for semantic segmentation
{'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
8,712
Den senaste tidens tekniska framsteg har gjort det möjligt för mobila enheter att ge mobila användare betydande kapacitet och tillgänglighet. Energi är uppenbarligen en av de mest kritiska resurserna för sådana enheter; trots den stora ökningen av populariteten för mobila enheter, såsom smartphones, är deras användbarhet starkt begränsad av batteriets livslängd. Mobila användare är mycket intresserade av att få tillgång till Internet medan det är en av de dyraste verksamheterna när det gäller energi och kostnader. HTTP/2 har föreslagits och accepterats som den nya standarden för att stödja World Wide Web. HTTP/2 förväntas erbjuda bättre prestanda, t.ex. minskad sidbelastningstid. Ur mobilanvändarnas synvinkel uppstår därför frågan: Erbjuder HTTP/2 förbättrad energiförbrukning som ger längre batteritid? I detta dokument jämför vi HTTP/2:s energiförbrukning med dess föregångare (dvs. HTTP/1.1) med hjälp av en mängd olika verkliga och syntetiska testscenarier. Vi undersöker också hur Transport Layer Security (TLS) påverkar energiförbrukningen hos de mobila enheterna. Vår studie tyder på att RTT (Round Trip Time) är en av de största faktorerna för att avgöra hur fördelaktigt HTTP/2 är jämfört med HTTP/1.1. Vi drar slutsatsen att HTTP/2 har bättre energiförbrukningsprestanda för nätverk med högre RTT än HTTP/1.1.
HTTP/2: Chowdhury m.fl. REF fokuserar på HTTP/2 energieffektivitet, och visar att HTTP/2 uppvisar bättre prestanda när RTT går upp.
4,844,658
Is HTTP/2 more energy efficient than HTTP/1.1 for mobile users?
{'venue': 'PeerJ PrePrints', 'journal': 'PeerJ PrePrints', 'mag_field_of_study': ['Biology', 'Computer Science']}
8,713
Referensdokumentation är en viktig informationskälla om API-användning. Men information användbar för programmerare kan begravas i irrelevant text, eller bifogas en icke-intuitiv API-element, vilket gör det svårt att upptäcka. Vi föreslår att man upptäcker och rekommenderar fragment av API-dokumentation som kan vara viktiga för en programmerare som redan har beslutat att använda ett visst API-element. Vi kategoriserar textfragment i API-dokumentationen baserat på om de innehåller information som är oumbärlig, värdefull eller inte. Från de fragment som innehåller kunskap värd rekommendation, extraherar vi ordmönster, och använder dessa mönster för att automatiskt hitta nya fragment som innehåller liknande kunskap i osynlig dokumentation. Vi implementerade vår teknik i ett verktyg, Krec, som stöder både informationsfiltrering och upptäckt. I en utvärderingsstudie med slumpvis utvalda metoddefinitioner från tio system med öppen källkod fann vi att med ett utbildningsset från cirka 1000 dokumentationsenheter kunde vi utfärda rekommendationer med 90 % precision och 69 % återkallande. I en studie som omfattade tio oberoende bedömare bedömdes oumbärliga kunskapsobjekt som rekommenderades för API-typer vara användbara 57 % av tiden och potentiellt användbara ytterligare 30 % av tiden.
Robillard och Chhetri REF beskriver ett verktyg, Krec, som kan extrahera relevanta fragment av dokumentation som motsvarar ett givet API-element.
16,344,891
Recommending reference API documentation
{'venue': 'Empirical Software Engineering', 'journal': 'Empirical Software Engineering', 'mag_field_of_study': ['Computer Science']}
8,714
Abstrakt. Datorsystem som förutses i 2015-2020 tidsram kallas Extreme Scale eftersom de kommer att byggas med hjälp av massiva multi-core processorer med 100-tals kärnor per chip. Den största kapaciteten Extreme Scale systemet förväntas leverera Exaskala prestanda i storleksordningen 10 18 operationer per sekund. Dessa system innebär nya kritiska utmaningar för programvara inom områdena konvergens, energieffektivitet och motståndskraft. I detta dokument diskuterar vi konsekvenserna av konvergens- och energieffektivitetsutmaningarna för framtida programvara för Extreme Scale Systems. Ur tillämpningssynpunkt består konvergens- och energiutmaningarna i förmågan att uttrycka och hantera parallellism och lokalitet genom att utforska en rad starka skalningsmetoder och nya svaga skaltekniker. För att uttrycka parallellism och lokalitet är de viktigaste utmaningarna förmågan att exponera all den inneboende parallellismen och lokaliteten i en programmeringsmodell, samtidigt som man ser till att detta uttryck för parallellism och lokalitet är portabelt i en rad olika system. För hantering av parallellism och lokalitet omfattar de OS-relaterade utmaningarna parallell skalbarhet, rumslig partitionering av operativsystem och applikationsfunktionalitet, direkt maskinvaruåtkomst för kommunikation mellan processorer och asynkrona händelser snarare än avbrottsdrivna händelser, som åtföljs av utmaningar i systemet för schemaläggning, synkronisering, minneshantering, kommunikation, prestandaövervakning och strömhantering. Vi avslutar med att diskutera vikten av programvaruhårdvara codesign för att ta itu med de grundläggande utmaningarna för tillämpning möjliggörande på Extreme Scale system.
I en prospektiv analys av frågor med extrema skalsystem REF, vikten av samstämmighet, energieffektivitet och motståndskraft av programvara, samt programvara-hårdvara codesign har klarlagts.
2,464,827
Software challenges in extreme scale systems
{'venue': 'Journal of Physics: Conference Series', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,715
Abstract-Som en av de representativa Delegerade Proof-ofStake (DPoS) blockchain plattformar, EOSIO ekosystem växer snabbt under de senaste åren. Ett antal sårbarheter och motsvarande attacker av EOSIOs smarta kontrakt har upptäckts och observerats i det vilda, vilket orsakade en stor mängd ekonomiska skador. De flesta av EOSIO: s smarta kontrakt är dock inte öppen källkod. Som ett resultat, WebAssembly koden kan bli det enda tillgängliga objektet att analyseras i de flesta fall. Tyvärr är aktuella verktyg web-application orienterad och kan inte tillämpas på EOSIO WebAssembly kod direkt, vilket gör det svårare att upptäcka sårbarheter från dessa smarta kontrakt. I detta dokument föreslår vi EVulHunter, ett statiskt analysverktyg som kan användas för att upptäcka sårbarheter från EOSIO WASM-kod automatiskt. Vi fokuserar på en viss typ av sårbarheter som heter falsk överföring, och utnyttjandet av sådana sårbarheter har lett till miljontals dollar i skador. Såvitt vi vet är det första försöket att bygga ett automatiskt verktyg för att upptäcka sårbarheter i EOSIO:s smarta kontrakt. De experimentella resultaten visar att vårt verktyg kan upptäcka falska överföringssårbarheter snabbt och exakt. EVulHunter finns på GitHub 1 och YouTube 2.
Quan m.fl. Ref fokuserade på att upptäcka två typer av sårbarhet för EOSIO smarta kontrakt.
195,584,547
EVulHunter: Detecting Fake Transfer Vulnerabilities for EOSIO's Smart Contracts at Webassembly-level
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
8,716
Abstrakt. Preferensfrågor har fått stor uppmärksamhet under den senaste tiden, på grund av deras användning för att välja de mest föredragna objekten, särskilt när urvalskriterierna är motstridiga. Nuförtiden kräver ett stort antal tillämpningar manipulering av data som utvecklas i tiden, och därför har studien av kontinuerlig frågebehandling nyligen väckt intresset hos datahanteringsgemenskapen. Målet med kontinuerlig frågebehandling är att kontinuerligt utvärdera långvariga frågor genom att använda inkrementella algoritmer och därmed undvika frågeutvärdering från grunden, om möjligt. I detta dokument undersöker vi egenskaperna hos viktiga preferensfrågor, såsom skyline, top-k och top-k dominerar och vi granskar algoritmer som föreslås för utvärdering av kontinuerliga preferensfrågor under skjutfönster strömmande modell.
Kontaki m.fl. REF arbetade på top-k och top-k dominerande och granskade algoritmer för att utvärdera kontinuerliga preferensfrågor under glidande fönster strömmande modell.
6,399,056
Continuous Processing of Preference Queries in Data Streams
{'venue': 'SOFSEM', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,717
Abstrakt. I denna studie, är syftet att personalisera tröghetssensor databaserade mänskliga aktivitetsigenkänningsmodeller med hjälp av inkrementellt lärande. Till en början baseras igenkänningen på användaroberoende modell. När personuppgifter blir tillgängliga kan dock den inkrementella inlärningsbaserade erkännandemodellen uppdateras, och därmed anpassas, baserat på data utan användaravbrott. Den använda inkrementella inlärningsalgoritmen är Learn++ som är en ensemblemetod som kan använda vilken klassificerare som helst som en basklassare. I själva verket, studien jämför tre olika bas klassificerare: linjära discriminant analys (LDA), quadratic discriminant analys (QDA) och klassificering och regressionsträd (CART). Experiment bygger på offentligt öppna datauppsättningar och visar att redan en liten uppsättning personuppgifter kan förbättra klassificeringsnoggrannheten. Förbättring med hjälp av LDA som basklassare är 4,6 procentenheter, med QDA 2,0 procentenheter, och 2,3 procentenheter med hjälp av CART. Men om den användaroberoende modellen som används i den första fasen av igenkänningsprocessen inte är tillräckligt exakt, kan personaliseringen inte förbättra igenkänningsnoggrannheten. Denna studie fokuserar på igenkänning av mänsklig aktivitet baserad på tröghetssensordata som samlats in med hjälp av smartphone-sensorer. En av de största utmaningarna inom området är att människor är olika: de är unika till exempel när det gäller fysiska egenskaper, hälsotillstånd eller kön. Alla dessa har en effekt på de data som samlas in för modellutbildning. I själva verket visar det sig att användaroberoende modeller inte fungerar korrekt till exempel om de utbildas med friska studiepersoner och testas med försökspersoner som har svårt att röra sig [1]. Därför, om syftet är att träna en modell som fungerar med alla, bör forskningens fokus ligga på personliga och personliga förutsägelser modeller istället för användaroberoende modeller. Men utmaningen med personliga och personliga modeller är att de kräver personliga träningsdata. Detta skulle normalt kräva en omfattande, separat datainsamling för varje användare, vilket gör metoden oanvändbar utanför boxen. Det finns några försök att anpassa igenkänningsprocessen utan användaravbrott. Siirtola m.fl. al [2] presenterade en tvåstegsmetod som är särskilt utformad för anordningar som innehåller flera olika typer av sensorer. I det första steget användes användaroberoende modell som använder data från alla sensorer för att märka personliga strömmande data. Denna information används sedan för att bygga en ljus, och energieffektiv personlig modell som endast använder en deluppsättning av tillgängliga sensorer. Med hjälp av detta tillvägagångssätt kan noggrannheten i igenkänningen förbättras, men problemet med
Vi använder hela strömmande data för att anpassa klassificeringsmodeller, som görs i REF.
53,239,715
Personalizing human activity recognition models using incremental learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
8,718
Sammanfattning av denna webbsida: Mikroelektromekaniska systemteknik (MEMS) spelar en nyckelroll i utformningen av den nya generationen smartphones. Tack vare deras minskade storlek, minskad strömförbrukning, kan MEMS-sensorer inbäddas i ovanför mobila enheter för att öka deras funktioner. MEMS kan dock inte tillåta exakt autonom placering utan externa uppdateringar, t.ex. från GPS-signaler, eftersom deras signaler bryts ned av olika fel. När dessa sensorer är fixerade på användarens fot kan fotens positionsfaser enkelt bestämmas och periodiska nollhastighetsUPdaTes (ZUPTs) utförs för att begränsa positionsfelet. När sensorn är i handen blir situationen mycket mer komplex. För det första kan handrörelserna frikopplas från användarens allmänna rörelse. För det andra kan tröghetssignalernas egenskaper variera beroende på bärlägen. Därför har algoritmer för att karakterisera gångcykeln hos en fotgängare med hjälp av en handhållen enhet utvecklats. En klassificering som kan upptäcka rörelselägen som är typiska för mobiltelefonanvändare har utformats och implementerats. Enligt det detekterade rörelseläget tillämpas adaptiva stegdetekteringsalgoritmer. Framgång i stegdetekteringsprocessen visar sig vara högre än 97% i alla rörelselägen.
De använder ofta accelerometern för att upptäcka stegnumret för användaren REF.
15,748,162
Motion Mode Recognition and Step Detection Algorithms for Mobile Phone Users
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']}
8,719
Det är utbildat att klassificera indatabilder i olika densitetsklasser, medan LCE är ett annat CNN som kodar för lokal kontextinformation och det tränas att utföra patch-wise klassificering av indatabilder i olika densitetsklasser. DME är en multikolonn arkitekturbaserad CNN som syftar till att generera högdimensionella funktionskartor från indatabilden som är sammansmälta med den kontextuella information som uppskattas av GCE och LCE med hjälp av F-CNN. För att generera hög upplösning och hög kvalitet densitet kartor, använder F-CNN en uppsättning konvolutionella och fraktionerat-konstruerade konvolutionella lager och det tränas tillsammans med DME i ett end-to-end mode med hjälp av en kombination av adversarial förlust och pixelnivå Euclidean förlust. Omfattande experiment på mycket utmanande dataset visar att den föreslagna metoden uppnår betydande förbättringar jämfört med de senaste metoderna.
REF använder globala och lokala sammanhang för att generera hög kvalitet densitet karta.
2,099,022
Generating High-Quality Crowd Density Maps Using Contextual Pyramid CNNs
{'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']}
8,720
Abstract-This brief föreslår en prisbaserad energikontroll strategi för att ta bort toppbelastningen för smarta nät. Enligt priset kontrollerar energikonsumenterna sin energiförbrukning för att göra en avvägning mellan elkostnaden och kostnaden för att minska belastningen. Konsumenterna är interaktiva med varandra på grund av prissättning baserad på den totala belastningen. Vi formulerar samspelet mellan konsumenterna till ett icke-kooperativt spel och ger ett tillräckligt villkor för att säkerställa en unik jämvikt i spelet. Vi utvecklar en distribuerad energistyrningsalgoritm och ger ett tillräckligt konvergenstillstånd för algoritmen. Energistyrningsalgoritmen börjar i början av varje tidsintervall, t.ex. 15 min. Slutligen tillämpas energistyrningsstrategin för att kontrollera energiförbrukningen hos konsumenterna med luftkonditioneringssystem för uppvärmning. De numeriska resultaten visar att energistyrningsstrategin är effektiv för att ta bort toppbelastningen och matcha utbud med efterfrågan, och energikontrollalgoritmen kan konvergera till jämvikten.
Till exempel Ma et al. I Ref föreslogs ett prisbaserat energikontrollsystem i realtid för att hantera toppbelastningen i det energibaserade it-fysiska systemet.
24,074,313
Distributed Energy Consumption Control via Real-Time Pricing Feedback in Smart Grid
{'venue': 'IEEE Transactions on Control Systems Technology', 'journal': 'IEEE Transactions on Control Systems Technology', 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Engineering']}
8,721
En kvasipassiv benexoskeleton presenteras för lastbärande förstärkning under gång. Exoskelettet har inga ställdon, endast fotleds- och höftfjädrar och knädämpare. Utan nyttolast väger exoskelettet 11,7 kg och kräver endast 2 watt elkraft vid lastad gång. För 36 kg nyttolast, visar vi att den kvasipassiva exoskeleton överför i genomsnitt 80% av lasten till marken under den enda stödfasen av gång. Genom att mäta graden av syreförbrukning på en studiedeltagare som går med en självvald hastighet, finner vi att exoskeleton något ökar den gå metabola kostnaden för transport (COT) jämfört med en standard laddad ryggsäck (10% ökning). Men, en liknande exoskeleton utan gemensamma fjädrar eller dämpningskontroll (noll-impedans exoskeleton) har visat sig öka COT med 23% jämfört med den lastade ryggsäcken, belyser fördelarna med passiva och kvasi-passive gemensamma mekanismer i utformningen av effektiva, lågmasse ben exoskeletons.
En kvasipassiv exoskeleton av Walsh et al. REF var inriktat på lastvagnar under gång.
1,426,956
A QUASI-PASSIVE LEG EXOSKELETON FOR LOAD-CARRYING AUGMENTATION
{'venue': 'Int. J. Humanoid Robotics', 'journal': 'Int. J. Humanoid Robotics', 'mag_field_of_study': ['Computer Science']}
8,722
I detta arbete föreslår vi kontextuella språkmodeller som införlivar dialognivå diskursinformation i språkmodellering. Tidigare verk om kontextuell språkmodell behandlar föregående uttalanden som en sekvens av indata, utan att överväga dialoginteraktioner. Vi designar recidiverande neurala nätverk (RNN) baserade kontextuella språkmodeller som speciellt följer interaktionen mellan högtalare i en dialogruta. Experimentresultat från Växeldialogen Korpus visar att den föreslagna modellen överträffar den konventionella enkelsvängsbaserade RNN-språkmodellen med 3,3 % på perplexitet. De föreslagna modellerna visar också en fördelaktig prestanda jämfört med andra konkurrenskraftiga kontextuella språkmodeller.
I studie REF föreslog de kontextuella RNN-språkmodeller som spårar samspelet mellan talarna genom att använda ytterligare RNN.
6,106,078
Dialog context language modeling with recurrent neural networks
{'venue': '2017 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)', 'journal': '2017 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP)', 'mag_field_of_study': ['Computer Science']}
8,723
Blindbildskvalitetsbedömning (BIQA) syftar till att förutsäga perceptuella bildkvalitetspoäng utan tillgång till referensbilder. De senaste BIQA-metoderna kräver vanligtvis att försökspersonerna gör poäng på ett stort antal bilder för att träna upp en robust modell. Emellertid, förvärv av bildkvalitetspoäng har flera begränsningar: 1) poäng är inte exakta, eftersom ämnen är oftast osäkra om vilka poäng mest exakt representerar den perceptuella kvaliteten på en given bild, 2) subjektiva bedömningar av kvalitet kan vara partiska av bildinnehåll, 3) kvalitetsskalor mellan olika distorsion kategorier är inkonsekvent, eftersom bilder som korrumperas av olika typer av distorsion utvärderas självständigt i subjektiva experiment, och 4) det är utmanande att få en stor skala databas, eller att utöka befintliga databaser, på grund av besväret med att samla in tillräckliga bilder i samband med olika typer av distorsion som har olika nivåer av nedbrytning, utbilda försökspersoner, genomföra subjektiva experiment, och justera mänskliga kvalitetsutvärderingar. För att bekämpa dessa begränsningar utforskar och utnyttjar detta papper preferenser bildpar (PIPs) såsom "kvaliteten på bild I a är bättre än bilden I b " för att träna en robust BIQA-modell. Preferensetiketten, som representerar den relativa kvaliteten på två bilder, är i allmänhet exakt och konsekvent och är inte känslig för bildinnehåll, distorsionstyp eller ämnesidentitet; sådana PIP kan genereras till mycket låg kostnad. Den föreslagna BIQA-metoden är en metod för att lära sig rangordna. Vi formulerar först problemet med att lära sig mappningen från bildfunktionerna till preferensetiketten som en av klassificeringarna. I synnerhet undersöker vi utnyttjandet av en flerkärnig inlärningsalgoritm baserad på grupp lasso (MKLGL) för att ge en lösning. En enkel men effektiv strategi för att uppskatta perceptuella bildkvalitetspoäng presenteras sedan. Experiment visar att den föreslagna BIQA-metoden är mycket effektiv och ger jämförbar prestanda med toppmoderna BIQA-algoritmer. Dessutom kan den föreslagna metoden enkelt utvidgas till att omfatta nya snedvridningskategorier. Avbilda kvalitetsbedömning, lära sig att rangordna, flera kärna lärande, lärande preferenser, universell blind bildkvalitet bedömning.
Att lära sig rangordna föreslogs nyligen för bedömning av blindbildskvalitet i REF.
15,638,826
Learning to Rank for Blind Image Quality Assessment
{'venue': 'IEEE TRANSACTIONS ON NEURAL NETWORKS AND LEARNING SYSTEMS, VOL. 26, NO. 10, OCTOBER 2015, PP. 2275-2290', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine']}
8,724
I detta dokument överväger vi ett storskaligt trådlöst ad hoc-nätverk med flera källdestinationskommunikationspar, där källorna fungerar med trådlös energiskörd. Före dataöverföringen bör varje källa först skörda den radiofrekvensenergi som överförs från dess motsvarande destination. Eftersom avståndet till källan är långt är effektiviteten för trådlös energiöverföring mycket låg. Som ett resultat av detta är källans överföringskraft svag, vilket är skadligt för den framgångsrika dataöverföringen. Istället inför vi ett relä mellan varje källa och destination för trådlös energiöverföring och dataöverföring. Det nära avståndet mellan reläet och källan kan förbättra energieffektiviteten och dataöverföringen kan förbättra länkens robusthet. Med hjälp av reläet förbättras områdesspektrumeffektiviteten avsevärt jämfört med det icke-kooperativa systemet. En serie av diskreta effektnivåer definieras för källorna och sannolikheten för att välja varje effektnivå analyseras genom medelvärde över den slumpmässiga kanalen blekning. Vi analyserar dataframgång sannolikheter genom att i genomsnitt över de osäkra störningar som orsakas av slumpmässiga platser av användare, kanalen bleknar, och de olika källor överföringskrafter. De övre och nedre approximationer av data framgång sannolikheter härleds med hjälp av den stokastiska geometri teorin för det kooperativa energi- och dataöverföringssystemet. Den optimala tidsfördelningen mellan den trådlösa energiöverföringen och dataöverföringen undersöks för att maximera systemområdets genomströmning. Numeriska och simuleringsresultat tillhandahålls för att validera vår teoretiska analys och visa beroendet av systemets prestanda på olika parameterinställningar. Resultaten kan ge riktlinjer för utbyggnaden av kommunikationssystemet för energiupptagningssamarbete.
Sedan, i ett stokastiskt nätverk med flera källa-destination kommunikation par och flera mellan reläer, REF anser att området spektrum effektivitet kan förbättras avsevärt jämfört med det icke-kooperativa systemet.
36,658,953
Cooperative wireless energy harvesting and information transfer in stochastic networks
{'venue': None, 'journal': 'EURASIP Journal on Wireless Communications and Networking', 'mag_field_of_study': ['Computer Science']}
8,725
Grafer, såsom sociala nätverk, ordsammankomstnätverk och kommunikationsnät, förekommer naturligt i olika tillämpningar i verkligheten. Att analysera dem ger insikt i samhällets struktur, språk och olika kommunikationsmönster. Många tillvägagångssätt har föreslagits för att genomföra analysen. Nyligen, metoder som använder representationen av graf noder i vektorutrymme har fått dragkraft från forskarsamhället. I denna undersökning ger vi en omfattande och strukturerad analys av olika grafbäddstekniker som föreslås i litteraturen. Vi introducerar först inbäddningsuppgiften och dess utmaningar som skalbarhet, val av dimensionalitet och egenskaper som ska bevaras, och deras möjliga lösningar. Därefter presenterar vi tre kategorier av tillvägagångssätt baserade på faktoriseringsmetoder, slumpmässiga promenader och djupinlärning, med exempel på representativa algoritmer i varje kategori och analys av deras prestanda på olika uppgifter. Vi utvärderar dessa state-of-the-art metoder på några gemensamma datauppsättningar och jämför deras prestanda mot varandra och kontra icke-inbäddade baserade modeller. Vår analys avslutas med att föreslå några potentiella tillämpningar och framtida riktningar. Vi presenterar slutligen det open-source Python biblioteket, som heter GEM (Graph Embedding Methods), vi utvecklade som ger alla presenterade algoritmer inom ett enhetligt gränssnitt, för att främja och underlätta forskning om ämnet.
Undersökningen REF genomförs på factorization baserade, slumpmässiga promenader, och djupinlärning baserade nätverk inbäddning metoder som DeepWalk, Node2vec, och etc.
3,953,995
Graph Embedding Techniques, Applications, and Performance: A Survey
{'venue': 'Knowledge Based Systems, Volume 151, 1 July 2018, Pages 78-94, 2018', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,726
I detta dokument föreslår vi en robust objektspårningsalgoritm med hjälp av en samarbetsmodell. Eftersom den största utmaningen för objektspårning är att ta hänsyn till drastiska utseendeförändringar föreslår vi en robust utseendemodell som utnyttjar både holistiska mallar och lokala representationer. Vi utvecklar en sparsitetsbaserad discriminative classifier (SD-C) och en sparsitetsbaserad generativ modell (SGM). I S-DC-modulen introducerar vi en effektiv metod för att beräkna det konfidensintervall som tilldelar förgrunden fler vikter än bakgrunden. I SGM modulen föreslår vi en ny histogram-baserad metod som tar den rumsliga informationen för varje patch i beaktande med en ocklusion handing schema. Uppdateringssystemet tar dessutom hänsyn till både de senaste iakttagelserna och den ursprungliga mallen, vilket gör det möjligt för spåraren att hantera utseendeförändringar på ett effektivt sätt och lindra driftproblemen. Många experiment på olika utmanande videor visar att den föreslagna spåraren presterar gynnsamt mot flera toppmoderna algoritmer.
Vidare anser REF att bakgrundsinformationen är viktig.
15,725,489
Robust object tracking via sparsity-based collaborative model
{'venue': '2012 IEEE Conference on Computer Vision and Pattern Recognition', 'journal': '2012 IEEE Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
8,727
Abstract-Wireless sensornätverk spänner från militära applikationer till vardagen. Kroppssensornätverk drar stor nytta av trådlösa sensornätverk för att svara på biofeedback-utmaningarna i vårdapplikationer. I sådana tillämpningar är data av grundläggande betydelse, det måste vara pålitligt och inom räckhåll. De flesta lösningar är dock beroende av en persondator för att behandla och visa sensordata. I detta dokument föreslår vi en mobil lösning som bygger på tre nivåers kroppssensornätverk för att dramatiskt förbättra datatillgängligheten, genom användning av en Java- och Bluetooth-aktiverad mobiltelefon. Det mobila verktyget innehåller dataövervakning och presentation. Detta tillvägagångssätt tillåter datavisualisering av patienten eller medicinsk personal utan en bärbar dator eller specifik övervakning hårdvara. Vi hoppas kunna bidra till antagandet av biofeedback för tidig upptäckt av avvikelser i hälsa och sänka den budget som regeringarna spenderar varje år inom hälso- och sjukvården.
I REF presenteras en mobil lösning för insamling och bearbetning av biofeedbackdata på tre nivåer.
2,942,153
Mobile Solution for Three-Tier Biofeedback Data Acquisition and Processing
{'venue': 'IEEE GLOBECOM 2008 - 2008 IEEE Global Telecommunications Conference', 'journal': 'IEEE GLOBECOM 2008 - 2008 IEEE Global Telecommunications Conference', 'mag_field_of_study': ['Computer Science']}
8,728
I detta arbete undersöker vi effekten av det konvolutionella nätverksdjupet på dess noggrannhet i den storskaliga bildigenkänningsinställningen. Vårt huvudsakliga bidrag är en grundlig utvärdering av nätverk av ökande djup, vilket visar att en betydande förbättring av tidigare-konst konfigurationer kan uppnås genom att flytta djupet till 16-19 viktlager. Dessa resultat var grunden för vår ImageNet Challenge 2014 underkastelse, där vårt team säkrade den första och den andra platsen i lokaliserings- respektive klassificeringsspår. Vi visar också att våra representationer generaliserar väl till andra datauppsättningar, där de uppnår de senaste resultaten. Viktigt är att vi har gjort våra två bäst presterande ConvNet-modeller allmänt tillgängliga för att underlätta ytterligare forskning om användningen av djupa visuella representationer i datorseendet.
Simonyan och Zisserman REF visade att en betydande förbättring av tidigare-konst konfigurationer kan uppnås genom att ställa in djupet till 16 -19 viktlager.
14,124,313
Very Deep Convolutional Networks for Large-Scale Image Recognition
{'venue': 'CVPR 2014', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,729
Analoga och blandade signalkonstruktioner (AMS) är en viktig del av inbyggda system som kopplar digitala mönster till den analoga världen. På grund av de utmaningar som är förknippade med verifieringsprocessen kräver AMS-konstruktioner en betydande del av den totala konstruktionscykeln. I motsats till digital design är verifieringen av AMS-system en utmanande uppgift som kräver mycket expertis och djup förståelse för deras beteende. Forskare har nyligen börjat studera tillämpligheten av formella metoder för verifiering av AMS-system som ett sätt att ta itu med begränsningarna i konventionella verifieringsmetoder som simulering. I detta dokument kartläggs forskningsverksamheten vid den formella kontrollen av AMS-konstruktioner samt jämförs de olika föreslagna tillvägagångssätten.
En undersökning av den formella kontrollen av AMS-kretsar finns i REF.
52,800,614
Review: Formal verification of analog and mixed signal designs: A survey
{'venue': 'Microelectron. J.', 'journal': 'Microelectron. J.', 'mag_field_of_study': ['Computer Science']}
8,730
Trådlös kommunikation med obemannade luftfartyg (UAV) är en lovande teknik för framtida kommunikationssystem. I detta dokument, förutsatt att UAV flyger horisontellt med en fast höjd, studerar vi energieffektiv UAV-kommunikation med en markterminal genom att optimera UAV:s bana, ett nytt designparadigm som tillsammans tar hänsyn till både kommunikationsgenomströmningen och UAV:s energiförbrukning. För detta ändamål härleder vi först en teoretisk modell för framdrivningsenergiförbrukningen för fasta UAV som en funktion av UAV:s flyghastighet, riktning och acceleration. Baserat på den härledda modellen och genom att ignorera den strålning och signalbehandling energiförbrukningen, energieffektivitet UAV kommunikation definieras som den totala information bitar kommuniceras normaliseras av UAV framdrivningsenergi som förbrukas för en ändlig tidshorisont. När det gäller okonstruerad banoptimering visar vi att både hastighetsmaximering och energiminimering leder till att energieffektiviteten försvinner och därmed är energiineffektiv i allmänhet. Därefter introducerar vi en enkel cirkulär UAV-bana, under vilken UAV:s flygradie och hastighet är gemensamt optimerade för att maximera energieffektiviteten. Dessutom föreslås en effektiv konstruktion för att maximera UAV:s energieffektivitet med allmänna begränsningar på banan, inklusive dess initiala/slutliga platser och hastigheter, samt minimal/maximal hastighet och acceleration. Numeriska resultat visar att de föreslagna konstruktionerna uppnår betydligt högre energieffektivitet för UAV-kommunikation jämfört med andra referenssystem.
Till exempel i REF, Zeng et al. föreslog en effektiv konstruktion genom att optimera UAV:s flygradie och hastighet för att maximera energieffektiviteten i UAV-kommunikation.
206,828,353
Energy-Efficient UAV Communication With Trajectory Optimization
{'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
8,731
Abstract-BitTorrent är den mest framgångsrika öppna Internet-applikationen för innehållsdistribution. Trots dess betydelse, både när det gäller dess fotavtryck på Internet och dess inflytande på framväxande P2P-tillämpningar, är BitTorrent Ecosystem endast delvis förstådd. Vi försöker ge en nästan komplett bild av hela det offentliga BitTorrent Ecosystem. För detta ändamål, vi kryper fem av de mest populära torrent-discovery platser under en ine-månad period, identifiera alla 4,6 miljoner och 38.996 spårare som platserna refererar till. Vi utvecklar också en högpresterande tracker crawler, och under ett smalt fönster på 12 timmar, krypa i stort sett alla offentliga Ecosystems trackers, få peer lists för alla referens torrents. Kompletterar torrent-discovery platsen och spårare kryper, vi ytterligare krypa Azureus och Mainline DHTs för ett slumpmässigt urval av torrents. Våra resulterande mätdata är mer än en storleksordning större (i fråga om antal dataflöden, spårare eller jämlikar) än någon tidigare studie. Med hjälp av denna omfattande datauppsättning studerar vi ingående ekosystemets torrent-discovery, tracker, peer, användarbeteende och innehållslandskap. För jämförelsestatistik baseras analysen på en typisk ögonblicksbild som erhållits under 12 timmar. Vi analyserar vidare ekosystemets bräcklighet vid avlägsnandet av dess viktigaste spårartjänst.
I en annan studie, Zhang et al. REF presenterade den mest omfattande karakteriseringen av BitTorrent ekosystem.
17,113,897
Unraveling the BitTorrent Ecosystem
{'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']}
8,732
Mängden data som överförs över särskilda och icke-dedikerade nätlänkar ökar mycket snabbare än ökningen av nätkapaciteten, men de nuvarande lösningarna garanterar inte ens de utlovade överföringsflödena. I detta dokument föreslår vi en ny dynamisk genomströmningsoptimeringsmodell baserad på matematisk modellering med offline kunskap upptäckt / analys och adaptiv online beslutsfattande. I offline analys, vi minera historiska överföringsloggar för att utföra kunskap upptäckt om överföringsegenskaper. Online-fasen använder den upptäckta kunskapen från offline-analysen tillsammans med realtidsundersökning av nätverkskonditionen för att optimera protokollparametrarna. Eftersom realtidsutredningen är dyr och ger delvis kunskap om nuvarande nätverksstatus, använder vår modell historisk kunskap om nätverket och data för att minska omkostnaderna för realtidsutredningar och samtidigt säkerställa nära optimal genomströmning för varje överföring. Vår nätverks- och dataagnostiska lösning testas över olika nätverk och uppnås upp till 93% noggrannhet jämfört med den optimala möjliga genomströmningen på dessa nätverk.
Nio och al. REF använde historisk kunskap om nätverket och data för att minska omkostnaderna för realtidsutredningar samtidigt som man säkrade nära optimal genomströmning för varje överföring.
19,067,695
Data Transfer Optimization Based on Offline Knowledge Discovery and Adaptive Real-time Sampling
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
8,733
Abstrakt. Människor navigerar trånga utrymmen som ett universitet campus genom att följa sunt förnuft regler baserade på social etikett. I detta dokument hävdar vi att för att möjliggöra utformningen av nya målspårnings- eller banaprognoser som kan dra full nytta av dessa regler, måste vi först och främst ha tillgång till bättre data. Därför bidrar vi med ett nytt storskaligt dataset som samlar videor av olika typer av mål (inte bara fotgängare, utan även cyklister, skateboardåkare, bilar, bussar, golfbilar) som navigerar i en verklig utomhusmiljö som ett universitetsområde. Dessutom introducerar vi en ny karaktärisering som beskriver den "sociala känslighet" där två mål samverkar. Vi använder denna karakterisering för att definiera "navigation stilar" och förbättra både prognosmodeller och state-of-the-art multi-target tracking - varigenom de inlärda prognosmodellerna hjälper data association steg.
Robicquet m.fl. REF introducerar en UAV-datauppsättning (Stanford) som samlar in bilder och videor av sex typer av objekt i Stanfords campusområde.
3,150,075
Learning Social Etiquette: Human Trajectory Understanding In Crowded Scenes
{'venue': 'ECCV', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,734
Abstract-Diversity har länge betraktats som en säkerhetsmekanism för att förbättra motståndskraften hos programvara och nätverk mot olika attacker. På senare tid har mångfald hittat nya applikationer inom molndatasäkerhet, flytta målförsvar och förbättra robustheten i nätverk routing. De flesta befintliga insatser bygger dock på intuitiva och otydliga föreställningar om mångfald, och de få befintliga modellerna för mångfald är främst utformade för ett enda system som kör olika programvarukopior eller varianter. På en högre abstraktionsnivå, som en global egendom för hela nätverket, har mångfald och dess inverkan på säkerheten fått begränsad uppmärksamhet. I den här artikeln tar vi det första steget mot att formellt modellera nätverksmångfald som ett säkerhetsmått genom att utforma och utvärdera en rad mångfaldsmått. Framför allt utformar vi först ett mått på biologisk mångfald baserat på det effektiva antalet skilda resurser. Vi föreslår sedan två kompletterande mångfaldsmått, baserade på de minst respektive de genomsnittliga angreppsinsatserna. Vi tillhandahåller riktlinjer för att omedelbart ta fram de föreslagna mätvärdena och presentera en fallstudie om uppskattning av programvarumångfald. Slutligen utvärderar vi de föreslagna mätvärdena genom simulering.
REF har modellerat nätverksmångfald som ett säkerhetsmått för att utvärdera nätverkets robusthet mot nolldagarssårbarhet.
8,729,672
Network Diversity: A Security Metric for Evaluating the Resilience of Networks Against Zero-Day Attacks
{'venue': 'IEEE Transactions on Information Forensics and Security', 'journal': 'IEEE Transactions on Information Forensics and Security', 'mag_field_of_study': ['Computer Science']}
8,736
Profet, ett ordförutsägelseprogram, har använts under de senaste tio åren som skrivhjälp, och var utformad för att påskynda skrivprocessen och minimera skrivansträngningen för personer med motorisk dysfunktion. Det har också visat sig vara till nytta när det gäller stavning och textkonstruktion för personer med läs- och skrivsvårigheter på grund av språkliga funktionsnedsättningar. Med högre språkliga krav på stöd för personer med svåra läs- och skrivsvårigheter, inklusive dyslexi, har behovet av en förbättrad version av Profet uppstått. I detta dokument kommer den nya funktionaliteten att presenteras, och eventuella konsekvenser för stöd på olika språknivåer kommer att diskuteras. Resultaten från en utvärderingsstudie med personer med motorisk dysfunktion och/eller dyslexi kommer att presenteras vid workshopen i Madrid. Ordförutsägelsesystem h&ve fanns sedan början av 1980-talet och var ursprungligen avsedda för rörelsehindrade men senare också för personer med språkliga funktionsnedsättningar. Flera olika ordförutsägelsemetoder finns: Förutsägelse kan antingen baseras på textstatistik eller språkliga regler. Vissa förutsägelseprogram anpassar sig också till användarens språk genom att använda ämneslexikon eller inlärningsmoduler. Bland de första att utveckla ord förutsägelseprogram för PC var KTH med Predict (senare Profet) (Hunnicutt, 1986 ) och ACSD med PAL (Swiffin et al, 1987 ) (Arnott et al, 1993. Program för Macintosh inkluderar Co:Writer, som distribueras av Don Johnston, Inc. Profet är en statistiskt baserad adaptiv ord förutsägelse program och används som ett skriftligt hjälpmedel av individer med motoriska och / eller språkliga funktionshinder, t.ex., mild afasi och dyslexi (Hunnicutt, 1986), (Hunnicutt, 1989a). Programmet har genomgått flera utvecklingsstadier på KTH sedan 1982 och körs på PC och Macintosh med Infovox och monolog talsyntes. Det används i Sverige (Profet) och Storbritannien (Prophet) men också lokaliseras till danska, Bokm~ (Norska), nederländska, spanska, franska, ryska och finska. När användaren skriver minst ett brev i början av ett ord, presenteras en lista med upp till nio förslag på sannolika ordkandidater. Ett ord väljs med den funktionsnyckel som visas till höger. Men om det avsedda ordet inte är bland valen, kan användaren skriva nästa bokstav i målordet, då han eller hon presenteras med en ny lista med förslag i prediktionsfönstret. Varje gång en annan bokstav skrivs in visas en ny lista, förutsatt att det finns en matchning i lexikonet. En lista med ordförslag presenteras också efter slutförande av ett ord, om det ordet är det första ordet i ett par i bigram lexikonet. Men när användaren börjar skriva ett nytt ord, prediktorn, som är begränsad till en informationskälla i taget, kräver endast huvudlexikonet, vilket ignorerar alla tidigare skrivna ord. Den negativa effekten av denna begränsning uppvägs i viss mån av regressfunktionen, som efter varje mellanslag och punktering registrerar ordet som just fullbordats. På så sätt främjas ett nyligen använt ord i prognoslistan nästa gång den första bokstaven eller bokstäverna skrivs in. Genom att välja ord i prediktionsfönstret kan den motoriskt funktionshindrade användaren spara tangenttryckningar och fysisk energi. På liknande sätt är den användare som har svårt att stava, men som kan känna igen det avsedda ordet i en lista, lättad från att behöva stava hela ordet. Den användare som har problem med de-23
Ett statistiskt ordförutsägelsesystem, Profet, utvecklades och användes som skrivhjälp i Sverige REF.
8,428,400
Profet, A New Generation Of Word Prediction: An Evaluation Study
{'venue': 'Workshop On Natural Language Processing For Communication Aids', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,737
Abstrakt. Eftersom en sekvens S = s 1 s 2... s n heltal mindre än r = O(polylog(n)), visar vi hur S kan representeras med n H 0 (S) + o(n) bitar, så att vi kan veta alla s q, samt svar rank och välj frågor på S, i konstant tid. H 0 (S) är nollordnad empirisk entropi av S och n H 0 (S) ger en informationsteori lägre bundet till bitlagring av någon sekvens S via en fast kodning av dess symboler. Detta utökar tidigare resultat på binära sekvenser och förbättrar tidigare författares adresser: P. Ferragina, Dipartimento di Informatica, Università di Pisa, Largo Bruno Pontecorvo 3, I-56127 Pisa, Italien, e-post: [email protected]; G. Manzini, Dipartimento di Informatica, Università del Piemonte Orientale, Via Bellini, 25g, I-15100 Alessandria, Italien, e-post: [email protected]; V. Mäkinen, Institutionen för datavetenskap, P.O. Box 68 (Gustaf Hällströmin katu 2b), FI-00014 Helsingfors universitet, e-post: [email protected]; G. Navarro (kontaktförfattare), Departamento de Ciencias de la Computación, Universidad de Chile, Blanco Encalada 2120, Santiago, Chile, e-post: [email protected]. Tillstånd att göra digitala eller hårda kopior av delar eller allt detta arbete för personligt bruk eller klassrum beviljas utan avgift under förutsättning att kopior inte görs eller distribueras för vinst eller direkt kommersiell fördel och att kopior visar detta meddelande på första sidan eller första skärmen av en skärm tillsammans med den fullständiga citering. Upphovsrätt till delar av detta verk som ägs av andra än ACM måste hedras. Abstraktering med kredit är tillåten. För att kopiera på annat sätt, för att återpublicera, för att posta på servrar, för att omfördela till listor, eller för att använda någon komponent i detta verk i andra verk krävs förhandsgodkännande och/eller avgift. Behörighet kan begäras från publikationsavdelningen, ACM, Inc., 2 Penn Plaza, Suite 701, New York, NY 10121-0701 USA, fax +1 (212) 869-0481, eller behö[email protected]. resultat på allmänna sekvenser där dessa frågor besvaras i O(log r ) tid. För större r kan vi fortfarande representera S i n H 0 (S) + o(n log r ) bitar och svara på frågor i O(log r / log log n) tid. Ett annat bidrag av denna artikel är att visa hur man kombinerar vår komprimerade representation av heltal sekvenser med en komprimering öka teknik för att utforma komprimerade full-text index som skala väl med storleken på ingång alfabetet. Specifikt, vi designar en variant av FM-index som indexerar en sträng T [1, n] inom n H k (T) + o(n) bitar av lagring, där H k (T ) är kth-order empirisk entropi av T. Detta utrymme bundet håller samtidigt för alla k ≤ α log på n, konstant 0 < α < 1, och till = O (polylog(n) ). Detta index räknar förekomsten av ett godtyckligt mönster P [1, p] som en delsträng av T i O( p) tid; det lokaliserar varje mönsterförekomst i O(log 1+ε n) tid för varje konstant 0 < ε < 1; och rapporterar en textdelsträng av längd i O( + log 1+ε n) tid. Jämfört med alla tidigare verk, är vårt index det första som tar bort alfabetets storlek beroende från alla frågetider, särskilt, räkna tiden är linjär i mönstrets längd. Ändå använder vårt index i huvudsak samma utrymme för kth-order entropi av texten T, vilket är det bästa utrymmet som erhållits i tidigare arbete. Vi kan också hantera större alfabet av storlek till = O (n β ), för alla 0 < β < 1, genom att betala o (n log på) extra utrymme och multiplicera alla frågetider med O (log på / log log log n).
Till exempel den mest kompakta medlemmen i den så kallade FM-Index familjen REF, som vi helt enkelt kommer att kalla FMI, är en CSA som kräver nH k + o(n log σ) bitar av utrymme och räknar antalet förekomster av ett mönster av längd m i tid O(m (1 + log σ log n )).
281,518
Compressed representations of sequences and full-text indexes
{'venue': 'TALG', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
8,738
Vi beskriver DSTM2, ett programbibliotek för JavaTM som ger ett flexibelt ramverk för att implementera objektbaserat programvarutransaktionsminne (STM). Biblioteket använder transaktionsfabriker för att omvandla sekventiella (osynkroniserade) klasser till atomära (transaktionellt synkroniserade) klasser, vilket ger en betydande förbättring jämfört med det besvärliga programmeringsgränssnittet i vårt tidigare DSTM-bibliotek. Dessutom kan forskare experimentera med alternativa STM-mekanismer genom att tillhandahålla egna fabriker. Vi visar denna flexibilitet genom att presentera två fabriker: en som i huvudsak använder samma mekanismer som den ursprungliga DSTM (med vissa förbättringar), och en annan som använder ett helt annat tillvägagångssätt. Eftersom DSTM2 är paketerat som ett Javabibliotek, kan ett brett utbud av programmerare enkelt prova det, och samhället kan börja få erfarenhet av transaktions-programmering. Dessutom kommer forskare att kunna använda det organ av transaktionsprogram som uppstår från denna gemenskap erfarenhet för att testa och utvärdera olika STM-mekanismer helt enkelt genom att leverera nya transaktionsfabriker. Vi anser att denna flexibla strategi kommer att bidra till att skapa samförstånd om de bästa sätten att genomföra transaktioner, och kommer att undvika den för tidiga "inlåsning" som kan uppstå om STM-mekanismer bakas in i kompilatorer innan sådana experiment görs.
Back-end gränssnittet för denna TM implementation förbättrades senare i ett Java bibliotek som stöder utbytbara transaktionsfabrik REF.
9,298,042
A flexible framework for implementing software transactional memory
{'venue': "OOPSLA '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,739
Att spåra enskilda individer när de rör sig över delade kameravyer är en utmanande uppgift eftersom deras utseende kan variera avsevärt mellan olika vyer. Stora förändringar i utseendet beror på olika och varierande ljusförhållanden och den deformerbara geometrin hos människor. Dessa effekter är svåra att uppskatta och ta hänsyn till i verkliga tillämpningar. Därför föreslår vi i detta dokument en belysningstolerant utseende representation, som är kapabel att hantera de typiska ljusförändringar som sker i övervakningsscenarier. Utseende representationen är baserad på en online k-medel färgkluster algoritm, en dataadaptiv intensitet omvandling och inkrementell användning av ramar. En likhetsmätning införs också för att jämföra utseende representationer av två godtyckliga individer. Eftermatchning integration av matchningsbeslutet längs individernas spår utförs för att förbättra tillförlitligheten och robustheten av matchning. När matchning tillhandahålls för två vyer av en enskild individ, dess spårning mellan separata kameror härleds enkelt. Experimentella resultat som presenteras i detta dokument från ett verkligt övervakningskameranätverk visar hur effektiv den föreslagna metoden är.
I REF föreslogs en ny belysningstolerant utseende representation.
14,953,475
Tracking people across disjoint camera views by an illumination-tolerant appearance representation
{'venue': 'Machine Vision and Applications', 'journal': 'Machine Vision and Applications', 'mag_field_of_study': ['Computer Science']}
8,740
Förutsägelse utan motivering har begränsad tillämplighet. Som ett botemedel, lär vi oss att extrahera bitar av indata text som motiveringar -rationales - som är skräddarsydda för att vara kort och sammanhängande, men ändå tillräckligt för att göra samma förutsägelse. Vår strategi kombinerar två modulära komponenter, generator och kodare, som är utbildade för att fungera bra tillsammans. Generatorn anger en distribution över textfragment som kandidat logiska och dessa skickas genom kodaren för förutsägelse. Rationales ges aldrig under träning. I stället regulariseras modellen av desiderata för motiv. Vi utvärderar metoden för multi-aspect-känslor analys mot manuellt kommenterade testfall. Vårt tillvägagångssätt överträffar det uppmärksamhetsbaserade utgångsläget med en betydande marginal. Vi illustrerar också framgångsrikt metoden i frågan hämtning uppgift. 1 arXiv:1606.04155v1 [cs.CL] 13 Jun 2016 7 λ1... {.008,.01,.012,.015}, λ2 = {0, λ1, 2λ1}, avhopp
Metoden i REF kombinerar två modulära komponenter, generator och kodare, för att extrahera bitar av indatatext som motivering.
7,205,805
Rationalizing Neural Predictions
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
8,741
Abstrakt. Vi föreslår en ny övervakad inlärningsteknik för att sammanfatta videor genom att automatiskt välja nyckelramar eller viktiga subshots. Att kasta problemet som ett strukturerat förutsägelseproblem på sekventiella data, är vår huvudidé att använda Long Short-Term Memory (LSTM), en speciell typ av återkommande neurala nätverk för att modellera de beroenden av variabelt område som ingår i uppgiften videosammanfattning. Våra inlärningsmodeller uppnår de senaste resultaten på två referensvideodatauppsättningar. Detaljerad analys motiverar utformningen av modellerna. Vi visar särskilt att det är viktigt att ta hänsyn till de sekventiella strukturerna i videor och modellera dem. Förutom framsteg inom modelleringsteknik introducerar vi tekniker för att ta itu med behovet av ett stort antal kommenterade data för utbildning av komplexa inlärningsmodeller. Där är vår huvudidé att utnyttja existensen av kompletterande kommenterade videodataset, om än heterogena i visuella stilar och innehåll. Speciellt visar vi domänanpassningstekniker kan förbättra summeringen genom att minska skillnaderna i statistiska egenskaper mellan dessa datauppsättningar.
Zhang m.fl. REF formulerade videosammanfattningen som ett strukturerat förutsägelseproblem och använde BiLSTM för att modellera långa tidsberoenden bland videoramar.
1,305,215
Video Summarization with Long Short-term Memory
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
8,742
I framväxande Big Data scenarier, få snabba, högkvalitativa svar på aggregerade frågor är svårt på grund av utmaningarna med behandling och rengöring av stora, smutsiga datamängder. För att öka hastigheten på frågebehandling har intresset för provtagningsbaserad ungefärlig frågebehandling (SAQP) ökat. I sin vanliga formulering behandlar dock SAQP inte datarengöring alls, och förvärrar i själva verket svar kvalitetsproblem genom att införa provtagningsfel. I den här artikeln utforskar vi en spännande möjlighet. Det vill säga, vi undersöker användningen av provtagning för att faktiskt förbättra svarskvaliteten. Vi introducerar ramen Sample-and-Clean, som tillämpar datarengöring för en relativt liten delmängd av data och använder resultaten av rengöringsprocessen för att minska inverkan av smutsiga data på aggregerade frågesvar. Vi får konfidensintervall som en funktion av urvalsstorlek och visar hur vårt tillvägagångssätt tar itu med felfördel. Vi utvärderar Sample-and-Clean-ramverket med hjälp av data från tre källor: TPC-H-riktmärket med syntetiskt buller, en delmängd av Microsofts akademiska citeringsindex och en sensordatauppsättning. Våra resultat stämmer överens med de teoretiska konfidensintervallen och tyder på att ramen Sample-and-Clean kan ge betydande förbättringar i noggrannhet jämfört med frågebehandling utan datarengöring och hastighet jämfört med datarengöring utan provtagning.
SampleClean Ref använde provtagning för att rengöra data för att förbättra kvaliteten på aggregerade resultat genom att minimera effekterna av smutsiga data.
12,964,914
A sample-and-clean framework for fast and accurate query processing on dirty data
{'venue': 'SIGMOD Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']}
8,743
Kompressiva neurala nät är ett aktivt forskningsproblem, med tanke på den stora storleken på toppmoderna nät för uppgifter som objektigenkänning, och de beräkningsbegränsningar som införs av mobila enheter. Vi ger en allmän formulering av modellkompression som begränsad optimering. Detta inkluderar många typer av komprimering: quantization, låg-rank sönderfall, beskärning, förlustfri komprimering och andra. Sedan ger vi en allmän algoritm för att optimera detta icke-konvexa problem baserat på den förstärkta Lagrangian och alternerande optimering. Detta resulterar i en "learning-compression" algoritm, som alternerar ett inlärningssteg av den okomprimerade modellen, oberoende av komprimeringstyp, med ett komprimeringssteg av modellparametrarna, oberoende av inlärningsuppgiften. Denna enkla, effektiva algoritm är garanterad att hitta den bästa komprimerade modellen för uppgiften i lokal bemärkelse under standardantaganden. Vi presenterar separat i flera följedokument utvecklingen av detta allmänna ramverk till specifika algoritmer för modellkomprimering baserad på kvantisering, beskärning och andra variationer, inklusive experimentella resultat på komprimera neurala nät och andra modeller. Stora neurala nätverksmodeller har blivit en central komponent i toppmoderna praktiska implementationer av lösningen till olika maskininlärning och artificiell intelligens problem. Dessa inkluderar till exempel klassificeringsproblem som rör bilder, ljud eller text, eller förstärka inlärningsproblem som gäller spel eller robotmanipulering och navigering. Detta har också resulterat i en enorm ökning av intresset för djupa neurala nätmodeller från forskare inom akademi och industri, och även från icke-experter och allmänheten i allmänhet, vilket framgår av mängden vetenskapliga artiklar, blogginlägg eller vanliga medieartiklar som publicerats om det. Dessa praktiska framgångar i svåra problem har uppstått tack vare tillgången till storskaliga dataset och den massiva beräkningskraft som tillhandahålls av GPU, som är särskilt väl lämpade för den typ av linjär algebra operationer som deltar i utbildning av ett neuralt nät (såsom stokastisk lutning nedstigning). En anmärkningsvärd egenskap hos djupa neurala nät som verkar skilja dem från andra maskininlärning modeller är deras förmåga att växa med data. Det vill säga, eftersom storleken på träningssetet växer, kan vi fortsätta att öka (säg) klassificering noggrannheten genom att öka storleken på det neurala nätet (antal dolda enheter och lager, och därmed antalet vikter). Detta är till skillnad från till exempel en linjär modell, vars klassificeringsnoggrannhet snabbt stagnerar när uppgifterna fortsätter att växa. Därför kan vi fortsätta att förbättra noggrannheten i ett neuralt nät genom att göra det större och utbildning på mer data. Detta innebär att vi kan förvänta oss att se allt större neurala nät i framtida praktiska tillämpningar. Modeller som rapporterats i litteraturen om datorseende har faktiskt gått från mindre än en miljon vikter på 1990-talet till miljoner på 2000-talet och, i de senaste verken, till modeller som överstiger miljarder vikter (var och en ett flyttalvärde). Den stora storleken på den resulterande modellen orsakar ett viktigt praktiskt problem när man avser att distribuera den i en resursbegränsad målenhet som en mobiltelefon eller andra inbyggda system. Den 1 är, det stora neurala nätet är utbildad i en resursrik miljö, t.ex. GPU och en flerkärnig arkitektur med stort minne och disk, där modelldesignern kan utforska olika modellarkitekturer, hyperparametervärden etc. tills en modell med den bästa noggrannheten på en valideringsuppsättning har hittats. Denna slutliga, stora modell är då redo att användas i praktiken. Målenheten kommer dock vanligtvis att ha betydligt mer restriktiva beräkningsbegränsningar i minne storlek och hastighet, aritmetiska operationer, klockfrekvens, energiförbrukning, etc., vilket gör det omöjligt att rymma den stora modellen. Med andra ord kan vi bara använda modeller av en viss storlek. Nedladdningsbandbredden är också avsevärt begränsad i appar för mobiltelefoner eller programvara för bilar. Detta problem har fått stor uppmärksamhet på senare tid. Två viktiga fakta väger tungt på det som har varit känt under en tid bland forskare. Den första är att de stora neurala nät som vi för närvarande vet hur man tränar för optimal noggrannhet innehåller betydande redundans, vilket gör det möjligt att hitta mindre neurala nät med jämförbar noggrannhet. Den andra är att man, av orsaker som inte är helt förstådda, vanligtvis uppnår en mer exakt modell genom att träna en stor modell först och sedan på något sätt omvandla den till en mindre ("komprimera" modellen), än genom att träna en liten modell i första hand. Detta leder oss till problemet med att komprimera ett neuralt nät (eller annan modell), som är vårt fokus. Kompressiva neurala nät har på senare år erkänts som ett viktigt problem och olika akademiska och industriella forskningsgrupper har visat att man verkligen kan komprimera neurala nät betydligt utan märkbara förluster i noggrannhet (se relaterade arbete nedan). De lösningar som hittills har föreslagits är dock något ad hoc-lösningar i två avseenden. Först definierar de en specifik komprimeringsteknik (och en specifik algoritm för att hitta den komprimerade modellen) som kan fungera bra med vissa typer av modeller men inte andra. För det andra är vissa av dessa lösningar inte garanterade att vara optimala i den bemärkelsen att uppnå den högsta klassificeringsnoggrannheten för den kompressionsteknik som beaktas. I detta dokument ger vi en allmän formulering av modellkompression och en träningsalgoritm för att lösa det. Formuleringen kan rymma alla komprimeringsteknik så länge den kan sättas i en viss matematisk form, vilket inkluderar de flesta befintliga tekniker. Kompressionsmekanismen visas som en svart låda, så att algoritmen helt enkelt itererar mellan att lära sig en stor modell och komprimera den, men garanteras att konvergera till en lokalt optimal komprimerad modell under vissa standardantaganden. I separata uppsatser utvecklar vi specifika algoritmer för olika komprimeringsformer, såsom kvantisering (Carreira-Perpiñán och Idelbayev, 2017a) eller beskärning (Carreira-Perpiñán och Idelbayev, 2017b), och utvärderar dem experimentellt. I resten av detta dokument diskuterar vi relaterade arbeten (avsnitt 2), ger den generiska formuleringen (avsnitt 3) och den generiska LC-algoritmen (avsnitt 4), ger förutsättningar för konvergens (avsnitt 5) och diskuterar relationen mellan vår LC-algoritm och andra algoritmer (avsnitt 6) och relationen med generalisering och modellval (avsnitt 7). Generellt sett kan vi förstå modellkompression som att ersätta en "stor" modell med en "liten" modell inom ramen för en given uppgift, och detta kan göras på olika sätt. Låt oss diskutera fastställandet av det problem som motiverar behovet av kompression. Anta att vi definierar maskininlärningsuppgiften som klassificering för objektigenkänning från bilder och betrakta som stor modell f (x; w): X → Y ett djupt neuralt nät med ingångar x på X (bilder), utgångar y på Y (objektklassetiketter) och real-värderade vikter w och R P (där antalet vikter P är stort). För att träna en modell använder vi en förlust L(), t.ex. kors-entropi på en stor utbildning uppsättning input-output par (x n, y n ). Anta också att vi har tränat ett stort, referens neuralt nät f (x; w), d.v.s. w = arg min w L(f; w)), och att vi är nöjda med dess prestanda i form av noggrannhet, men dess storlek är för stor. Vi vill nu ha en mindre modell h(x;): X → Y som vi kan tillämpa på samma uppgift (klassificera indatabilder x i etiketter y). Hur ska vi definiera denna mindre modell? En möjlighet är att den lilla modellen h(x; ) är av samma typ som referensmodellen f men omparameteriserad i termer av en lågdimensionell parametervektor. Det vill säga, vi konstruerar vikter som är mindre än storleken på w, dvs Q < P (t.ex., detta kommer att begränsa den möjliga w och R P som kan konstrueras). I exemplet tidigare, h(x; på) skulle vara samma djupa nätet men, låt oss säga, med viktvärden w = på ( på) kvantifieras med hjälp av en kodbok med K poster (så på innehåller kodboken och tilldelningen av varje vikt w i till en kodbok post). En andra möjlighet 2 är att den lilla modellen h(x; ) ska vara en helt annan typ av modell än referensen, t.ex. en linjär kartläggning med parametrar på (så det finns inget samband mellan w och på). Med tanke på detta har vi följande alternativ för att konstruera den lilla modellen h(x; ska): • Direktinlärning: min på L(h(x; )): hitta den lilla modellen med den bästa förlusten oavsett referens. Det vill säga, helt enkelt träna den lilla modellen för att minimera förlusten direkt, eventuellt med hjälp av kedjeregeln för att beräkna lutningen wrt på. Detta approximerar referensmodellen indirekt, genom att både f och h försöker lösa samma uppgift. Vi kan ha den lilla modellen h vara en reparameteriserad version av f eller en helt annan modell. Direkt inlärning är det bästa man kan göra ibland, men inte alltid, vilket konstateras senare. • Direkt kompression (DC): min till w − och 2 : hitta närmaste approximation till referensmodellens parametrar, med hjälp av en lågdimensionell parameterisering. Detta tvingar h och f att vara modeller av samma typ. Direkt kompression kan helt enkelt göras med (förlustlös eller förlust) kompression av w, men det i allmänhet inte kommer att vara optimal wrt förlusten eftersom den senare ignoreras i lärande på. Vi diskuterar detta senare i detalj. • Modellkompression som begränsad optimering: detta är vårt föreslagna tillvägagångssätt, som vi beskriver i avsnitt 3. Det tvingar h och f att vara modeller av samma typ, genom att begränsa vikterna w som ska konstrueras från en låg-dimensionell parameterisering w = på ( på), men h måste optimera förlusten L. • Lärare-student : min på X p(x) f (x; w) − h(x; på) 2 dx: hitta närmaste approximation h till referensfunktionen f, i vissa norm. Normen över domänen X kan approximeras med ett prov (t.ex. Utbildningssetet). Här kan referensmodellen f "teaches" studentmodellen h. Vi kan ha den lilla modellen h vara en reparameteriserad version av f eller en helt annan modell. De flesta befintliga komprimeringsmetoder faller inom en av dessa kategorier. I synnerhet, traditionella kompression tekniker har tillämpats med hjälp av tekniker mest relaterade till direkt utbildning och direkt kompression: använda lågprecision vikt representationer genom någon form av avrundning (se Gupta et al., 2015; Huvara et al., 2016 och referenser däri), även enkel-bit (binary) värden (Fiesler et al., 1990; Courbariaux et al., 2015; Rastegari et al., 2016; Huvara et al., 2016; Zhou et al., 2016), ternära värden (Hwang och Sung, 2014; Li et al., 2016; Zhu et al., 2017) eller befogenheter två (Marchesi et al., 1993; Tang och Kwan, 1993) ; kvantisering av viktvärden, mjuk (Nowlan och Hinton, 1992; Ullrich et al., 2017) eller hård (Fiesler et al., 1990; Marchesi et al., 1993; Gong et al., 2015) ; quantization av viktvärden, mjuk (Nowlan och Hint. Vissa tidningar kombinerar flera sådana tekniker för att producera imponerande resultat, t.ex. Han och Al. (2016) Använd beskärning, utbildad kvantisering och Huffman-kodning. Även om vi kommenterar några av dessa arbeten i detta dokument (särskilt när det gäller den direkta komprimeringsmetoden), skjuter vi upp detaljerade diskussioner till våra följedokument om specifika kompressionstekniker (kvantisering i Carreira-Perpiñán och Idelbayev, 2017a och beskärning i Carreira-Perpiñán och Idelbayev, 2017b, hittills). Lärar- och studenttänkandet verkar ha uppstått i ensembleinlärningslitteraturen, inspirerad av önskan att ersätta en stor ensemblemodell (t.ex. en samling beslutsträd), som kräver stor lagring och är långsam vid testtillfället, med en mindre eller snabbare modell med liknande klassificeringsnoggrannhet (Zhou, 2012, avsnitt 8.5). Den mindre modellen kan vara av samma typ som ensemblemedlemmarna, eller en annan typ av modell helt och hållet (t.ex. ett neuralt nät). Grundidén är, efter att ha tränat den stora ensemblen på ett märkt träningsset, att använda denna ensemble ("läraren") för att märka en större, omärkt dataset (som kan finnas i den aktuella uppgiften, eller kan genereras genom någon form av provtagning). Denna större, märkta datauppsättning används sedan för att träna den mindre modellen ("studenten"). Förhoppningen är att den kunskap som infångas av läraren är tillräckligt representerad i det syntetiskt skapade träningssetet (även om lärarens misstag också kommer att finnas representerade i det), och att studenten kan lära sig det väl även om det är en mindre modell. Mer allmänt kan metoden tillämpas med vilken lärare som helst, inte nödvändigtvis en ensemblemodell (t.ex. Ett djupt nät), och lärarens etiketter kan omvandlas för att förbättra elevens lärande, t.ex. log-outputs (Ba och Caruana, 2014) eller andra manipulationer av utdataklassen sannolikheter (Hinton et al., 2015). Men ur en kompression 3 synvinkel resultaten är oimpressiva, med blygsamma kompressionsförhållanden (Hinton et al., 2015) eller till och med misslyckande att komprimera (med hjälp av ett enskiktsnät som student behöver många fler vikter än läraren djupt nät; Ba och Caruana, 2014). Ett praktiskt problem med lärar-student-metoden är att allt den verkligen gör är att konstruera det konstgjorda träningssetet, men det lämnar designen av studenten till användaren, och detta är ett svårt modellvalsproblem. Detta skiljer sig från de komprimeringsmetoder som nämns ovan, som använder lärarens modellarkitektur men komprimerar dess parametrar. I detta arbete förstår vi kompression i matematiskt specifik mening som innebär en inlärningsuppgift som vi vill lösa och en stor modell som anger referensen att möta. Det är relaterat till de direkta utbildnings- och komprimeringskoncept som införts ovan. Anta att vi har en stor referensmodell f (x; w) med P-parametrar (t.ex. ett neuralt nät med ingångar x och vikter w på R P ) som har tränats på en förlust L () (t.ex. korsentropi på ett givet träningsset) för att lösa en uppgift (t.ex. Klassificering. Det vill säga w = arg min w L(w), där vi missbrukar notationen för att skriva förlusten direkt över vikterna snarare än L (f (x; w)), och minimering w kan vara lokal. Vi definierar kompression som att hitta en lågdimensionell parameterisering av w i termer av Q < P-parametrar. Detta kommer att definiera en komprimerad modell h(x; på) = f (x; på)). Vi söker en sådan att dess motsvarande modell har (lokalt) optimal förlust. Vi betecknar detta "optimala komprimerade" och skriver det som.. * och w *..... (.. * ) (se fig. 1 )............................................................................................................... Vanligtvis skulle man då kunna lösa problemet direkt över: på * = arg min på L( på)). Detta är det direkta inlärningsalternativet i föregående avsnitt. Istället skriver vi motsvarande modellkompression som ett begränsat optimeringsproblem: min Anledningen, som kommer att vara användbar senare för att utveckla en optimeringsalgoritm, är att vi frikopplar den del av lärandet uppgiften, L(w) i målet, från den del av komprimerande modellen, w = på grund av begränsningar.
Mycket arbete finns på komprimera neurala nät, med kvantisering, låg-rank sönderfall, beskärning och andra tekniker, se REF och referenser där.
5,287,265
Model compression as constrained optimization, with application to neural nets. Part I: general framework
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
8,744
Trådlösa sensornätverk (WSN) som används i distribuerade Internet of Things (IoT) applikationer bör integreras i Internet. Enligt den distribuerade arkitekturen mäter sensornoder data, process, utbyte av information och utför i samarbete med andra sensornoder och slutanvändare, som kan vara interna eller externa till nätverket. För att upprätthålla tillförlitlig anslutning och tillgängligheten till distribuerat sakernas internet är det viktigt att upprätta säkra länkar för end-to-end-kommunikation med en stark genomträngande autentiseringsmekanism. På grund av produkternas resursbegränsningar och heterogena egenskaper är den traditionella autentiseringen och de centrala förvaltningssystemen emellertid inte effektiva för sådana tillämpningar. Detta dokument föreslår en genomgripande lätt autentisering och nyckelmekanism för WSNs i distribuerade IoT-applikationer, där sensornoder kan etablera säkrade länkar med peer sensor noder och slutanvändare. Det etablerade autentiseringssystemet PAuthKey är baserat på implicita certifikat och det tillhandahåller end-to-end-säkerhet. En omfattande beskrivning av det scenariobaserade beteendet i protokollet presenteras. Med resultatutvärderingen och säkerhetsanalysen är det motiverat att det föreslagna systemet är genomförbart att använda i de resursbegränsade WSN-systemen.
Porambage m.fl. REF utformade en lätt autentiseringsmekanism för trådlösa sensornätverk i distribuerade IoT-applikationer.
17,061,906
PAuthKey: A Pervasive Authentication Protocol and Key Establishment Scheme for Wireless Sensor Networks in Distributed IoT Applications
{'venue': None, 'journal': 'International Journal of Distributed Sensor Networks', 'mag_field_of_study': ['Computer Science']}
8,746
I detta dokument föreslås ett antal kodningsmetoder för minskad strömavledning på globala bussar. Det bästa målet för dessa tekniker är en bred och mycket kapacitiv minnesbuss. Bussens bytesaktivitet minskas med hjälp av kodning av de värden som överförs över dem. Närmare bestämt presenteras tre irreviderande busenkodningsmetoder i detta dokument. Dessa tekniker minskar bussaktiviteten med så mycket som 86% för instruktionsadresser utan att behöva lägga till redundanta busslinjer. Utan redundans innebär att det inte krävs någon omkonstruktion och omtillverkning av systemets tryckta kretskort för att utöva dessa tekniker på något befintligt system. Strömavledning av kodar- och avkodarblocken är obetydlig jämfört med den ström som sparas på minnesadressbussen. Detta gör att dessa tekniker kan minska den totala strömförbrukningen.
Ett antal irreviderande kodningsmetoder presenteras i REF som inte kräver några extra rader för kodning och avkodning.
13,624,443
A Class Of Irredundant Encoding Techniques For Reducing Bus Power
{'venue': 'Journal of Circuits, Systems, and Computers', 'journal': 'Journal of Circuits, Systems, and Computers', 'mag_field_of_study': ['Computer Science']}
8,747
Abstrakt. Quadratic-stödfunktioner [Aravkin, Burke och Pillonetto; J. Mach. Lär. -Res. -Vad är det? 14.1, 2013] utgör en parametrisk familj av konvexa funktioner som innehåller en rad användbara legaliseringstermer som finns i applikationer för konvex optimering. Vi visar hur en inre metod kan användas för att effektivt beräkna den proximala operatören av en quadratic-support funktion under olika mått. När metriska och funktionen har rätt struktur kan den proximala kartan beräknas med kostnad nästan linjär i indatastorleken. Vi beskriver hur man använder denna metod för att implementera kvasi-Newton metoder för en rik klass av nonsmooth problem som uppstår, till exempel i gles optimering, bild denoiserande, och sparsam logistisk regression.
I REF används interna punktmetoder för att effektivt lösa den proximala kartläggningen av så kallade kvadratiska stödfunktioner.
1,225,017
Efficient evaluation of scaled proximal operators
{'venue': 'Electronic Transactions on Numerical Analysis, 46:1-22, 2017', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
8,748
Sociala nätverk är kända för att vara sårbara för den så kallade Sybil attack, där en angripare upprätthåller massiva Sybils och använder dem för att utföra olika skadliga aktiviteter. Därför är det ett grundläggande säkerhetsforskningsproblem att upptäcka Sybil i sociala nätverk. Strukturbaserade metoder har visat sig lovande när det gäller att upptäcka Sybils. Befintliga strukturbaserade metoder kan delas in i två kategorier: Random Walk (RW)-baserade metoder och Loop Belief Propagation (LBP)-baserade metoder. RW-baserade metoder kan inte utnyttja märkta Sybils och märkta godartade användare samtidigt, vilket begränsar deras detekteringsnoggrannhet och/eller de är inte robusta mot bullriga etiketter. LBP-baserade metoder är inte skalbara och de kan inte garantera konvergens. I detta arbete föreslår vi SybilSCAR, en ny strukturbaserad metod för att upptäcka Sybils i sociala nätverk. SybilSCAR är skalbar, konvergent, exakt och Robust för att märka buller. Vi föreslår först en ram för att förena RW-baserade och LBP-baserade metoder. Inom vår ram kan dessa metoder ses som iterativt tillämpa en (olika) lokal regel för varje användare, som sprider märkningsinformation bland en social graf. För det andra utformar vi en ny lokal regel, som SybilSCAR iterativt gäller för varje användare för att upptäcka Sybils. Vi jämför SybilSCAR med toppmoderna RW-baserade metoder och LBP-baserade metoder både teoretiskt och empiriskt. Teoretiskt visar vi att SybilSCAR med lämpliga parameterinställningar har en snävare asymptotisk bindning till antalet Sybils som felaktigt accepteras i ett socialt nätverk än befintliga strukturbaserade metoder. Empiriskt utför vi utvärdering med hjälp av både sociala nätverk med syntetiserade Sybils och en storskalig Twitter dataset (41,7M noder och 1.2B kanter) med riktiga Sybils, och våra resultat visar att 1) SybilSCAR är betydligt mer exakt och robust att märka buller än toppmoderna RW-baserade metoder; och 2) SybilSCAR är mer exakt och en storleksordning mer skalbar än toppmoderna LBP-baserade metoder. Index Terms-Social nätverk, sybil upptäckt Ç Författarna är med
SybilSCAR REF skapar lokala regler för att upptäcka Sybil noder genom att tillämpa slumpmässig gångteknik och loopy tro förökning.
3,888,075
Structure-Based Sybil Detection in Social Networks via Local Rule-Based Propagation
{'venue': 'IEEE Transactions on Network Science and Engineering', 'journal': 'IEEE Transactions on Network Science and Engineering', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
8,749
Expertissökande forskning studerar hur människor söker kompetens och väljer vem de ska kontakta inom ramen för en specifik uppgift. Ett viktigt resultat är modeller som identifierar faktorer som påverkar expertfynd. Expertis hämtning tar itu med samma problem, expertsökning, men ur ett system-centrerad perspektiv. Huvudfokus har legat på att utveckla innehållsbaserade algoritmer som liknar dokumentsökning. Dessa algoritmer identifierar motsvarande experter främst på grundval av textinnehållet i de dokument som experterna är knutna till. Andra faktorer, t.ex. de som identifierats med hjälp av expertbaserade modeller, beaktas sällan. I den här artikeln utökar vi innehållsbaserade expertsökningsstrategier med kontextuella faktorer som har visat sig påverka mänskliga expertfynd. Vi fokuserar på en uppgift för forskningskommunikatörer i en kunskapsintensiv miljö, uppgiften att hitta liknande experter, med ett exempel expert. Vår strategi kombinerar expertis-sökning och hämtning forskning. För det första genomför vi en användarstudie för att identifiera kontextuella faktorer som kan spela en roll i den studerade uppgiften och miljön. Sedan designar vi expertbaserade hämtningsmodeller för att fånga upp dessa faktorer. Vi kombinerar dessa med innehållsbaserade hämtningsmodeller och utvärderar dem i ett hämtningsexperiment. Vår huvudsakliga slutsats är att även om innehållsbaserade funktioner är de viktigaste, tar även mänskliga deltagare hänsyn till kontextuella faktorer, såsom medieupplevelse och organisationsstruktur. Vi utvecklar två principiella sätt att modellera de identifierade faktorerna och integrera dem med innehållsbaserade hämtningsmodeller. Våra experiment visar att modeller som kombinerar innehållsbaserade och kontextuella faktorer avsevärt kan överträffa befintliga innehållsbaserade modeller. Mottaget den 16 mars 2009; reviderat den 19 november 2009; accepterat den 19 november 2009 1 Detta är en utökad och reviderad version av Hofmann, Balog, Bogers, & de Rijke, 2008. Den ökande mängden information som finns tillgänglig gör att behovet av att kritiskt bedöma information blir viktigare. Belastningen av trovärdighetsbedömning och kvalitetskontroll flyttas delvis över till enskilda informationssökande, men behovet av informationsförmedlare (t.ex. experter) har inte försvunnit och ökar faktiskt i de fall där informationens trovärdighet måste uppfylla höga krav (Metzger, 2007). Mot denna bakgrund är expertfynd en särskilt relevant uppgift: att identifiera och välja ut individer med särskild sakkunskap, till exempel för att hjälpa till med en uppgift eller lösa ett problem. Expertfynd har tagits upp ur olika synvinklar, bland annat kompetenssökning, som huvudsakligen är systemcentrerad, och kompetenssökning, som studerar mänskliga aspekter. Målet med expertsökning är att stödja sökandet efter experter med hjälp av informationsinsamlingsteknik. I enlighet med det experimentella paradigm och utvärderingsramverk som inrättats i informationsinsamlingsgemenskapen har expertsökning tagits upp i de globala utvärderingsinsatserna (Craswell, de Vries, & Soboroff, 2006). Lovande resultat har uppnåtts, särskilt i form av algoritmer och testsamlingar (Bailey, Craswell, Soboroff, & de Vries, 2007; Balog, 2008). Toppmoderna hämtningsalgoritmer modellexperter på grundval av de dokument som de är knutna till, och hämta experter på ett visst ämne med hjälp av metoder baserade på dokumenthämtning, såsom språkmodellering (Balog, Azzopardi, & de Rijke, 2009; Balog, Soboroff, et al., 2009). I utvärderingar av dessa algoritmer har användaraspekter tagits bort. Medan forskning om kompetenssökning främst har fokuserat på att identifiera goda aktuella matchningar mellan behov av expertis och innehållet i dokument som förknippas med kandidatexperter, beteendestudier av mänsklig expertis söker har funnit att det kan finnas viktiga ytterligare faktorer som påverkar hur människor lokaliserar och väljer experter (Woudstra & Van den Hooff, 2008); sådana faktorer inkluderar tillgänglighet, tillförlitlighet, fysisk närhet, och up-dateness. Vi kallar dessa kontextuella faktorer för att skilja dem från innehållsbaserade faktorer som har undersökts i tidigare arbete (diskuteras senare). Sammanhang kan anses omfatta många dimensioner, inklusive faktorer relaterade till organisationen, informationssökande, informationsobjekt, arbetsuppgift, sökuppgift och så vidare (jfr. Cool & Spink, 2002; Ingwersen & Järvelin, 2005; Kelly, 2006), men här fokuserar vi på en specifik dimension: kontextuella faktorer relaterade till informationsobjekt, i våra fall-experter. Andra element kan spela en roll, men deras inverkan kan inte studeras i vårt upplägg: uppgift, organisation och informationssökningssystem är fasta; individuella skillnader mellan informationssökande lämnas utanför vårt övervägande. Vårt mål i den här artikeln är att utforska integreringen av kontextuella faktorer i innehållsbaserade hämtningsalgoritmer för att hitta liknande experter. Vi tittar på detta problem i samband med inrättandet av PR-avdelningen vid ett universitet, där kommunikationsrådgivare anställda vid universitetet får förfrågningar om aktuella experter från media. Det specifika problemet vi tar itu med är: Den högsta expert som identifierats av en kommunikationsrådgivare som svar på en begäran är inte tillgänglig på grund av möten, semestrar, sabbatsår, eller andra skäl. I detta fall, kommunikationsrådgivare måste rekommendera liknande experter, och detta är inställningen för vår expert hitta uppgift. Utifrån denna uppgift tar vi upp tre huvudsakliga forskningsfrågor: • Vilka kontextuella faktorer påverkar (mänskliga) beslut när vi hittar liknande experter i den universitetsmiljö vi studerar? • Hur kan sådana faktorer integreras i innehållsbaserade algoritmer för att hitta liknande experter? • Kan integrering av kontextuella faktorer med befintliga, innehållsbaserade metoder förbättra hämtningsförmågan? För att besvara våra forskningsfrågor går vi vidare enligt följande. Genom en uppsättning enkäter som fylls i av ett universitets kommunikationsrådgivare identifierar vi kontextuella faktorer som spelar en roll i hur liknande experter identifieras i denna situation, och vi konstruerar ett testdataset för att utvärdera hämtningsprestanda. Vi utvärderar både innehållsbaserade tillvägagångssätt och tillvägagångssätt där vi integrerar kontextuella faktorer. Artikelns bidrag är trefaldigt. För en specifik expertsökningsuppgift lyckas vi identifiera faktorer som människor använder för att välja ut liknande experter. Vi modellerar flera identifierade faktorer och integrerar dessa med befintliga, innehållsbaserade metoder för att hitta liknande experter. Vi visar att våra nya modeller avsevärt kan överträffa tidigare tillvägagångssätt. Våra resultat visar att det är möjligt att identifiera och modellera kontextuella faktorer i den studerade uppgiften att hitta liknande experter, och vi tror att detta kan vara fallet även för andra hämtningsuppgifter. Resten av artikeln är organiserad enligt följande. Vi ger först bakgrundsinformation om mänsklig kompetenssökning och kompetenssökning. Därefter beskriver vi vår strategi, inklusive de metoder som används för datainsamling, hämtningsmodeller och hämtningsutvärdering. Därefter ges och diskuteras våra resultat. Slutligen lägger vi fram slutsatser och skisserar det framtida arbetet. Forskning om hur man på ett effektivt sätt kan dela med sig av expertis kan spåras tillbaka till åtminstone 1960-talet när studier inom biblioteks- och informationsvetenskap undersökte vilka källor till informationskunskap som forskare och ingenjörer använder (Menzel, 1960). Senare arbete har identifierat komplexa informationssökande strategier som bygger på en mängd olika informationskällor, inklusive mänskliga experter (Hertzum, 2000; Rosenberg, 1967). Från resultaten av denna forskning (och andra influenser) växte insikten om att de anställdas kompetens är ett stort värde av en organisation och att effektivt kunskapsutbyte kan leda till materiella vinster (Davenport & Prusak, 1998; Sprull & Kiesler, 1996; Wiig, 1997). Området kunskapshantering utvecklades med målet att använda kunskap inom en organisation så väl som möjligt. Ett fokus låg på att utveckla informationssystem som kunde stödja sökandet efter kompetens. De första strategierna var främst inriktade på hur man kunde förena olika och olika databaser i organisationen till ett enda datalager som lätt kunde brytas (EKSGW'99 Workshop, 1999; Seid & Kobsa, 2000). Resultatverktyg förlitar sig på människor för att själv bedöma sina färdigheter mot en fördefinierad uppsättning nyckelord, och använder ofta heuristik som genereras manuellt baserat på nuvarande arbetspraktik. Trots de framsteg som hittills gjorts är frågan om hur man effektivt kan få tillgång till sakkunskap långt ifrån löst, och den behandlas fortfarande ur olika synvinklar. Inom människocentrerad forskning, som vi kallar kompetenssökning, har ett av målen varit att utveckla beskrivande och normativa modeller för hur mänskliga informationskällor används. En del av detta arbete utgör grunden för vår undersökning, eftersom det hjälper oss att identifiera de faktorer som spelar en roll när det gäller att hitta liknande experter i den miljö vi studerar. Vi presenterar ett urval av arbeten som är relevanta för den här artikeln i nästa avsnitt. I systemcentrerat arbete, för vilket vi använder termen kompetenssökning, har ett fokus legat på utveckling av effektiva hämtningsalgoritmer. Detta arbete utgör grunden för hämtningsaspekterna i vår studie, inklusive den innehållsbaserade grundläggande hämtningsalgoritmen, relevansbedömning och utvärderingsmetodik. En översikt över det senaste arbetet inom detta område ges senare. Av den människocentrerade forskning som vi kallar kompetenssökning är vi särskilt intresserade av modeller för hur människor väljer en expert. De mest relevanta är modeller som identifierar specifika faktorer som kan spela en roll. Vi måste kunna identifiera ganska specifika faktorer så att vi kan modellera dessa och integrera dem i en återvinningsmodell. Flera studier har identifierat faktorer som kan spela en roll i beslut av vilken expert att kontakta eller rekommendera. I en studie av förtroende-relaterade faktorer i expert rekommendation, Heath, Motta, och Petre (2006) fann att erfarenhet och opartiskhet av experten kan spela en roll, och kan dessutom vara beroende av en uppgift kritiskitet och subjektivitet. Borgatti och Cross (2003) visade att kunskap om en experts kunskap, värdering av denna kunskap, och att kunna få tillgång till en experts kunskap inflytande som experter söker kontakt efter hjälp. Skillnader mellan arbetsuppgifter när det gäller mängden och motivationen för expertsökning, samt vilken typ av verktyg som används indikerar en möjlig påverkan av arbetsuppgifter. Användningen av information om sociala nätverk förväntas gynna expertsökning baserad på domänanalys (Terveen & McDonald, 2005), och användarna är mer benägna att välja expertis sökresultat som inkluderar social nätverksinformation (Shami, Ehrlich, & Millen, 2008). Woudstra och Van den Hooff (2008) fokuserade på faktorer som rör kvalitet och tillgänglighet vid källval (dvs. uppgiften att välja vilken expertkandidat som ska kontaktas i en viss situation). Kvalitetsrelaterade faktorer är tillförlitlighet och aktuellhet hos experten; tillgänglighet innefattar fysisk närhet och kognitiv ansträngning som förväntas när man kommunicerar med experten. Dessa faktorer identifieras i en studie av informationssökande uppgifter som utförs på deltagarnas arbetsplatser. Studien följer ett tankerikt protokoll, och betydelsen av enskilda faktorer bedöms genom beräkning av hur ofta de nämns när experter utvärderas. Vi listar de faktorer som identifierats av Woudstra och Van den Hooff (2008) i tabell 1. Kvalitetsrelaterade faktorer (Factors 1-4) verkar vara de viktigaste medan förtrogenhet (Factor 10) också verkar spela en roll. Vi använder de faktorer som de identifierat som grunden för att identifiera kontextuella faktorer i vår studie. Ytterligare bevis på nyttan av enskilda kontextuella faktorer (t.ex. information om sociala nätverk) tillhandahålls av system som tillämpar expertsökning, men eftersom dessa system vanligtvis inte utvärderas direkt när det gäller hämtningsprestanda kan enskilda faktorers bidrag inte lätt bedömas. Svar Garden 2 är ett distribuerat hjälpsystem som innehåller en expert-finnande komponent (Ackerman & McDonald, 2000). Förutom aktuella matcher, systemet implementerar ett antal heuristik som befunnits användas i mänsklig expertis söker, såsom "stanna lokalt" (dvs. först be medlemmar i samma grupp) eller medarbetare. Denna heurism kan vara relaterad till faktorer som förtrogenhet och tillgänglighet. K-net är inriktat på att förbättra utbytet av underförstådd kunskap genom att öka medvetenheten om andras kunskap (Shami, Yuan, Cosley, Xia, & Gay, 2007). Systemet använder information om sociala nätverk, befintliga färdigheter och nödvändiga färdigheter hos en person, som uttryckligen tillhandahålls av användarna. Den SmallBlue systemet minerar en organisations elektroniska kommunikation för att ge expert profilering och expertis hämtning (Ehrlich, Lin, & GriffithsFisher, 2007). Både textinnehåll i meddelanden och information om sociala nätverk (mönster för kommunikation) används. Systemet utvärderas i termer av användbarhet och användbarhet. Slutligen redogjorde Liebregts och Bogers (2009) för utvecklingen och den systematiska utvärderingen av ett expertsystem. Författarna utförde systembaserad, expertbaserad och slutanvändarutvärdering och visade att kombination av olika källor av expertbevis förbättrar söknoggrannheten och hastigheten. Expertishämtning syftar till att utveckla algoritmer som kan stödja sökandet efter expertis med hjälp av informationsinsamlingsteknik. Ämnet har tagits upp vid expertinsamlingen av företagsspåret, som pågick mellan 2005 och 2008 vid den årliga textåterhämtningskonferensen (Bailey, Craswell, de Vries, & Soboroff, 2008; Bolog, Soboroff, et al., 2009; Craswell, de Vries, & Soboroff, 2006; Soboroff, de Vries, & Crawell, 2007). Den specifika uppgiftsuppställningen och utvärderingen av expertinsamlingsuppgiften vid TREC har förändrats över tiden. Målet var att utforma en uppgift som återspeglar verkliga expertfynd så bra som möjligt samtidigt som man tar hänsyn till begränsningar när det gäller tillgängliga data och resurser för relevansbedömning. Under de första två åren, var uppgiften baserad på W3C-samlingen, bestående av en crawl av webbplatsen w3c.org, plattformen för W3C, 2005). Under 2005 var uppgiften att förutsäga medlemskap i expertgrupper, med tanke på gruppens namn som expertområde. Sanningens grunddata för denna uppgift fanns i corpus. Under 2006 skapades och bedömdes ämnen av uppgiftsdeltagarna. Ämnena liknade ad hoc-ämnen. Systemen var tvungna att återsända kandidatexperter och styrkande dokument, och expertis bedömdes av deltagarna på grundval av dessa styrkande dokument. År 2007 utvecklades en ny samling baserad på de intranätsidor som Commonwealth Scientific and Industrial Research Organization (CSIRO; Bailey m.fl., 2007). Syftet med att använda denna samling var att utvärdera kompetenssökning och företagssökning inom ramen för en realistisk arbetsuppgifts-vetenskapskommunikatörer inom CSIRO utvecklade ämnen och lämnade relevanta bedömningar. Denna inställning är närmast den som används i den här artikeln. Under 2008 användes samma samling och ämnen skapades och bedömdes av deltagarna. Expertis hämtning experiment vid TREC har uteslutande fokuserat på expertis fynd (dvs., med tanke på ett ämne, hitta experter på ämnet). Andra uppgifter som har undersökts är expertprofilering (dvs., med tanke på en person, lista de områden där han eller hon är expert) och hitta liknande experter (dvs., givet en person, returnera liknande experter). Utöver TREC-samlingarna introducerades UvT-kollektionen av Balog, Bogers, Azzopardi, de Rijke och van den Bosch (2007). Det representerar ett typiskt intranät av en stor organisation. I detta sammanhang finns en relativt liten mängd rena, flerspråkiga uppgifter tillgängliga för ett stort antal experter. Denna samling används i vår studie (diskuteras senare). Den uppgift som behandlas i den nuvarande artikeln är att hitta liknande experter, och först formulerades och togs upp i Balog och de Rijke (2009): En expertsökning uppgift som ett litet antal exempel experter ges, och systemets uppgift är att returnera liknande experter. Balog och de Rijke definierade, jämförde och utvärderade fyra sätt att företräda experter: genom sina samarbeten, genom de dokument som de är knutna till, och genom de termer med vilka de är associerade (antingen som en uppsättning diskriminerande termer eller som en vektor för termer vikter). Likhet mellan experter beräknas med hjälp av Jaccard koefficient och cosinus likhet. Senare kommer vi att använda dessa metoder och utöka dem med representationer av experter baserade på självförsörjande profiler för att bilda våra basmodeller. En utmaning i innehållsbaserad expertsökning är att systemen måste gå längre än dokumenthämtning, eftersom de är skyldiga att hämta enheter istället för dokument. Bevis från dokument används för att uppskatta sammanslutningar mellan experter och dokument eller experter och ämnen (Balog et al., 2006; Balog, Azzopardi, & de Rijke, 2009 ). Få algoritmer har föreslagits som tar hänsyn till faktorer utöver textdokumentens innehåll. Genom att utöka bevisen på sakkunskap utöver de dokument som är direkt knutna till en expertkandidat införde Serdyukov, Rode och Hiemstra (2008) grafbaserade algoritmer som sprider bevis på sakkunskap via flera steg av relaterade dokument och experter. Detta tillvägagångssätt liknar de sökstrategier som observerats i fallstudier av expertis söker: Människor kedja bevis på expertis, hitta experter via dokument och andra experter (Hertzum, 2000). Efter en liknande intuition använde Karimzadehgan, White och Richardson (2009) information från grafer som representerar en organisatorisk hierarki för att berika information om anställda om vilka lite information är känd. De visade att människor som är nära i termer av den organisatoriska hierarkin vanligtvis har liknande expertis, och att detta kan utnyttjas för att förbättra hämtningen prestanda. Amitay m.fl. (2008), Balog och de Rijke (2009), Jiang, Han och Lu (2008) samt Serdyukov och Hiemstra (2008) undersökte webben som en källa till ytterligare sakkunskap. Amitay m.fl. fokuserad på bevis som kan erhållas från Web 2.0-program som sociala bokmärken och bloggar. Serdyukov och Hiemstra utforskade systematiskt olika typer av webbbevis med hänsyn till lokala, regionala och globala bevis, och källor från den allmänna webben, såsom specifika typer av dokument, nyheter, bloggar och böcker. Serdyukov och Hiemstra fann att användningen av fler beviskällor vanligtvis resulterar i bättre ranking. Balog och de Rijke fann att korta textsnuttar som returneras av en webbsökmotor kan användas effektivt för att generera expertprofiler. I detta avsnitt presenterar vi de experiment som vi har designat för att ta itu med våra forskningsfrågor. Vi beskriver först i vilken miljö våra experiment genomfördes, följt av den datainsamlingsmetod som används för att identifiera kontextuella faktorer och för att skapa en testdatauppsättning som används för att utföra expertis-återkommande experiment. Därefter beskriver vi våra kompetensåterhämtningsmodeller: de innehållsbaserade modellerna som utgör vår baslinje och de principer som används för att modellera och integrera kontextuella faktorer. Slutligen beskriver vi de åtgärder som används för att utvärdera våra hämtningsmodeller och metoder som används för parameteruppskattning. Den arbetsuppgift som vi fokuserar på är att hitta liknande experter inom ramen för PR-avdelningen vid Tilburg University. Universitetet har 6 kommunikationsrådgivare, 1 ansvarig för universitetet som helhet och 1 rådgivare för var och en av fakulteterna nationalekonomi och företagsekonomi, juridik, social- och beteendevetenskap, humaniora och teologi (jfr. Tabell 2 ).............................................................................................................. Vanligtvis tar kommunikationsrådgivare emot förfrågningar från media om att hitta experter på specifika ämnen. Sådana förfrågningar kommer till exempel från tidningar och radioprogram som vill ha snabba men informerade reaktioner på aktuella händelser, eller från tidskrifts- och tidningsförlag som behöver mer ingående kunskap för att kunna ta fram specialnummer eller artiklar om ett visst bredare tema. Att hitta den bästa experten för varje begäran är inte alltid trivialt: Experten i fråga kan inte vara tillgänglig på grund av möten, semestrar, sabbatsår, eller andra skäl. I detta fall måste kommunikationsrådgivare rekommendera liknande experter. Detta är den situation som vi fokuserar på i vår artikel: Vad liknande experter bör rekommenderas om den bästa experten är Den dokumentsamling vi använder för våra experiment är den befintliga UvT Expert Collection 2, som utvecklades för expertsökning och expertprofilering uppgifter. Denna samling är baserad på en krypning av ett expertsystem, WebWijs, som används vid Tilburg University. WebWijs 3 är en allmänt tillgänglig databas över universitetsanställda som är involverade i forskning eller undervisning. Detta omfattar till exempel professorer, teknisk personal och stödpersonal, postdoktorer och andra forskare samt doktorander. Var och en av de 1 168 experterna i WebWijs har en sida med kontaktuppgifter och, om den görs tillgänglig av experten, en forskningsbeskrivning och publikationslista. Dessutom kan varje expert själv bedöma sina kompetensområden genom att välja från en lista över 1 491 kunskapsområden, och uppmuntras att föreslå nya kunskapsområden som läggs till efter godkännande av WebWijs redaktör. Kunskapsområden är organiserade i en aktuell hierarki, och varje kunskapsområde har en separat sida tillägnad det som visar alla experter som är knutna till detta område och, om tillgängligt, en lista över relaterade områden. För våra experiment har vi utökat samlingen med ämnen och relevanssbetyg för uppgiften att hitta liknande experter. Ytterligare en resurs som vi använder för våra experiment är medielistan som finns på Tilburg University. Denna lista sammanställs årligen av universitetets kansli för offentliga och externa frågor. Denna lista rankar forskare efter medieframträdanden, med olika medietyper som har en annan påverkan på poängen. I detta program får media hits mellan 1 och 6 poäng, med omnämnanden i lokala tidningar som får 1 poäng, och internationella TV-framträdanden får 6 poäng. Vi ansåg att medierankningen för de tre åren (2005) (2006) (2007) var tillgänglig för oss och samlade in genomsnittet och den totala mediepoängen för varje expert på dessa listor. Datainsamlingen tjänade två syften: a) att få insikt i de faktorer som spelar en roll när människor beslutar om liknande experter i den studerade miljön och b) att konstruera en testuppsättning för 2 http://ilk.uvt.nl/uvt-expert- collection/ 3 http://www.uvt.nl/webwijs/ evaluation of our liknande expert finding models using standard hämtning- evaluation methods. Alla 6 kommunikationsrådgivare vid Tilburg University deltog i vår studie. Uppgifterna samlades in genom ett tryckt frågeformulär som fylldes i av deltagarna i deras normala arbetsmiljö och returnerades per post. Denna uppsättning valdes eftersom den ansågs kräva minst ansträngning för kommunikationsrådgivare, vars tid var begränsad för att delta i studien. En kopia av frågeformuläret finns i bilagan. Observera att studien genomfördes på holländska, deltagarnas modersmål, men här tillhandahåller vi en engelsk översättning. Frågeformuläret bestod av tre delar: a) bakgrundsinformation, b) relevansbedömning och c) uttrycklig bedömning av kontextuella faktorer. I den första delen ombads deltagarna att få bakgrundsinformation om sin arbetsfunktion, sina dagliga aktiviteter och vilka informationskällor de vanligtvis konsulterar i sin dagliga verksamhet. De tillfrågades också om hur ofta de fick förfrågningar om experter, för att ge exempel på sådana förfrågningar och för att förklara hur dessa vanligtvis behandlas. Den andra delen av frågeformuläret inriktades på att få fram relevanta bedömningar för liknande expertuppdrag och de faktorer som påverkar dessa beslut. För att identifiera orsakerna till deltagarnas beslut om relevans ställde vi tre uppföljningsfrågor för varje utvärderat ämne: "Varför skulle du rekommendera denna expert?" "Varför rangordnade du experter på det här sättet?" "Varför gav du den lägsta poängen till den här experten?" Frågor formulerades som öppna frågor för att vi skulle kunna upptäcka nya faktorer. I den tredje delen av frågeformuläret uppmanades deltagarna att uttryckligen bedöma hur dessa faktorer påverkar deras rekommendationsbeslut. Vi använde en 4-punkts liknande skala och de faktorer som identifierades i Woudstra och Van den Hooff (2008) (diskuteras tidigare, se tabell 1 ). Observera att del 3 i frågeformuläret endast lades till en gång i slutet av frågeformuläret (dvs. när alla relevanta bedömningar gjordes och öppna frågor besvarades), så att bedömarna inte skulle bli partiska av att se faktorerna. Som tidigare förklarats var den andra delen av det frågeformulär i tre delar som användes för insamling av uppgifter inriktad på att få relevanta bedömningar för vårt test. I vår inställning, testuppsättningen består av en uppsättning par (målexpert, lista över liknande experter), så "testämnen" är experter för vilka liknande experter behöver hittas. Dessa testämnen utvecklades på följande sätt. För varje kommunikationsrådgivare valde vi ut de 10 topprankade medarbetarna från sin fakultet utifrån de medielistor som universitetets PR-avdelning tagit fram (diskuterade tidigare). För 1 fakultet innehöll medielistan endast 6 anställda och 2 medarbetare var medlemmar i två fakulteter. För den universitetsomfattande kommunikationsrådgivaren, JURNAL AV AMERIKANSKA SAMHÄLLET FÖR INFORMATIONSVETENSKAP OCH TEKNIK 5 DOI: 10.1002/asi de 10 bästa anställda vid hela universitetet valdes. 4 Totalt har 56 testämnen skapats; dessa inkluderade 12 dubbletter, vilket lämnar oss med 44 unika testämnen. För varje testämne fick vi två typer av relevansbedömning från kommunikationsrådgivare. För det första bad vi (lämpliga) rådgivare att ta fram en eller flera liknande experter, tillsammans med skälen till rekommendationerna och de informationskällor som användes eller skulle användas för att besvara denna begäran (jfr. Bilagor till frågorna II.1-3. För det andra (på en separat sida i frågeformuläret) bad vi lämplig(a) rådgivare att bedöma likheten mellan en förteckning över 10 systemrekommenderade experter som en ersättning på en skala från 1 (minst sannolikt att rekommendera) till 10 (mest sannolikt att rekommendera; se. Bilagor till frågorna II.4–5. Denna förteckning över tio systemrekommenderade experter per testämne sammanställdes från tre olika körningar, vilket motsvarar de tre ämnescentrerade baslinjekörningar (DOCS, TERMS, OMRÅDEN) som beskrivs i nästa avsnitt. Deltagarna ombads sedan att motivera sina kreditvärderingsbeslut (som beskrivits tidigare). Vi valde att samla in de två typerna av relevanta bedömningar för att identifiera eventuella uppenbara kandidater som baslinjekörningarna saknades. Ordningen för att presentera de två frågorna valdes för att undvika partiskhet genom namnlistan. Expertrelevansbedömningarna konstruerades därefter på följande sätt: De betyg som deltagarna lämnade på de tio experter som förtecknas i bilaga II.4 användes som relevansbedömningar för varje testämne. Liknande experter som endast nämndes som svar på fråga II.1 men inte i topp-10-listan över fråga II.4 fick den högsta relevanta bedömningen på 10 (om de nämndes i båda frågorna, användes den rang som anges i fråga II.4). Experter som inte var betygsatta eller inte anställda vid universitetet längre togs bort. För de tolv dubbla testämnena var de två kommunikationsrådgivarenas betyg genomsnittliga och avrundade för att ta fram en enda uppsättning relevanta bedömningar för varje ämne. För att uppskatta relevansbedömningarnas tillförlitlighet jämför vi bedömningar av de 12 överlappande ämnena. Den procentuella överenskommelsen mellan notatorer är 87 % om vi beaktar två klasser: topprankade experter (dvs. betygsätts som "10") anses relevanta; alla andra kreditbetyg anses inte relevanta. I detta fall är Cohens δ 0,674, vilket tyder på ett betydande avtal (jfr. Landis & Koch, 1977). I hälften av fallen föreslog dessutom båda notatorerna oberoende av varandra samma expert (dvs. innan vi såg vår förslagslista). Detta relativt höga avtal kan tyda på att deltagarna lätt kan identifiera ett litet antal liknande experter. Överenskommelse på finare granularitet (dvs. när man betraktar varje rank som en klass) är svårt att fastställa på grund av låg överlappning mellan rankningar (Vissa kandidater var inte rangordnade när deltagarna inte kände sig bekväma betyg en kandidat), men är i allmänhet lägre än på den högsta rankningen. 4 Vi använde den senaste versionen av listan som var tillgänglig för oss (Covering 2006; uppviglingsarbetet ägde rum i början av 2008); detta gjordes för att se till att kommunikationsrådgivare skulle känna till testämnena och kunna föreslå en liknande expert. Utgångsvärden. Som vår utgångspunkt för att hitta liknande experter, vi anser innehållsbaserad likhet endast, utelämnar alla kontextuella faktorer. För att beräkna innehållsbaserad likhet representerar vi medarbetare genom det innehåll som är förknippat med dem. Vi överväger två källor: a) dokument kopplade till dessa experter och b) de expertområden som experter manuellt valde för sin kompetensprofil i WebWijs. Dessa två informationskällor återspeglar de två typer av källor som vanligtvis finns tillgängliga i stora organisationer och som tidigare har använts för expertexperiment. Den första, dokument associerade med en expert, kan erhållas från e-post eller dokument-version system, eller föreningar kan härledas från personer namn som nämns i dokument. Denna typ av information har varit huvudfokus för experiment i TREC Enterprise uppgift (Bailey et al., 2007). Den andra informationskällan är representativ för data-inkvarteringssystem där anställda måste selfassessing sina färdigheter (Seid & Kobsa, 2000). Liknande information kan utvinnas från publikationer där författare själv väljer aktuella områden från en taxonomi som ACM Computing Classification System. 5 Från de två informationskällor som vi har tillgängliga, mäter vi (innehållsbaserad) likhet av två experter med hjälp av följande tre representationer: Detta är den uppsättning av kunskapsområden som manuellt valts ut av expert e från en ändlig uppsättning fördefinierade kunskapsområden. Med hjälp av de representationer som beskrivits tidigare konstruerar vi funktionen sim T (e, f) på [0, 1] som motsvarar graden av innehållsbaserad likhet mellan experter e och f (tabell 3). För de set-baserade representationerna [D(e, K(e)] beräknar vi Jaccard-koefficienten. Likheten mellan vektorer för termfrekvenser [t(e)] uppskattas med hjälp av cosinusavståndet. De tre metoderna för att mäta likheter på grundval av de tidigare angivna representationerna kallas DOCS, TERMS respektive OMRÅDEN. Metoder DOCS och TERMS tas från Balog och de Rijke (2007) medan OMRÅDEN motiveras av de data som görs tillgängliga i WebWijs. Eftersom våra likhetsmetoder är baserade på två källor (dvs. dokument och kunskapsområden) förväntar vi oss att kombinationer kan leda till förbättringar jämfört med enskilda metoders prestanda. Frågan om hämtningsrun kombinationer har en lång historia, och många modeller har föreslagits. Vi anser att ett särskilt val är Fox och 5 CF. http://www.acm.org/about/class; liknande taxonomier finns för de flesta vetenskapliga discipliner. (e, f) = "D(e)" D(f) och "D(e)" D(f) TERMS-dokument vektor: t(e) sim TERMS (e, f) = cos(t(e), t(f)) Shaws (1994) kombinationskamSUM-regel, även kallad linjär kombination. I denna modell består totalpoängen av den viktade summan av individuella poäng. I de fall då viktsummorna uppgår till 1 motsvarar detta det viktade genomsnittet av individuella poäng. Optimala vikter uppskattas empiriskt (diskuteras senare). Eftersom en anställd e, vi beräkna övergripande innehållsbaserade likhetspoäng sim T (e, f) (för kandidater f ) som den viktade summan av enskilda innehållsbaserade likhetspoäng sim T i : där w i betecknar vikten och sim T i är likhetspoäng enligt metod T i som definieras i tabell 3. Utöver den innehållsbaserade likhetspoäng som definierats tidigare, modellerar vi kontextuella faktorer som visar sig påverka mänskliga beslut på vad liknande expert att rekommendera. Vårt mål är att optimera rangordningen av kandidatexperter genom att ta hänsyn till ytterligare information från dessa faktorer. När vi identifierar vilka kontextuella faktorer som spelar en roll i människors beslut att rekommendera experter vet vi inte exakt hur dessa faktorer påverkar beslutet och därmed hur de ska modelleras. Därför utforskar vi flera principiella sätt att modellera och kombinera dessa faktorer, som var och en kan återspegla hur dessa faktorer fungerar. Vi överväger två sätt att modellera dessa faktorer: a) inputberoende och b) input-oberoende. I det förra fallet är en kandidat f's kontextuella poäng beroende av egenskaper hos den person och för vilken liknande experter söks. I det senare fallet beräknar vi en kontextuell poäng för en kandidat expert f oberoende av (input) person e. I båda modellerna, den kontextuella poäng en kandidat expert f kombineras med innehållsbaserade likhet poäng sim T (e, f ) definieras tidigare. Input-beroende modellering av kontextuella faktorer. Modelleringsfaktorer på ett indataberoende sätt innebär att vi modellerar en faktor som ett likhetsmått. Detta alternativ liknar de innehållsbaserade baslinjemodeller som tidigare diskuterats i den meningen att likheten mellan experter uppskattas med hjälp av avstånd i vissa funktionsrymder. Funktionerna är utformade för att återspegla de kontextuella faktorer som visar sig spela en roll i att rekommendera liknande experter (diskuteras tidigare och igen i avsnittet Resultat). Man kan till exempel anta att två anställda som ingår i samma forskargrupp kan rekommenderas som liknande experter. En enkel modell skulle kunna tilldela en likhetspoäng på 1 om de två arbetena i samma grupp, och en poäng på 0 om de arbetar i olika grupper. Mer formellt, med tanke på en expert e och en kandidat f, bestämmer vi input-beroende likhet poäng sim D i (e, f) mellan dessa experter i termer av den kontextuella faktorn C i. För faktorer med nominella värden, vi ställer in likheten till 1 om värdena är lika, och till 0 om de skiljer sig: där C i (·) betecknar värdet för den kontextuella faktorn C i. Om faktor C i är numerisk, bestämmer vi likhetspoängen baserat på den absoluta skillnaden mellan de normaliserade värdena av C i : där C i min och C i max är de minsta och högsta värdena av faktor C i, så att sim D i (e, f) till [0, 1]. Den slutliga indataberoende kontextuella likhetspoängen är den linjära kombinationen av innehållsbaserade och kontextuella likhetspoäng: där w i, j betecknar vikterna för individuella innehållsbaserade och kontextuella likhetsmetoder, fastställda genom en serie experiment (dicuserade senare). Här modellerar vi kontextuella faktorer oberoende av den expert för vilken vi söker liknande experter, vilket innebär att vi antar att kandidater med vissa egenskaper är mer benägna att rekommenderas som en liknande expert. Till exempel kan en person med en lång publikationslista anses vara mycket tillförlitlig, vilket kan öka den totala risken för att denne person rekommenderas som expert. Vi antar oberoende av de individuella kontextuella faktorer C i och sätta där w i betecknar vikten av den innehållsbaserade likhetsmetoden i och w j betecknar vikten av kandidat expert f's poäng med tanke på värdet av den kontextuella faktorn C i. Observera att antagandet om oberoende görs för förenkling, men kanske inte alltid är realistiskt. Vi modellerar poäng C i (f ) som sannolikheten för f rekommenderas som en expert villkorad på C i : där E betecknar händelsen att en kandidat f rekommenderas som expert, och P[C i (f)) betecknar sannolikheten för att observera värdet C i (f) för den angivna kontextuella faktorn. beräknas från de frekvenser som observerats i data. För nominella kontextuella faktorer är det enkelt att få frekvenserna. För numeriska värden, vi först diskretize faktorer med hjälp av oövervakad diskretization i 10 lika stora bins och sedan få räkningar per bin. Således approximerar vi sannolikheten att en kandidat f rekommenderas som expert, givet ett observerat värde för kontextuell faktor C i genom att räkna antalet kandidater i ett specifikt intervall som har rekommenderats som en liknande expert, dividerar detta med antalet kandidater i detta intervall. För att undvika delning med noll, tillämpar vi den vanliga Laplace uppskattningen (dvs. vi initierar alla räknas till 1). Vi använder tre mätvärden för att utvärdera uppgiften att hitta liknande experter: Expert Coverage (ExCov), Mean Reciprocal Rank (MRR), och Normalized Discounted Cumulated Gain (NDCG). ExCov är den procentandel av målexperter för vilka en algoritm kunde generera rekommendationer. På grund av databrist kan det hända att en algoritm för att hitta experter inte alltid kan generera en förteckning över liknande experter (t.ex. om målexperten inte valde ut några expertområden). Vid utvärdering av rekommenderade system mäts detta vanligtvis genom täckning (Herlocker, Konstan, Terveen, & Riedl, 2004). MRR definieras som inversen av rangen för det första återvunna relevanta resultatet (i vårt fall, "expert"). Eftersom kommunikationsrådgivare sannolikt inte rekommenderar mer än en alternativ expert om den bästa experten inte är tillgänglig, är det av största vikt att uppnå hög noggrannhet i den högsta rangen. Dessutom visar våra experiment att mänskliga domare uppnår hög enighet om vem de skulle rekommendera som den mest lämpliga liknande experten (diskuteras tidigare). Därför kommer vi att använda MRR som vårt primära mått på prestanda. NDCG är en IR-åtgärd som jämför rangordnade listor och kreditmetoder för deras förmåga att hämta mycket relevanta resultat i topprankning. Vi använder NDCG i vår utvärdering eftersom enkätdeltagarna ombads att betygsätta de rekommenderade experterna på en skala från 1 till 10. Dessa betyg motsvarar 10 grader av relevans, som sedan används som vinstvärden. Vi beräknar NDCG enligt Järvelin och Kekäläinen (2002), som genomförs i trec_eval 8.1. 6 MRR och NDCG beräknas för alla experter, inklusive de för vilka likhetsmetoder resulterade i tomma förteckningar över rekommendationer. Med andra ord bidrar "felande namn" med ett värde på 0 till alla utvärderingsåtgärder. 7 Detta möjliggör en mer meningsfull jämförelse mellan metoder, eftersom alla poäng beräknas baserat på samma uppsättning av testämnen. Vi utvärderar våra kontextuella hämtningsmodeller mot en baslinje bestående av den optimala kombinationen av innehållsbaserade hämtningsmodeller. Significance testing mot denna baslinje utförs med hjälp av en parad, två-tailed Student's t test. Under hela artikeln, använder vi för att indikera körs som avsevärt överträffar baslinjen på 0,05 nivå. Vårt mål är att optimera parameterinställningarna för varje modell för hög MRR (vår primära utvärderingsmått). Som vanligt när mängden tillgängliga träningsdata är liten optimerar och utvärderar vi på samma träningsset. Observera att vårt mål inte är att avgöra om de optimala parameterinställningarna är generella för osynliga datauppsättningar. Snarare strävar vi efter att fastställa bästa möjliga prestanda för varje modell på tillgängliga data för att bestämma den övre gränsen för varje modell på dessa data. Vi jämför sedan dessa optimerade modeller. För ett litet antal parametrar, får vi optimala inställningar med hjälp av parameter svep. I de fall där antalet parametrar att uppskatta är stort (t.ex. >5) är detta tillvägagångssätt opraktiskt, eftersom ett uttömmande sökande efter optimala inställningar är exponentiellt i antalet parametrar. I dessa fall använder vi en enkel stigningsalgoritm för att approximera optimala inställningar i dessa situationer. Vi initierar slumpmässigt parametrarna, sedan varierar varje parameter mellan 0 och 1 med steg om 0,1. Vi väljer det värde för vilket målutvärderingsmåttet maximeras och fortsätter sedan med nästa parameter. Den ordning i vilken parametervärden optimeras är randomiserad, och vi upprepar optimeringsprocessen tills inställningarna har konvergerat. Eftersom denna algoritm är känslig för lokala maxima, upprepar vi denna process 200 gånger och väljer de vikter som resulterar i bästa prestanda. Vi presenterar våra resultat i tre underavdelningar som motsvarar våra tre forskningsfrågor. För det första analyserar vi de enkäter vi använde för att identifiera kontextuella faktorer som spelar en roll i den studerade miljön. Vi rekommenderar vilka av dessa faktorer som bör integreras med innehållsbaserade hämtningsmodeller för att ta itu med uppgiften att hitta liknande experter och utveckla modeller för dessa faktorer. Slutligen presenterar vi resultaten av utvärdering 6 Trec_eval programmet beräknar NDCG med ändringen att rabatten alltid log 2 (rank + 1) så att rank 1 inte är ett specialfall. 7 Detta motsvarar kör trec_eval med omkopplaren −c. 4. Vad är det som händer? Exempel på uttalanden, frekvensfördelning för uttalanden och deltagare som implicit nämner en faktor, och explicita viktklassificeringar (0 = inget inflytande, 3 = starkt inflytande) av nämnda faktorer. Faktorer markerade med * identifierades nyligen på grundval av uppgifterna. Deltagare Mdn Factor (med exempeluttalanden) (N = 354) (N = 6) betyg Kunskapens ämnesområde ("akademisk rekord", "har liten överlappning med den nödvändiga expertisen", "är endast i 44,5% 100% 3,0 en punkt liknande X: s expertis", "topicalally, de är nära", "works in the same area") *Organisationell struktur ("position inom fakulteten", "projektledare för PROJEKT", 24,4% 100% N/A "arbete för samma institut") Förtrogenhet ("känn henne personligen", "Jag känner inte någon av dem") 17,3% 83% 3.0 *Media erfarenhet ("erfarenhet med media", "en av dem är inte lämplig för att prata med media") 5,5% 33% N/A Tillförlitlighet ["minsta överlappning och erfarenhet", "senioritet i området", "är en universitetsprofessor (emeritus)" 3.1% 33% 3.0 Tillgänglighet ["bra alternativ för X och Y som inte arbetar här längre", "han är emeritutus 2,4% 66% 2.5 (även om han fortfarande kommer i en gång i en roll "Vitry of the thment") "Vitry and the I detta avsnitt analyserar vi kommunikationsrådgivarens svar på frågeformuläret. Vi ger en kort översikt över svaren på del 1 (bakgrundsinformation), men fokuserar sedan på delarna 2 och 3 (identifiera kontextuella faktorer) i frågeformuläret. Mängden förfrågningar om sakkunskap som vanligtvis tas emot och den tid som läggs på att besvara dessa förfrågningar varierar kraftigt mellan studiedeltagarna. Hälften av deltagarna får förfrågningar en till flera gånger i veckan. Den andra hälften rapporterade att de fått förfrågningar ungefär en gång i månaden. Att besvara förfrågningarna tar normalt mellan 5 och 15 minuter, men en deltagare rapporterade att besvara komplexa förfrågningar kan ta upp till flera timmar. Deltagarna använder en mängd olika källor för att hålla jämna steg med aktuell forskning inom sin institution. Alla deltagare nämnde direktkontakt med kollegor som informationskälla. Andra källor som nämns är pressmeddelanden, forskares webbplatser, projektbeskrivningar, beskrivningar av forskningsprogram och WebWijs-systemet. För att identifiera kontextuella faktorer som spelar en roll i expertrekommendationerna analyserade vi svaren på de öppna frågorna i del 2 i frågeformuläret, om varför specifika rekommendationsbeslut fattades. Dessa svar transkriberades och analyserades genom innehållsanalys. För det första delades svaren upp i uttalanden som uttryckte ett skäl vardera, vilket resulterade i 254 uttalanden. Dessa kodades självständigt av två av författarna. Kodningen baserades på det kodsystem som utvecklats av Woudstra och Van den Hooff (2008); ytterligare två faktorer, organisationsstruktur och medieerfarenhet identifierades och lades till kodsystemet (diskuterades senare). Interannotator-avtalet var 77,5 %, och det slumpkorrigerade avtalet Cohens var 0,697, vilket tyder på ett betydande avtal (jfr. Landis & Koch, 1977). Konflikter löstes genom diskussioner. Tabell 4 ger en översikt över frekvensfördelningen för de resulterande faktorerna och medianvärdet för varje faktor som mottagits när deltagarna uttryckligen ombads att gradera dessa faktorer. Ämnet kunskap nämndes oftast och nämndes av alla deltagare. Om vi antar att den frekvens med vilken en faktor nämns avser faktorns betydelse, då är ämnet det viktigaste. Andra ofta nämnda faktorer är förtrogenhet, och de nyligen identifierade faktorerna Organisatorisk struktur och Media erfarenhet. Fysisk närhet och Sparar tid nämndes inte av någon av deltagarna. Figur 1 möjliggör en mer detaljerad jämförelse av faktorer till följd av kodning av öppna svar ("implicit ratings") jämfört med de uttryckliga värderingar som samlas in i del 3 i frågeformuläret. Det råder enighet om alla deltagare och alla åtgärder att kunskapsämnet är den viktigaste faktorn, och kännedomen verkar också viktig enligt båda åtgärderna. Faktorer som verkar mindre viktiga enligt båda åtgärderna är Kognitiv ansträngning, Sparar tid, Approachability, och fysisk närhet. Frekvenserna av Organisatorisk struktur och Media erfarenhet kan inte jämföras med explicita betyg, eftersom de endast upptäcktes under analysstadiet. Vissa faktorer visar stora meningsskiljaktigheter i betydelse enligt implicit och explicit bedömning. Den största diskrepansen återfinns i up-to-dateness, som konsekvent uppfattades som ha ett starkt inflytande på expertrekommendationer, men nämndes nästan aldrig som en anledning till ett särskilt expertbeslut. Liknande skillnader finns mellan Tillförlitlighet, Tillgänglighet och Kontakter. Baserat på undersökningsresultaten utvecklar vi rekommendationer om vilka kontextuella faktorer som bör beaktas På grund av de stora skillnaderna mellan implicita och explicita bedömningar av dessa faktorer kan resultaten av utvärderingen av dessa faktorer i ett hämtningsförsök ge insikt i giltigheten hos de två metoder som används för att framkalla faktorer. Att närma sig, Kognitiv ansträngning, Fysisk närhet och Sparar tid verkar inte spela någon större roll i den studerade miljön och diskuteras inte vidare. Alla faktorer kan inte lätt modelleras. Vi diskuterar dessa aspekter för varje faktor; faktorer som kommer att ingå i uppföljningsförsöken markeras med "+" och de som inte kommer att övervägas ytterligare markeras med "−". För enkelhetens skull, för varje kontextuell faktor som tas upp i detta avsnitt, visar vi genomförandet av denna faktor på ett specifikt sätt, med undantag för tillförlitlighet för vilken vi anser både publiceringsprotokoll och position. För de faktorer som är modellerade beskriver vi deras specifika genomföranden C i f. Kom ihåg att vi överväger två typer av modeller: den input-beroende modellen beräknar likhetspoäng mellan expertkandidater och en given kandidat baserat på värdet av en kontextuell faktor C i (f) (jfr. Ekvationer 3-5). Den input-oberoende modellen uppskattar sannolikheten för att en kandidat rekommenderas som en liknande expert, återigen, baserat på värdet av kontextuell faktor C i (f) (jfr. Ekvationer 6 och 7). + Kunskapsämnet tas för att motsvara de innehållsbaserade likhetsåtgärder som presenterades tidigare. Detta tillvägagångssätt representerar experter baserade på a) de dokument som är knutna till dem (DOCS och TERMS) och b) de expertområden som manuellt valts ut av experterna själva (AREAS). Vi utgår från att de manuellt valda etiketterna är de mest representativa för en persons expertis, eftersom de kan betraktas som marksanningsetiketter. Dessutom rapporterade deltagare som deltog i vår användarstudie upprepade gånger att de använt överlappning inom ämnesområden som finns i WebWijs-systemet som grund för sina (topic-baserade) beslut om vem de ska rekommendera som en liknande expert. Vi inkluderar DOCS och TERMS eftersom dessa har använts för att fånga expertkunskap i tidigare arbete. + Organisatorisk struktur kan genomföras genom att man tar hänsyn till medlemskap i arbetsgrupper eller avdelningar. I vår miljö har vi information om den organisatoriska hierarkin ner till nivån av enskilda institutioner för hela universitetet och ner till projektgruppsnivå för en fakultet. Vi kan använda denna information för att filtrera bort experter från vissa fakulteter eller för att kompensera för data gleshet. I vårt nuvarande genomförande använder vi bara den högsta nivån i den tillgängliga organisatoriska hierarkin och betraktar den organisatoriska strukturen som ett nominellt mått: där fakulteten är en sträng, till exempel "FGW" (Faculteit Geesteswetenschappen-Humanities), "FRW" (Faculteit Rechtsgeleerdheid-Legal studier), eller "FEB" (Economie en Bedrijfswetenschappen-Ekonomics and Business studier). En anställd kan vara medlem av flera fakulteter. Således, i en input-beroende modell, denna faktor uttrycker om två medarbetare är en del av samma fakultet; i en input-oberoende modell, det uttrycker hur troligt någon är att rekommenderas som expert, med tanke på att de arbetar i en specifik fakultet. − Förtroendet skulle kunna förverkligas i miljöer där information om sociala nätverk finns tillgänglig, t.ex. e-postmönster eller annan elektronisk kommunikation (diskuteras tidigare). I vår miljö är denna typ av information för närvarande inte tillgänglig. + Information om medieerfarenhet kan hämtas från universitetets medielista (diskuteras tidigare). Dessa media hit räknas representerar en kvantifiering av media erfarenhet och kan till exempel tjäna som expert tidigare. Vi modellerar medieupplevelsen av en expert som summan av alla media poäng en kandidat har samlat: där media y (f) är den totala media utseende poäng expert f för år y. + Tillförlitlighet kan modelleras på olika sätt. Till exempel kan en lång publikationslista, eller positionen inom organisationen, tyda på att en expert är pålitlig. Vi har tillgång till båda genom data som kröp från WebWijs. Eftersom båda informationskällorna är lättillgängliga utvecklar vi två modeller för denna faktor. För det första använder vi akademiska publikationer för att uppskatta tillförlitligheten. I princip innebär en lång publiceringslista att en person har giltiga och trovärdiga kunskaper och kompetenser. Tillförlitlighet mäts sedan som det totala antalet publikationer av en kandidat f : där pub y f är antalet publikationer av expert f för år y. En andra möjlighet att bedöma en experts tillförlitlighet är hans eller hennes befattning inom universitetet eller, mer allmänt, organisationen. En professor kan till exempel vara mer benägen att betraktas som en pålitlig expert av en kommunikationsrådgivare än en doktorand. Denna faktor är modellerad som nominell. Således: där position är en sträng; till exempel, "Professor", "Lecturer", "PhD student." + Uppdatering kan modelleras genom att ge högre vikt åt nyare dokument som förknippas med en expert, t.ex. nyligen publicerade publikationer. En idealisk kandidat har inte bara trovärdig kunskap, utan denna kunskap är också ny. För att mäta detta, använder vi återigen publikationerna av människor, men här, senare publikationer får en högre vikt: där y 0 är innevarande år, och pub y i (f) är antalet publikationer av expert f och år i. Vi modellerar minskningen i påverkan av äldre publikationer med hjälp av en exponentiell viktfunktion med bas på. Denna parameter kan justeras för att justera hastigheten med vilken effekten av publikationer minskar. I våra experiment ställer vi in 0.7. − Perspektivet uttrycks ofta som en annan vinkel i samma ämne, till exempel rättsligt istället för ekonomiskt. Detta tyder på att titta på den organisatoriska strukturen är ett sätt att förhindra alltför olika perspektiv. Ett annat sätt att modellera denna faktor kan vara att överväga medförfattare, eftersom samverkande forskare kan förväntas ha ett liknande perspektiv på ett ämne. För närvarande har vi inga robusta sätt att uppskatta denna faktor. − Tillgänglighet kan inte modelleras med de data som för närvarande är tillgängliga för oss. Detta kan vara möjligt i system som är utformade för att öka effektiviteten i sociala processer, såsom medvetenhet om medarbetares arbetsbörda (Erickson & Kellogg, 2000). + En experts kontakter kan modelleras av system som har tillgång till information om sociala nätverk. Eftersom vi inte har tillgång till denna typ av data, modellerar vi denna faktor på grundval av medförfattare artiklar och samlade kurser. Vi antar att storleken på samarbetsnätverket är viktig, så detta är vad vi modellerar. Vi betraktar bara antalet medförfattare och kollektörer, dvs. antalet personer med vilka f har samförfattat en publikation eller gemensamt undervisat i en kurs. Formellt: där coauth(f) är antalet distinkta personer med vilka f har medförfattare ett dokument eller colectured en kurs. Sammanfattningsvis modellerar vi sex faktorer, två nominella (C org och C position ), och fyra numeriska (C media, C publikation, C uppdaterad, och C kontakter ). Resultaten av integreringen av dessa kontextuella faktorer med ett innehållsbaserat hämtningssystem ges i nästa avsnitt. Det här avsnittet innehåller resultaten av våra modeller på det tidigare beskrivna hämtningsexperimentet. Vi presenterar resultat för de innehållsbaserade baslinjemodellerna, och sedan för modellerna som integrerar kontextuella faktorer både på ett input-beroende sätt och på ett input-oberoende sätt. För varje modell visar vi resultat för enskilda faktorer och för optimala kombinationer av faktorer. Tabell 5 visar de experimentella resultaten för våra innehållsbaserade körningar: individuell prestanda för de tre individuella likhetsmetoderna DOCS, TERMS och OMRÅDEN (se tabell 3 ), och viktade kombinationer av dessa. Vi bildar två kombinationer: BL-MRR är en baslinjekombination av alla innehållsbaserade metoder med vikter optimerade för MRR, och BL-NDCG är en baslinjekombination optimerad för NDCG, som beskrivits tidigare. Senare jämför vi de kontextuella modellerna mot dessa två baslinjer. Av de tre innehållsbaserade likhetsmetoderna presterar OMRÅDEN bäst både när det gäller MRR och NDCG. Denna metod uppnår en MRR på 0,4, vilket innebär att den identifierar en korrekt expert på Rank 2 till 3, i genomsnitt. NDCG poäng är något högre än 50% av en optimal beställning. Det relativt goda resultatet av OMRÅDEN förväntas, eftersom denna metod använder sig av experternas självförsörjande profiler, som förväntas innehålla rena data som exakt JURNAL AV AMERIKANSKA SAMHÄLLET FÖR INFORMATIONSVETENSKAP OCH TEKNIK 11 DOI: 10.1002/asi TABELL 5. Faktorvikter och hämtningsresultat för innehållsbaserade modeller. De optimala kombinationerna av alla tre innehållsbaserade modellerna utgör baslinjerna för efterföljande experiment (BL-MRR och BL-NDCG). Bästa poängen är i fetstil. Vikter normaliseras till summan av 1. Innehållsvikter
Vårt arbete skiljer sig från REF både i uppgiften och i att vi tar hänsyn till det sociala avståndet mellan användaren och experten.
205,438,760
Contextual Factors for Finding Similar Experts
{'venue': 'J. Assoc. Inf. Sci. Technol.', 'journal': 'J. Assoc. Inf. Sci. Technol.', 'mag_field_of_study': ['Computer Science']}
8,750