src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
Opinion mining är en ny subdisciplin av beräkningslingvistik som inte handlar om ämnet ett dokument handlar om, men med den åsikt som det uttrycker. För att underlätta framtagandet av yttranden ur texten har man i det senaste arbetet tagit itu med frågan om att fastställa inriktningen på de "subjektiva" termerna i texten, dvs. avgöra om en term som innehåller ett yttrande har en positiv eller negativ innebörd. Detta anses vara av avgörande betydelse för att identifiera dokumentens inriktning, dvs. avgöra om en handling uttrycker ett positivt eller negativt yttrande om dess ämne. Vi hävdar att den enkla bestämningen av termernas inriktning inte är ett realistiskt problem, eftersom det utgår från det icke-realistiska antagandet att vi redan vet om en term är subjektiv eller inte; detta skulle innebära att en språklig resurs som markerar termer som "subjektiva" eller "objektiva" är tillgänglig, vilket vanligtvis inte är fallet. I detta dokument står vi inför uppgiften att avgöra om en viss term har en positiv konnotation, eller en negativ konnotation, eller inte alls har någon subjektiv konnotation; detta problem underbygger således problemet med att bestämma subjektivitet och problemet med att bestämma orientering. Vi tar itu med detta problem genom att testa tre olika varianter av en halvövervakad metod som tidigare föreslagits för orienteringsdetektering. Våra resultat visar att avgörande subjektivitet och orientering är ett mycket svårare problem än att enbart bestämma orientering. | Yttrande mining är en nyligen underdisciplin för informationssökning som inte handlar om ämnet i ett dokument, men med yttrandet den uttrycker REF. | 17,768,425 | Determining Term Subjectivity And Term Orientation For Opinion Mining | {'venue': 'Conference Of The European Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,075 |
häst zebra zebra häst Sommar Vinter vinter vinter vinter sommar Fotografering Van Gogh Cezanne Monet Ukiyo-e Monet Bilder Monet foto foto Monet Figur 1: Med tanke på två oordnade bildsamlingar X och Y, vår algoritm lär sig att automatiskt "översätta" en bild från en till den andra och vice versa. Exempel ansökan (botten): med hjälp av en samling målningar av en berömd konstnär, lära sig att göra en användares fotografi i deras stil. Image-to-image översättning är en klass av vision och grafik problem där målet är att lära sig kartläggningen mellan en ingångsbild och en utgångsbild med hjälp av en utbildning uppsättning av anpassade bildpar. För många uppgifter kommer dock inte parade träningsdata att finnas tillgängliga. Vi presenterar ett tillvägagångssätt för att lära sig översätta en bild från en källkodsdomän X till en måldomän Y i avsaknad av parade exempel. Vårt mål är att lära sig en kartläggning G : X → Y sådan att distributionen av bilder från G(X) är oskiljaktig från distributionen Y med hjälp av en kontradiktorisk förlust. Eftersom denna kartläggning är mycket underkonsekventa, vi par det med en invers kartläggning F : Y → X och införa en cykelkonsistens förlust att push F (G(X)) på X (och vice versa). Kvalitativa resultat presenteras på flera uppgifter där parade träningsdata inte finns, inklusive insamling stil överföring, objekttransfiguration, säsong överföring, fotoförbättring, etc. Kvantitativa jämförelser mot flera tidigare metoder visar hur överlägsen vår strategi är. | REF presenterar en strategi för överföring av bilddomäner genom att lära sig ett par nätverk med en omvänd relation, med hjälp av cyklisk konsistens som en regularizer. | 206,770,979 | Unpaired Image-to-Image Translation Using Cycle-Consistent Adversarial Networks | {'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 10,076 |
Standardantagandet av identiskt fördelade utbildnings- och testdata kränks när testdata genereras som svar på en prediktiv modell. Detta blir uppenbart, till exempel i samband med skräppostfiltrering via e-post, där en e-postleverantör använder ett skräppostfilter och skräppostavsändaren kan ta hänsyn till detta filter när han eller hon skapar nya e-postmeddelanden. Vi modellerar interaktionen mellan inlärare och datagenerator som en Stackelbergtävling där inläraren spelar ledarens roll och datageneratorn kan reagera när ledaren rör sig. Vi härleda ett optimeringsproblem för att bestämma lösningen av detta spel och presentera flera fall av Stackelberg förutsägelsespel. Vi visar att Stackelbergs förutsägelsespel generaliserar befintliga förutsägelsemodeller. Slutligen utforskar vi egenskaperna hos de diskuterade modellerna empiriskt i samband med skräppostfiltrering via e-post. | Spel-teoretiska metoder REF [23] modellera växelverkan mellan motståndaren och klassificeraren som ett spel. | 4,680,046 | Stackelberg games for adversarial prediction problems | {'venue': 'KDD', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,077 |
ABSTRACT Automatisk upptäckt av fall är ett viktigt forskningsämne när det gäller att ta hand om utsatta personer, till exempel äldre i hemmet och patienter på medicinska platser. Under det senaste årtiondet föreslogs ett stort antal metoder för att lösa problemet. De befintliga metoderna fokuserar dock bara på att upptäcka människan själv och kan inte fungera effektivt i komplicerade miljöer, särskilt för fall på möbler. För att lindra detta problem presenteras en ny metod för mänsklig falldetektering på möbler med hjälp av scenanalys baserad på djupinlärning och aktivitetsegenskaper i detta dokument. Den föreslagna metoden utför först scenanalys med hjälp av en djupinlärningsmetod snabbare R-CNN för att upptäcka människor och möbler. Samtidigt upptäcks rymdförhållandet mellan människa och möbler. De upptäckta personernas aktivitetsegenskaper, såsom förhållandet mellan mänsklig form, centroid, rörelsehastighet, upptäcks och spåras. Genom att mäta förändringarna av dessa egenskaper och bedöma förhållandet mellan människor och möbler i närheten, kan fall på möbler effektivt upptäckas. Experimentella resultat visade att vårt tillvägagångssätt inte bara exakt och effektivt upptäcks faller på möbler, såsom soffa och stolar, men också skiljer dem från andra fall-liknande aktiviteter, som att sitta eller ligga ner, medan de befintliga metoderna har svårt att hantera dessa. I våra experiment uppnådde vår algoritm 94,44% precision, 94,95% recall och 95,50% noggrannhet. Den föreslagna metoden kan eventuellt användas och integreras som medicinsk hjälp i hälso- och sjukvård och medicinska lokaler och apparater. | Min m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. I REF föreslås en falldetekteringsmetod för fall mot möbler som soffor och stolar. | 238,206 | Detection of Human Falls on Furniture Using Scene Analysis Based on Deep Learning and Activity Characteristics | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 10,078 |
Abstrakt. Clustering är en klass av oövervakade inlärningsmetoder som i stor utsträckning har tillämpats och studerats i datorseendet. Litet arbete har gjorts för att anpassa den till end-to-end-utbildning av visuella funktioner på storskaliga dataset. I detta arbete presenterar vi DeepCluster, en klustermetod som tillsammans lär sig parametrarna för ett neuralt nätverk och klusteruppdragen av de resulterande funktionerna. DeepCluster iteratively grupperar funktionerna med en standard kluster algoritm, kmeans, och använder de efterföljande uppdragen som övervakning för att uppdatera vikterna i nätverket. Vi använder DeepCluster för oövervakad träning av konvolutionella neurala nätverk på stora dataset som ImageNet och YFCC100M. Den resulterande modellen överträffar det nuvarande tekniska läget med en betydande marginal på alla standardriktmärken. | Caron m.fl. REF presenterar en klustermetod som gemensamt lär sig parametrarna för ett neuralt nätverk och de klustertilldelningar av de resulterande funktionerna. | 49,865,868 | Deep Clustering for Unsupervised Learning of Visual Features | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 10,079 |
Abstrakt. De flesta robotstyr- och planeringsalgoritmer är komplexa, med en kombination av reaktiva regulatorer, beteendebaserade regulatorer och deliberativa regulatorer. Byte mellan olika beteenden eller styrenheter gör sådana system hybrida, dvs.. kombinera diskret och kontinuerlig dynamik. Även om bevis på konvergens, robusthet och stabilitet ofta finns tillgängliga för enkla styrenheter under en noggrant utformad uppsättning driftsförhållanden, finns det ingen systematisk metod för att experimentera med, testa och validera prestanda hos komplexa hybrida styrsystem. I detta dokument tar vi upp problemet med att generera uppsättningar av villkor (ingångar, störningar och parametrar) som kan användas för att "testa" ett givet hybridsystem. Vi använder metoden för att snabbt utforska Random Trees (RRTs) för att få testingångar. Vi utökar den traditionella RRT, som bara söker över kontinuerliga ingångar, till en ny algoritm, kallas den snabba utforska Random Forest of Trees (RRFT), som också kan söka över tid invariant parametrar genom att odla en uppsättning träd för varje parameter val värde. Vi inför nya åtgärder för täckning och trädtillväxt som gör det möjligt för oss att dynamiskt fördela våra resurser bland träden och plantera nya träd när tillväxttakten hos de befintliga minskar till en oacceptabel nivå. Vi demonstrerar tillämpningen av RRFT för testning och validering av system för flygrobotkontroll. | I REF infördes algoritmen Random Forest of Trees (RRFT) som med tiden söker invarianta parametrar genom att plantera många RRT vid en provtagning av parametervärden. | 2,917,375 | Adaptive RRTs for validating hybrid robotic control systems | {'venue': 'International Workshop on the Algorithmic Foundations of Robotics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,080 |
Det har gjorts stora ansträngningar för att studera hur sociala medier, t.ex. Twitter, bidrar till att sprida information i olika situationer, bland annat genom att sprida varningar och SOS-meddelanden i en nödsituation. Det befintliga arbetet har dock inte tagit upp hur man aktivt identifierar och engagerar rätt främlingar i rätt tid i sociala medier för att effektivt sprida avsedd information inom en önskad tidsram. För att ta itu med detta problem har vi utvecklat två modeller: (i) en funktionsbaserad modell som utnyttjar människors utställda sociala beteende, inklusive innehållet i deras tweets och sociala interaktioner, för att karakterisera deras villighet och beredvillighet att sprida information på Twitter via handling av repweeting; och (ii) en vänta-tid modell baserad på en användares tidigare repweeting väntetider för att förutsäga hennes nästa repweeting tid på begäran. Baserat på dessa två modeller, bygger vi ett recommender system som förutspår sannolikheten för en främling att retweet information på begäran, inom en viss tid fönster, och rekommenderar top-N kvalificerade främlingar att engagera sig med. Våra experiment, inklusive levande studier i den verkliga världen, visar hur effektivt vårt arbete är. | Lee och Al. REF undersökte sannolikheten för att en användare skulle göra en retweet för att sprida information. | 2,647,837 | Who will retweet this?: Automatically Identifying and Engaging Strangers on Twitter to Spread Information | {'venue': "IUI '14", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']} | 10,081 |
En innehållsvalskomponent avgör vilken information som ska förmedlas i ett naturligt språkgenereringssystem. Vi presenterar en effektiv metod för att automatiskt lära innehåll urvalsregler från en corpus och dess relaterade databas. Vårt modelleringsramverk behandlar innehållsval som ett kollektivt klassificeringsproblem, vilket gör det möjligt för oss att fånga kontextuella beroenden mellan indataobjekt. Experiment inom ett idrottsområde visar att detta tillvägagångssätt uppnår en betydande förbättring jämfört med kontext-agnostiska metoder. | I REF behandlas innehållsvalet som ett kollektivt klassificeringsproblem som gör det möjligt för systemet att fånga kontextuella beroenden mellan dataindataobjekt. | 1,589,010 | Collective Content Selection For Concept-To-Text Generation | {'venue': 'Human Language Technology Conference And Empirical Methods In Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,082 |
Abstrakt. Med den allmänna trenden mot datadrivet beslutsfattande (DDDM) söker organisationer efter sätt att använda DDDM för att förbättra sina beslut. Men få studier har undersökt utövarnas syn på DDDM, särskilt för agila organisationer. I detta dokument undersökte vi erfarenheterna av att använda DDDM och hur data kan förbättra beslutsfattandet. Ett frågeformulär med e-post skickades ut till 124 branschutövare i agila mjukvaruutvecklande företag, varav 84 svarade. Resultaten visar att få utövare angav en bred användning av DDDM i sin nuvarande beslutspraxis. Utövarna var mer positiva till dess framtida användning för högre nivå och mer allmänt beslutsfattande, ganska positiva till dess användning för krav framkallande och prioriteringsbeslut, samtidigt som de var mindre positiva till dess framtida användning på teamnivå. De utövare ser en hel del potential för DDDM i ett agilt sammanhang, men för närvarande ouppfyllda. | Svensson m.fl. rapportera att i en undersökning av 84 utövare var utövarna positiva till den framtida användningen av datadrivna beslutssystem för högre och mer allmänt beslutsfattande, tämligen positiva till dess användning för krav framkalla och prioritera beslut, och mindre positiva om dess framtida användning på teamnivå REF. | 102,350,564 | The Unfulfilled Potential of Data-Driven Decision Making in Agile Software Development | {'venue': '20th International Conference on Agile Software Development (XP), 2019', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,083 |
Abstract-som IEEE 802.11 accesspunkter (APs) öppnar upp tjänster för mobila kunder, opportunistiska tillgång till vägkommunikationsinfrastrukturer från resande fordon har blivit mer framträdande och har dragit stor uppmärksamhet. I synnerhet har datauppladdning från resande fordon en stor potential för många fordonsspecifika ad hoc-nätverksapplikationer, där både intermittent anslutning och tidsförändrande ankommande fordon har inneburit betydande utmaningar för de nuvarande analytiska modellerna. Vårt fokus ligger på bärarkänslan flera åtkomster med kollision undvikande-baserad medium åtkomst kontroll (MAC) lager prestanda i en last-hop drive-thru Internet, med tanke på både innehållet i upplänken och den realistiska fordon trafik modell. Analys- och simuleringsresultat visar de inneboende sambanden mellan fordonets täthet och hastighet, AP:s täckning, den uppnåeliga genomströmningen och den totala mängden data som laddas upp av fordon. Vi undersöker vidare effektiviteten i AP:s system för tillträdeskontroll för att uppnå en optimal operationsregion som har både en hög genomströmning och en stor mängd data som laddas upp från varje drive-thru-fordon. Index Terms-IEEE 802.11 Medium Access Control (MAC), upplänk prestandaanalys, fordonsnätverk. | Zhuang m.fl. I REF föreslogs ett analytiskt ramverk för att få uppladdningsprestanda för den senaste drive-thru-kommunikationen, med beaktande av fordonets densitet, motsvarande körhastighet och AP:s överföringsområde. | 8,945,825 | On the Uplink MAC Performance of a Drive-Thru Internet | {'venue': 'IEEE Transactions on Vehicular Technology', 'journal': 'IEEE Transactions on Vehicular Technology', 'mag_field_of_study': ['Computer Science']} | 10,084 |
Kontroll av sammansättningen är en lovande metod för att ta itu med problemet med statsexplosion i samband med modellkontroll. En kompositionsteknik förespråkar att bevisa egenskaper hos ett system genom att kontrollera egenskaper hos dess komponenter i en antagande-garanti stil. Tillämpningen av denna teknik är dock svår eftersom den innebär icke-trivial mänsklig input. I detta dokument presenteras en ny ram för att utföra antagande-garanti resonemang på ett inkrementellt och helt automatiserat sätt. För att kontrollera en komponent mot en fastighet, vår strategi genererar antaganden som miljön behöver för att uppfylla för fastigheten att hålla. Dessa antaganden skrivs sedan ut på resten av systemet. Antaganden beräknas med hjälp av en inlärningsalgoritm. De är till en början ungefärliga, men blir gradvis mer exakta med hjälp av motexempel som erhålls genom modellkontroll av komponenten och dess omgivning, växelvis. Denna iterativa process kan när som helst dra slutsatsen att egendomen antingen är sann eller falsk i systemet. Vi har implementerat vårt tillvägagångssätt i LTSA-verktyget och tillämpat det på ett NASA-system. | Denna funktion utnyttjas till exempel i REF, som föreslår en ram för att utföra antagande-garanti resonemang på ett inkrementellt och helt automatiskt sätt. | 2,651,278 | Learning Assumptions for Compositional Verification | {'venue': 'TACAS', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,085 |
Vi bevisar att varje digraf av omkrets l har DAG-bredd som mest l och detta är bäst möjligt. Som en följd av vårt resultat drar vi slutsatsen att k-länk problemet är polynomialt lösbar för varje fast k i klassen av digrafer med avgränsad omkrets. Detta besvarar en fråga som ställs i [2]. Vi bevisar också att det svaga k-länk problemet (där vi ber om båge-avskiljande vägar) är polynomiskt lösbar för varje fast k i klassen av digrafer med omkrets 2 samt för digrafer med ett begränsat antal åtskilda cykler var och en av längd minst 3. Fallet med avgränsade omkrets digrafer är öppen. Slutligen bevisar vi att det minsta spännvidd starka subdigraf problemet är NP-hård på digrafer av DAG-bredd högst 5. | Dessutom är bågen version av k-länken problem är fast-parameter kan styras på digrafer av riktad omkrets 2 REF; frågan förblir öppen för digrafer av godtyckliga riktade omkrets. | 5,631,340 | DAG-width and circumference of digraphs | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 10,086 |
Vi undersöker den beräkningsmässiga komplexiteten i att testa dominans och konsekvens i CP-nät. Tidigare har dominansens komplexitet fastställts för begränsade klasser där beroendekurvan för CP-net är acyklisk. Det finns dock intressepreferenser som definierar cykliska beroendediagram; dessa modelleras med allmänna CP-nät. I våra huvudsakliga resultat visar vi här att både dominans och konsekvens för allmänna CP-nät är PSPACE-komplett. Vi betraktar sedan begreppet stark dominans, dominerande ställning likställdhet och dominerande ställning ojämförlig, och flera begrepp om optimalitet, och identifierar komplexiteten i motsvarande beslutsproblem. De minskningar som används i bevisen är från STRIPs planering och förstärker därmed de tidigare etablerade kopplingarna mellan båda områdena. | Goldsmith m.fl. REF undersökte den beräkningsmässiga komplexiteten i att testa dominans och konsekvens i CP-nät, och visade att både dominans och konsekvens för allmänna CP-nät är PSPACE-fullbordade. | 1,626,851 | The Computational Complexity of Dominance and Consistency in CP-Nets | {'venue': 'Journal Of Artificial Intelligence Research, Volume 33, pages 403-432, 2008', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 10,087 |
Den objektiva bedömningen av en akademisk institutions prestige är en svår och livlig uppgift. Under de senaste åren har olika typer av universitetsrankningar föreslagits för att kvantifiera den, men debatten om vilka rankningar som exakt mäter är bestående. För att ta itu med problemet har vi mätt ett kvantitativt och tillförlitligt mått på en viss institutions akademiska anseende och jämfört våra resultat med väletablerade effektindikatorer och akademiska rankningar. Specifikt studerar vi citeringsmönster bland universitet i fem olika Web of Science Ämneskategorier och använder PageRank algoritmen på de fem resulterande citeringsnätverken. Motivet bakom vårt arbete är att vetenskapliga citeringar drivs av referensens rykte så att PageRank-algoritmen förväntas ge en rankning som återspeglar en akademisk institutions rykte inom ett visst område. Med tanke på volymen av de analyserade uppgifterna är våra resultat statistiskt sunda och mindre benägna att vara partiska än t.ex. ad hoc-undersökningar som ofta används av rangordnade organ för att uppnå liknande resultat. Det tillvägagångssätt som föreslås i vårt dokument kan bidra till att förbättra rangordningsmetoderna genom att förena den kvalitativa utvärderingen av den akademiska prestigen med dess kvantitativa mätningar genom publiceringseffekter. | Massucci och Docampo REF studerade citeringsmönstren hos universitetet och använde PageRank-algoritm baserad på citeringsnätverket mellan institutioner. | 4,418,184 | Measuring the academic reputation through citation networks via PageRank | {'venue': 'Journal of Informetrics 13, 1, February 2019, Pages 185-201', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Physics']} | 10,088 |
Under de senaste åren har marknaden för mobila program (appar) upprätthållit en imponerande uppåtgående bana. Många små och stora mjukvaruutvecklingsföretag investerar betydande resurser för att rikta in sig på tillgängliga möjligheter. Från och med idag har marknaderna för sådana enheter över 850K+ appar för Android och 900K+ för iOS. Tillgänglighet, kostnad, funktionalitet och användbarhet är bara några faktorer som avgör framgång eller brist på framgång för en viss app. Bland de andra faktorerna är tillförlitlighet ett viktigt kriterium: användare blir lätt frustrerade av upprepade misslyckanden, krascher och andra buggar; därför överger vissa appar till förmån för andra. Detta dokument rapporterar en studie som analyserar hur fel-och förändringsbenägenhet API:er som används av 7,097 (gratis) Android-appar relaterar till program' brist på framgång, uppskattas från användarbetyg. Resultaten av denna studie ger viktiga insikter i en avgörande fråga: att i hög grad använda fel- och förändringsbenägna API:er kan negativt påverka framgången för dessa appar. | Linares-Vásquez et al. undersöka hur fel-och förändringsbenägenhet Android API-element relaterar till program' brist på framgång REF. | 4,511,271 | API change and fault proneness: a threat to the success of Android apps | {'venue': 'ESEC/FSE 2013', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,089 |
Abstract-Recent forskning har visat att nätverkskodning har stor potential att förbättra nätverksgenomströmningen i trådlösa nätverk. För att fullt ut utnyttja den prestandavinst som nätkodningen ger har kodning-medvetet routing undersökts för att proaktivt ändra flödesvägarna för att skapa fler kodningsmöjligheter. I dagens trådlösa nätverk med flera taxor är dock kodning kanske inte ett klokt beslut eftersom den lägsta satsen måste användas för kodade informationssändningar, vilket orsakar betydande resursslöseri för de högkvalitativa länkarna. I detta dokument föreslår vi idén om cooperation network coding (CNC) för att utnyttja den rumsliga mångfalden för att förbättra kodningsmöjligheterna. Vi tillhandahåller en teoretisk formulering för att beräkna maximal genomströmning av unicast trafik som kan uppnås med CNC i multi-rate trådlösa nätverk. CNCaware routing under både Alice-Bob och X-struktur diskuteras i detta dokument. Prestandautvärderingen visar att ett CNC-medvetet rutturvalssystem som utnyttjar samarbetskommunikation för att förbättra kodningsmöjligheterna leder till högre end-to-end-genomströmning jämfört med de kodningsmedvetna och traditionella kodningssystemen. | Denna begränsning av nätkodning behandlas i arbetet inom REF, där cooperation network kodning föreslås för att övervinna den begränsning som införs av den lägsta räntelänken. | 12,974,027 | Cooperative Network Coding-Aware Routing for Multi-Rate Wireless Networks | {'venue': 'IEEE INFOCOM 2009', 'journal': 'IEEE INFOCOM 2009', 'mag_field_of_study': ['Computer Science']} | 10,090 |
Abstract — En metod är utvecklad för att analysera noggrannheten av den relativa head-to-object läge och orientering (pose) i augmented reality systems med huvudmonterade displayer. Från probabilistiska uppskattningar av felen i optiska spårningssensorer, osäkerheten i head-to-objekt pose kan beräknas i form av en covarians matris. Positionsosäkerheten kan visualiseras som en 3D ellipsoid. En fördel med att ha en tydlig representation av osäkerhet är att vi kan säkra sensordata från en kombination av fasta och huvudmonterade sensorer för att förbättra den totala registreringsnoggrannheten. Metoden applicerades på analysen av ett experimentellt augmented reality-system med en optisk genomsynlig huvudmonterad display, en huvudmonterad CCD-kamera och en fast optisk spårningssensor. Osäkerheten i posen av ett flyttbart objekt med avseende på den huvudmonterade displayen analyserades. Genom att använda både fasta och huvudmonterade sensorer, producerade vi en pose uppskattning som är betydligt mer exakt än den som produceras av endera sensorn agerar ensam. | Hoff m.fl. REF har också kombinerat optisk spårning inomhus och utomhus för att förbättra noggrannheten i att spåra en HMD. | 8,117,270 | Analysis of head pose accuracy in augmented reality | {'venue': 'IEEE Trans. Visualization and Computer Graphics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,091 |
Abstract-Wireless multicast/broadcast sessioner, till skillnad från trådbundna nätverk, når i sig flera noder med en enda sändning. För allsidig trådlös sändning till en nod, alla noder närmare kommer också att nås. Heuristiska algoritmer för att bygga det minsta kraftträdet i trådlösa nätverk har föreslagits av Wieselthier et al. och Stojmenovic et al. På senare tid har Marks et al föreslagit ett evolutionärt sökförfarande. I detta dokument presenterar vi tre olika heltal programmeringsmodeller som kan användas för en optimal lösning av minsta effekt sändning/multicast problem i trådlösa nätverk. Modellerna förutsätter fullständig kunskap om distansmatrisen och lämpar sig därför bäst för nätverk där nodernas placeringar är fasta. | Das m.fl. REF presenterade tre olika heltalsprogrammeringsmodeller som skulle kunna användas för en optimal lösning av minsta energisändnings-/multisändningsproblem i trådlösa nät. | 17,493,904 | Minimum power broadcast trees for wireless networks: integer programming formulations | {'venue': 'IEEE INFOCOM 2003. Twenty-second Annual Joint Conference of the IEEE Computer and Communications Societies (IEEE Cat. No.03CH37428)', 'journal': 'IEEE INFOCOM 2003. Twenty-second Annual Joint Conference of the IEEE Computer and Communications Societies (IEEE Cat. No.03CH37428)', 'mag_field_of_study': ['Computer Science']} | 10,092 |
Abstract-In storskalig peer-to-peer (P2P) live streaming system med ett begränsat utbud av server bandbredd, ökar mängden uppladdning bandbredd som tillhandahålls av peers blir kritiskt viktigt för "väl" av streaming sessioner i live-kanaler. Intuitivt, två typer av kamrater föredras att hållas upp i en live session: kamrater som bidrar med en högre andel av sin uppladdningskapacitet, och kamrater som är stabila under en lång tid. Den grundläggande utmaningen är att identifiera, och tillfredsställa behoven hos, dessa typer av "överlägsna" kamrater i en live session, och att uppnå detta mål med minimal störning till de traditionella pull-baserade protokoll som verkliga live streaming protokoll använder. I detta dokument genomför vi en omfattande och djupgående statistisk analys baserad på mer än 130 GB runtime spår från hundratals strömmande kanaler i ett storskaligt realtid live streaming system, UUSee (bland de tre främsta kommersiella system i popularitet i Fastlandskina). Vårt mål är att upptäcka kritiska faktorer som kan påverka deltagarnas livslängd och bandbredd, med hjälp av överlevnadsanalystekniker som Cox proportionella riskmodell och Mantel-Haenszel-testet. När dessa inflytelserika faktorer väl har hittats, kan de användas för att bilda ett överlägsenhetsindex för att destillera överlägsna kamrater från den allmänna peer befolkningen. Indexet kan användas på alla sätt för att gynna överlägsna kamrater, och vi simulerar användningen av en enkel rankningsmekanism i en naturlig urvalsalgoritm för att visa effektiviteten av indexet, baserat på en replay av verkliga spår från UUSee. | Liu m.fl. REF diskuterar hur man destillerar överlägsna kamrater i P2P streaming system, de föreslår ett kriterium för att få de normala kamrater med bättre kapacitet i P2P streaming system. | 6,709,007 | Distilling Superior Peers in Large-Scale P2P Streaming Systems | {'venue': 'IEEE INFOCOM 2009', 'journal': 'IEEE INFOCOM 2009', 'mag_field_of_study': ['Computer Science']} | 10,095 |
Abstract-This paper presenterar en ny stokastisk markerad punkt process för att beskriva bilder i termer av ett ändligt bibliotek av geometriska objekt. Bildanalys baserad på konventionella markerade punktprocesser har redan gett övertygande resultat men på bekostnad av parameterinställning, beräkningstid och modellspecifikitet. Vår mer allmänna multimarkerade punktprocess har enklare parameterinställning, ger i synnerhet kortare datortider, och kan tillämpas på en mängd olika applikationer. Både linjära och areala primitiver som extraheras från ett bibliotek av geometriska objekt matchas till en given bild med hjälp av en probabilistisk Gibbs-modell, och en Jump-Diffusion process utförs för att söka efter den optimala objektkonfigurationen. Experiment med fjärrförnimmade bilder och naturliga texturer visar att det föreslagna tillvägagångssättet har god potential. Vi avslutar med en diskussion om införandet av mer komplexa objektinteraktioner i modellen genom att studera kompromissen mellan modellkomplexitet och effektivitet. | REF föreslår en mer allmän MPP kallad multi-marked punkt process, som kan tillämpas på ett stort antal tillämpningar utan att ändra den underliggande modellen. | 10,802,147 | Geometric Feature Extraction by a Multimarked Point Process | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Medicine', 'Computer Science']} | 10,096 |
Abstract-Wireless sensor nätverk (WSNs) är händelsebaserade system som förlitar sig på kollektiva insatser av flera mikrosensor noder. Tillförlitlig händelsedetektering vid diskbänken baseras på kollektiv information som tillhandahålls av källnoder och inte på någon enskild rapport. Konventionella definitioner och lösningar från början till slut är dock inte tillämpliga i WSN-systemet och skulle endast leda till slöseri med knappa sensorresurser. Därför kräver WSN-paradigmet ett kollektivt tillförlitlighetsbegrepp för händelser snarare än det traditionella end-to-end-begreppet. Såvitt vi vet har tillförlitlig transport i WSN inte studerats ur detta perspektiv tidigare. För att tillgodose detta behov presenteras i detta dokument ett nytt tillförlitligt transportsystem för WSN, protokollet om tillfredsställande transport (ESRT) från fall till fall. ESRT är en ny transportlösning som utvecklats för att uppnå tillförlitlig händelsedetektering i WSN med minsta energiförbrukning. Den innehåller en komponent för kontroll av överbelastning som tjänar det dubbla syftet att uppnå tillförlitlighet och bevara energi. Viktigt är att algoritmerna för ESRT huvudsakligen körs på diskbänken, med minimal funktionalitet som krävs vid resursbegränsade sensornoder. ESRT-protokollets drift bestäms av det nuvarande nätets tillstånd baserat på den tillförlitlighet som uppnås och överbelastningsförhållandena i nätet. Denna självkonfigurerande typ av ESRT gör den robust till slumpmässig, dynamisk topologi i WSN. Dessutom kan ESRT även rymma flera samtidiga händelser i ett trådlöst sensorfält. Analysresultat och simuleringsresultat visar att ESRT konvergerar till önskad tillförlitlighet med minsta energiförbrukning, med början i alla ursprungliga nättillstånd. | Tillförlitlig transport (ESRT-protokollet) som presenteras i REF ) omfattar en mekanism för kontroll av överbelastning som är tillförlitlig och sparar energi. | 14,376,924 | Event-to-sink reliable transport in wireless sensor networks | {'venue': 'IEEE/ACM Transactions on Networking', 'journal': 'IEEE/ACM Transactions on Networking', 'mag_field_of_study': ['Computer Science']} | 10,097 |
Ett experiment presenteras som jämför effekterna av olika virtuella resetekniker i en uppslukande virtuell miljö (VE) på användarnas rumsliga orientering. Experimentet utformades och genomfördes inom ramen för en formell ram för utformning och utvärdering av VE:s reseteknik. Subjekt reste genom virtuella korridorer och noterade platsen för objekt längs vägen, och ombads peka i riktning mot ett av dessa objekt när slutet av korridoren nåddes. Resultaten visar att virtuella resetekniker, där användare inte fysiskt översätter sina kroppar, kan möjliggöra underhåll av en användares rumsliga orientering mätt med en pekande uppgift. Experimentet replikerar också ett tidigare resultat, vilket visar att vägdimensionen i hög grad påverkar användarens prestanda. Slutligen har de strategier som används av försökspersoner för att utföra uppgiften visat sig vara betydande, vilket tyder på att prestanda beror inte bara på teknik, miljö, och uppgift, men också på sofistikering av användaren. | I en andra studie, Bowman et al. studerade effekterna av olika resetekniker på den rumsliga orienteringen REF för användare inom immersiva VR-miljöer. | 16,925,876 | Maintaining Spatial Orientation during Travel in an Immersive Virtual Environment | {'venue': 'Presence', 'journal': 'Presence', 'mag_field_of_study': ['Computer Science']} | 10,098 |
Siktar. Syftet med studien var att undersöka skillnaderna mellan adenosin, adenin, inosin, xantin, hypoxantin och urinsyrakoncentrationer hos patienter med diabetes mellitus typ 2 och diabetesretinopati och bedöma sambandet mellan purinmetaboliter och sjukdom. Material och metoder. Studiegruppen bestod av 114 försökspersoner som var uppdelade i tre grupper: kontroll (= 40), typ 2-diabetes utan retinopati (= 35) och typ 2-diabetes med retinopati (= 39). Nivåer av metaboliter mättes i plasma av alla deltagare. Resultat. Det finns en signifikant ökning av nivåerna av adenosin (0,94 ± 0,17 mg/l jämfört med 0,17 ± 0,01 mg/l, < 0,001), inosin (0,297 ± 0,078 mg/l jämfört med 0,086 ± 0,010 mg/l, < 0,001), xantin (1,01 ± 0,21 mg/l jämfört med 0,54 ± 0,05 mg/l, = 0,009) och urinsyra (70,55 ± 3,97 mg/l jämfört med 53,81 ± 2,36 mg/l, < 0,001) med diabetesretinopati jämfört med diabetes mellitus. Nivåerna av adenin, hypoxantin och xantinoxidas förändrades inte. Urinsyra, xantin, inosin och adenosin korrelerade positivt med systoliskt blodtryck och ureakväve. Slutsatser. Nivåerna av adenosin, inosin, urinsyra och xantin kan vara användbara för att övervaka progression av diabetesretinopati och utvärdera behandlingen. | I REF vidtogs olika åtgärder för att identifiera koncentrationerna hos patienter med diabetes mellitus typ 2 och diabetesretinopati och mätte signifikant sambandet mellan purinmetaboliter och sjukdom. | 6,064,594 | Association between Related Purine Metabolites and Diabetic Retinopathy in Type 2 Diabetic Patients | {'venue': 'International Journal of Endocrinology', 'journal': 'International Journal of Endocrinology', 'mag_field_of_study': ['Medicine']} | 10,099 |
Nuvarande bildtextmetoder tränas vanligen genom maximal sannolikhetsuppskattning. Emellertid korrelerar log-likelihood poäng för en bildtext inte väl med mänskliga bedömningar av kvalitet. Standardvärden för syntaktisk utvärdering, såsom BLEU, METEOR och ROUGE, är inte heller väl korrelerade. De nyare SPICE- och CIDER-måtten är bättre korrelerade, men har traditionellt varit svåra att optimera för. I detta papper visar vi hur man använder en policy gradient (PG) metod för att direkt optimera en linjär kombination av SPICE och CIDER (en kombination vi kallar SPIDER): SPICE score säkerställer att våra bildtexter är semantiskt trogen bilden, medan CIDER score säkerställer att våra bildtexter är syntaktiskt flytande. Den PG metod vi föreslår förbättrar på tidigare MIXER tillvägagångssätt, genom att använda Monte Carlo rollouts i stället för att blanda MLE utbildning med PG. Vi visar empiriskt att vår algoritm leder till enklare optimering och bättre resultat jämfört med MIXER. Slutligen visar vi att med hjälp av vår PG-metod kan vi optimera någon av mätvärdena, inklusive den föreslagna SPIDER metriska som resulterar i bildtexter som starkt föredras av mänskliga taxrar jämfört med bildtexter som genereras av samma modell men tränas för att optimera MLE eller COCO mätvärden. | REF använder en kombination av olika mätvärden som belöning. | 3,873,857 | Improved Image Captioning via Policy Gradient optimization of SPIDEr | {'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 10,100 |
Befintliga "nollshot learning" (ZSL)-modeller lär sig vanligtvis en projektionsfunktion från ett funktionsutrymme till ett semantiskt inbäddningsutrymme (t.ex. Egenskapsutrymme. En sådan projektionsfunktion handlar dock endast om att förutsäga den semantiska utbildningen (t.ex. Attributförutsägelse) eller klassificering. När en ZSL-modell appliceras på testdata, som inom ramen för ZSL innehåller olika (osedda) klasser utan träningsdata, lider den vanligtvis av problem med projektdomänbytet. I detta arbete presenterar vi en ny lösning till ZSL baserad på att lära sig en Semantic AutoEncoder (SAE). Med encoder-dekoder paradigm, en kodare syftar till att projicera en visuell funktion vektor i det semantiska utrymmet som i de befintliga ZSL-modellerna. Dekodern har dock ytterligare en begränsning, dvs. projektionen/koden måste kunna rekonstruera den ursprungliga visuella funktionen. Vi visar att med denna ytterligare återuppbyggnadsrestriktion kan den lärda projektionsfunktionen från de synliga klasserna generalisera bättre till de nya osynliga klasserna. Viktigt är att kodaren och dekodern är linjära och symmetriska vilket gör att vi kan utveckla en extremt effektiv inlärningsalgoritm. Omfattande experiment på sex referensdatauppsättningar visar att den föreslagna SAE överträffar de befintliga ZSL-modellerna avsevärt med den ytterligare fördelen av lägre beräkningskostnader. Dessutom, när SAE tillämpas på övervakad klusterbildning problem, det slår också state-of-the-art. | SAE REF lägger till en autoencoder förlust till projektionen som uppmuntrar rekonstruering från attribut utrymme till det visuella utrymmet. | 2,633,144 | Semantic Autoencoder for Zero-Shot Learning | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 10,101 |
Multi-atlas segmentering (MAS), först introduceras och populariseras av banbrytande arbete Rohlfing, Brandt, Menzel och Maurer Jr (2004), Klein, Mensh, Ghosh, Tourville och Hirsch (2005), och Heckemann, Hajnal, Aljabar, Rueckert och Hammers (2006), blir en av de mest använda och framgångsrika bildsegmentering tekniker i biomedicinska tillämpningar. Genom att manipulera och utnyttja hela datauppsättningen av "atlaser" (utbildningsbilder som tidigare har märkts, t.ex. manuellt av en expert), snarare än någon modellbaserad genomsnittlig representation, MAS har flexibiliteten att bättre fånga anatomisk variation, vilket ger överlägsen segmenteringsnoggrannhet. Denna fördel kommer dock vanligtvis till en hög beräkningskostnad. Den senaste tidens framsteg inom hårdvara och programvara för bildbehandling har varit avgörande för att ta itu med denna utmaning och underlättat ett brett antagande av MAS. Idag har MAS kommit långt och tillvägagångssättet omfattar ett brett utbud av sofistikerade algoritmer som använder idéer från bland annat maskininlärning, probabilistisk modellering, optimering och datorseende. I denna rapport presenteras en undersökning av publicerade MAS-algoritmer och studier som har tillämpat dessa metoder på olika biomedicinska problem. Genom att skriva denna undersökning har vi tre tydliga mål. Vårt främsta mål är att dokumentera hur MAS ursprungligen skapades, senare utvecklades, och nu relaterar till alternativa metoder. För det andra är detta dokument avsett att vara en detaljerad hänvisning till tidigare forskningsverksamhet i MAS, som i stort sett sträcker sig över ett decennium (2003–juni 2014) och medför nya metodologiska utvecklingar och tillämpningsspecifika lösningar. Slutligen är vårt mål att också presentera ett perspektiv på framtiden för MAS, som vi tror kommer att vara en av de dominerande strategierna inom biomedicinsk bildsegmentering. | För en omfattande undersökning av fleratlassegmenteringsmetoder och deras tillämpningar, se REF. | 3,644,401 | Multi-Atlas Segmentation of Biomedical Images: A Survey | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 10,102 |
3D-objektdetektering från monokulära bilder har visat sig vara en enormt utmanande uppgift, med prestanda av ledande system ännu inte uppnå ens 10% av LiDAR-baserade motsvarigheter. En förklaring till detta prestandagap är att befintliga system helt och hållet är i händerna på perspektivets bildbaserade representation, där objektens utseende och skala varierar drastiskt med djup och meningsfulla avstånd är svåra att dra slutsatsen. I detta arbete hävdar vi att förmågan att resonera om världen i 3D är en viktig del av 3D objektdetektion uppgift. I detta syfte introducerar vi den ortografiska funktionen transform, vilket gör att vi kan fly från bilddomänen genom att mappa bildbaserade funktioner till ett ortografiskt 3D-utrymme. Detta gör att vi kan resonera holistiskt om den rumsliga konfigurationen av scenen i en domän där skalan är konsekvent och avstånden mellan objekten är meningsfulla. Vi tillämpar denna omvandling som en del av en end-to-end djupgående lärande arkitektur och uppnå state-of-the-art prestanda på KITTI 3D-objektriktmärket. | OFTNet REF anser att en ortografisk funktion omvandlar till en 3D voxel-karta för att kartlägga bildnivåfunktioner. | 53,755,805 | Orthographic Feature Transform for Monocular 3D Object Detection | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 10,103 |
Sammanfattning av denna webbsida: Service Level Agreements (SLA) är för närvarande en av de viktigaste forskningsämnena inom nätdata, eftersom de fungerar som en grund för ett tillförlitligt och förutsägbart jobbgenomförande på avlägsna nätplatser. I SLA-sammanhang spelar felåterställning en viktig roll eftersom det gör systemet mer tillförlitligt och stabilt, två framträdande tecken på ett system som stöder SLA för rutnätsbaserade arbetsflöden. I det här dokumentet beskriver vi en felåterställningsmekanism för arbetsflöde inom SLA-sammanhanget, som hanterar katastrofala fel när ett eller flera högpresterande datorcenter (HPCC) lossnar från rutnätet. Vi föreslog algoritmen för att upptäcka alla berörda deljobb när felet inträffar och algoritmen för att mappa dessa deljobb till de återstående friska resurshanteringssystem (RMS) med makespan optimera. Den föreslagna metodens effektivitet bevisas genom simulering. Experimentresultatet visar att vår mekanism upptäcker en lösning av högre kvalitet på kortare tid än andra befintliga metoder. | Experimentresultaten visar att kvaliteten på de lösningar som hittas av dessa algoritmer inte är tillräcklig REF. | 2,110,781 | Error recovery mechanism for grid-based workflow within SLA context | {'venue': 'International Journal of High Performance Computing and Networking (IJHPCN', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,104 |
I detta dokument föreslår vi en ny metod för att upptäcka text i naturliga bilder. Både lokala och globala riktlinjer beaktas för lokalisering av textrader i en grov-till-fin procedur. För det första tränas en modell för Fully Convolutional Network (FCN) för att förutsäga den framträdande kartan över textregioner på ett holistiskt sätt. Därefter, textrad hypoteser uppskattas genom att kombinera den framträdande kartan och teckenkomponenter. Slutligen, en annan FCN klassificerare används för att förutsäga centroiden av varje tecken, för att ta bort falska hypoteser. Ramverket är allmänt för hantering av text i flera riktningar, språk och teckensnitt. Den föreslagna metoden uppnår konsekvent den senaste prestandan på tre referensvärden för upptäckt av text: MSRA-TD500, ICDAR2015 och ICDAR2013. | Zhang m.fl. REF föreslår Text-Block FCN för att generera text framträdande kartor och Character-Centroid FCN för att förutsäga centroid tecken. | 2,214,682 | Multi-oriented Text Detection with Fully Convolutional Networks | {'venue': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 10,105 |
Query Focused Summarization (QFS) har oftast behandlats med utvinningsmetoder. Sådana metoder ger emellertid upphov till en text som är bristfälligt sammanhållen. Vi undersöker hur abstrakta metoder kan tillämpas på QFS, för att övervinna sådana begränsningar. Den senaste utvecklingen i neural-attention baserade sekvens-till-sekvens modeller har lett till state-of-the-art resultat på uppgiften att abstrakta generiska enstaka dokument sammanfattning. Sådana modeller tränas i slutet till slutet metod på stora mängder träningsdata. Vi tar upp tre aspekter för att göra abstrakt sammanfattning tillämplig på QFS: (a) eftersom det inte finns några träningsdata, vi införlivar frågerelevans i en förtränad abstraktiv modell; (b) eftersom befintliga abstrakta modeller tränas i en enda dokumentmiljö, utformar vi en itererad metod för att inbädda abstrakta modeller i flerdokumentskravet i QFS; (c) de abstrakta modeller vi anpassar tränas för att generera text av specifik längd (ca 100 ord), medan vi strävar efter att generera produktion av en annan storlek (ca 250 ord); vi utformar ett sätt att anpassa målstorleken på de genererade sammanfattningarna till en given storlekskvot. Vi jämför vår metod (Relevans Känslig Uppmärksamhet för QFS) med utvinningsbaslinjer och med olika sätt att kombinera abstrakta modeller på DUC QFS-dataseten och uppvisa solida förbättringar av ROUGE-prestanda. | REF införlivar frågerelevans i standardsekvens-till-sekvens-modeller. | 8,599,292 | Query Focused Abstractive Summarization: Incorporating Query Relevance, Multi-Document Coverage, and Summary Length Constraints into seq2seq Models | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 10,107 |
Abstract-Initialiseringen av statens uppskattning i en lokalisering scenario baserat på spännande och död räkning studeras. Specifikt behandlar vi en kooperativ localization setup och överväga problemet med rekursivt anländer till en unimodal stat uppskattning med tillräckligt låg kovarians sådan att covariance baserade filter kan användas för att uppskatta en agent tillstånd senare. Initialiseringen av positionen för en ankarnod kommer att vara ett speciellt fall av detta. Ett antal förenklingar/antaganden görs så att estimeringsproblemet kan ses som att uppskatta det ursprungliga agenttillståndet med en deterministisk omgivande och död räkning. Detta problem löses med hjälp av ett partikelfilter och det beskrivs hur kontinuerliga tillstånd och covariansuppskattningar härleds från lösningen. Slutligen används simuleringar för att illustrera metodens egenskaper och experimentella data presenteras kortfattat. | Upphovsmän i REF föreslår ett tillvägagångssätt för att initiera orienteringen av en agent baserad på omfattande och död räkning. | 13,156,815 | Recursive Bayesian initialization of localization based on ranging and dead reckoning | {'venue': '2013 IEEE/RSJ International Conference on Intelligent Robots and Systems', 'journal': '2013 IEEE/RSJ International Conference on Intelligent Robots and Systems', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 10,108 |
Abstract-We introducerar en samarbetsdriven strategi för delning av tillgänglig bandbredd i trådlösa ad hoc-nätverk, som vi kallar många-till-många samarbeten, som möjliggör samtidig många-till-många kommunikation. Detta system bygger på integrering av information om detektering av flera användare och positionslokalisering med frekvens- och koddelning i mobila ad hoc-nät. Transmissioner är uppdelade i frekvens och koder enligt nodala platser, och successiv störningsavstängning (SIC) används vid mottagare för att göra det möjligt för dem att avkoda och använda alla transmissioner från starka störande källor. Följaktligen är interferensen uppdelad i konstruktiv interferens (COI) och destruktiv interferens (DEI). Vi visar att, om varje nod tillåts att expandera sin bandbredd, både länkens Shannon kapacitet och per källa-destination genomströmning skala som O(n α 2 ) (övergående) och på (f (n)) (nedre-bundet), för n noder i nätverket, en väg förlust parameter α > 2, och 1 ≤ f (n) < n α 2. Många-till-många samarbete möjliggör multi-kopiering av samma paket, vilket minskar paketleverans fördröjning jämfört med en-kopiering relä utan någon påföljd i kapacitet. | Samarbetet kan utvidgas till att omfatta samtidig överföring och mottagning vid de olika noderna i nätverket, vilket kan leda till betydande kapacitetsförbättringar REF. | 15,432,188 | Many-to-Many Communication: A New Approach for Collaboration in MANETs | {'venue': 'IEEE INFOCOM 2007 - 26th IEEE International Conference on Computer Communications', 'journal': 'IEEE INFOCOM 2007 - 26th IEEE International Conference on Computer Communications', 'mag_field_of_study': ['Computer Science', 'Engineering']} | 10,109 |
ABSTRACT Mobile edge computing (MEC) är ett lovande paradigm för att tillhandahålla molnkomputeringskapacitet i nära anslutning till mobila enheter i femte generationens (5G) nätverk. I detta dokument studerar vi energieffektiva avlastningsmekanismer (ECO) för MEC i 5G heterogena nät. Vi formulerar ett optimeringsproblem för att minimera energiförbrukningen i avlastningssystemet, där energikostnaden för både uppgiftsdatorer och filöverföring beaktas. Inbegripet 5G heterogena näts multiaccessegenskaper utformar vi sedan ett ECO-system som tillsammans optimerar avlastning och tilldelning av radioresurser för att uppnå en minimal energiförbrukning under latensbegränsningarna. Numeriska resultat visar en förbättring av energieffektiviteten i vårt föreslagna ECO-system. INDEX TERMS Energieffektivitet, avlastning, beräkning av mobila kanter, 5G. | I Ref föreslår författarna en energieffektiv avlastningsmekanism för beräkning, som tillsammans optimerar avlastning av uppgifter och tilldelning av radioresurser för att uppnå minsta energiförbrukning under fördröjningsbegränsningar. | 18,366,887 | Energy-Efficient Offloading for Mobile Edge Computing in 5G Heterogeneous Networks | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 10,110 |
Clustering är centralt för många datadrivna applikationsdomäner och har studerats i stor utsträckning när det gäller avståndsfunktioner och grupperingsalgoritmer. Relativt lite arbete har fokuserat på lärande representationer för kluster. I detta dokument föreslår vi Deep Embedded Clustering (DEC), en metod som samtidigt lär sig funktion representationer och klusteruppdrag med hjälp av djupa neurala nätverk. Dec lär sig en kartläggning från datarymden till ett mindre dimensionellt funktionsutrymme där det iterativt optimerar ett klustermål. Våra experimentella utvärderingar av bild och text corpora visar betydande förbättringar jämfört med toppmoderna metoder. | I REF, Xie et al. presenterade Deep Embedded Clustering (DEC) för att lära sig en kartläggning från datarymden till ett mindre dimensionellt funktionsutrymme, där det iterativt optimerar en KullbackLeibler (KL) divergensbaserat klustermål. | 6,779,105 | Unsupervised Deep Embedding for Clustering Analysis | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 10,111 |
Abstrakt. I detta arbete presenterar vi en ny metod för massdetektering i digitala mammografier. Den stora variationen i massornas utseende är det största hindret för att bygga en massdetekteringsmetod. Det är verkligen krävande att karakterisera alla typer av massor med en reducerad uppsättning funktioner. Därför har vi i vårt tillvägagångssätt valt att inte ta fram några inslag för att upptäcka den region som är av intresse; tvärtom utnyttjar vi all information som finns tillgänglig på bilden. En flerupplösning överfullständig wavelet representation utförs, för att kodifiera bilden med redundans av information. Vektorerna för det mycket stora utrymme som erhålls ges sedan till en första SVM klassificering. Detektionsuppgiften betraktas här som ett tvåklassigt mönsterigenkänningsproblem: grödor klassificeras som misstänkta eller inte, genom att använda denna SVM-klassificering. Falska kandidater elimineras med en andra kaskad SVM. För att ytterligare minska antalet falska positiva, tillämpas en grupp experter: de slutliga misstänkta regionerna uppnås med hjälp av en omröstningsstrategi. Känsligheten i det presenterade systemet är nästan 80% med en falsk-positiv hastighet på 1,1 mark per bild, uppskattas på bilder som kommer från USF DDSM-databasen. | Campanini et al REF presenterade en metod för att upptäcka massor i digitala mammografier som når en känslighet runt 80%, med en falskt positiv hastighet på 1,1 mark per bild. | 14,187,059 | A novel featureless approach to mass detection in digital mammograms based on Support Vector Machines | {'venue': 'ICRA (1)', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Medicine']} | 10,112 |
Med den ökande populariteten av cloud computing, är enorma mängder dokument outsourcade till molnet för minskad förvaltning kostnad och enkel tillgång. Även om kryptering hjälper till att skydda användarnas datasekretess, det lämnar väl fungerande men praktiskt effektiva säkra sökfunktioner över krypterade data ett utmanande problem. I detta dokument presenterar vi en integritetsbevarande multi-keyword text search (MTS) system med likhetsbaserad ranking för att ta itu med detta problem. För att stödja multi-keyword sökning och sökresultat ranking, föreslår vi att bygga sökindex baserat på termfrekvens och vektorrymd modell med cosinus likhet mått för att uppnå högre träffsäkerhet. För att förbättra sökeffektiviteten föreslår vi en trädbaserad indexstruktur och olika anpassningsmetoder för multidimensionell (MD) algoritm så att den praktiska sökeffektiviteten är mycket bättre än linjär sökning. För att ytterligare förbättra sökintegriteten föreslår vi två säkra indexsystem för att uppfylla de stränga integritetskraven under starka hotmodeller, dvs. känd chiffertextmodell och känd bakgrundsmodell. Slutligen visar vi att de föreslagna systemen är effektiva och ändamålsenliga genom en omfattande experimentell utvärdering. | Nyligen, Cao et al. REF beskrev en sekretessbevarande flerordstextsökningsprotokoll i molninställningen som stöder på liknande sätt baserad rankning. | 7,284,400 | Privacy-preserving multi-keyword text search in the cloud supporting similarity-based ranking | {'venue': "ASIA CCS '13", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,113 |
Vi presenterar en enkel men användbar teknik för att förfina kontrollstrukturen av loopar som förekommer i tvingande program. Loopar som innehåller komplext kontrollflöde är vanliga i synkrona inbyggda styrenheter som härrör från modellering av språk som Lustre, Esterel och Simulink/Stateflow. Vår strategi använder en uppsättning etiketter för att skilja olika kontrollvägar inom en given slinga. Iterationer av loopen är abstrakt som en ändlig stat automaton över dessa etiketter. Därefter använder vi statiska analystekniker för att identifiera ogenomförbara iterationssekvenser och subtrahera sådana förbjudna sekvenser från det ursprungliga språket för att erhålla en förfining. I praktiken förenklar förfiningen av kontrollflödessekvenserna ofta kontrollflödets mönster i slingan. Vi har tillämpat förfiningstekniken för att förbättra precisionen i den abstrakta tolkningen i närvaro av breddning. Våra experiment på en uppsättning komplexa reaktiva loop riktmärken visar tydligt nyttan av våra förfiningsmetoder. Abstraction tolkning med vår förfining teknik kunde verifiera alla egenskaper för 10 av de 13 riktmärken, medan abstraktion tolkning utan förfining kunde verifiera endast fyra. Andra potentiellt användbara tillämpningar inkluderar termineringsanalys och omvända tekniska modeller från källkod. | Senare metoder för att förfina kontrollstrukturen för reaktiva noder inkluderar REF. | 540,797 | Refining the control structure of loops using static analysis | {'venue': "EMSOFT '09", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,114 |
Sekvens-till-sekvens modeller med uppmärksamhet har varit framgångsrika för en mängd olika NLP-problem, men deras hastighet inte skala väl för uppgifter med långa källsekvenser såsom dokumentsammanfattning. Vi föreslår en ny grov-till-fin uppmärksamhet modell som hierarkiskt läser ett dokument, med grov uppmärksamhet för att välja toppnivå bitar av text och fin uppmärksamhet för att läsa orden i de valda bitarna. Medan beräkning för utbildning standard uppmärksamhet modellerar skalar linjärt med källsekvens längd, vår metod skalor med antalet toppnivå bitar och kan hantera mycket längre sekvenser. Empiriskt, vi finner att medan grov-tofine uppmärksamhet modeller släpar efter state-of-art basics, vår metod uppnår önskad beteende glest att delta i undergrupper av dokumentet för generation. | REF koda dokumentet hierarkiskt och föreslå grov-till-fin uppmärksamhet för dekoder. | 27,970,287 | Coarse-to-Fine Attention Models for Document Summarization | {'venue': 'NFiS@EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,115 |
Att hitta mönster för social interaktion inom en befolkning har vittomfattande tillämpningar, bland annat: sjukdomsmodellering, kulturell och informationsöverföring och beteendeekologi. Sociala interaktioner modelleras ofta med nätverk. En viktig egenskap hos sociala interaktioner är deras ständiga förändring. De flesta tidigare analyser av sociala nätverk är dock i huvudsak statiska eftersom all information om den tid som sociala interaktioner äger rum förkastas. I detta dokument föreslår vi en ny matematisk och beräkningsram som möjliggör analys av dynamiska sociala nätverk och som uttryckligen använder sig av information om när sociala interaktioner uppstår. | Berger- REF föreslår en matematisk och beräkningsram som gör det möjligt att följa utvecklingen av samhällen. | 2,837,547 | A framework for analysis of dynamic social networks | {'venue': "KDD '06", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,116 |
Webbplatser som besvarar frågor, där grupper av volontärer svarar på frågor, kan tillhandahålla snabbare, billigare och bättre tjänster än traditionella institutioner. I likhet med andra Web 2.0-plattformar väcker dock användarskapat innehåll farhågor om informationens kvalitet. Samtidigt kan Q&A-webbplatser ge svar av olika kvalitet eftersom de har olika samhällen och tekniska plattformar. I detta dokument jämförs svarskvalitet på fyra Q&A-webbplatser: Askville, WikiAnswers, Wikipedia Reference Desk och Yahoo! Svar. Resultaten visar att 1) användningen av liknande samarbetsprocesser på dessa platser resulterar i ett brett spektrum av resultat. Betydande skillnader i svarsnoggrannhet, fullständighet och verifiabilitet hittades; 2) svar multiplikation resulterar inte alltid i bättre information. Svar multiplikation ger mer kompletta och kontrollerbara svar men inte resulterar i högre noggrannhetsnivåer, och 3) en Q&A webbplats popularitet inte korrelerar med dess svar kvalitet, på alla tre åtgärder. | När Fichman jämförde svarskvalitet mellan fyra Q&A-platser bestämdes begreppet svarskvalitet av tillförlitligheten som konstruerats genom tre specifika åtgärder: noggrannhet, fullständighet och verifiability REF. | 9,339,432 | A comparative assessment of answer quality on four question answering sites | {'venue': 'J. Inf. Sci.', 'journal': 'J. Inf. Sci.', 'mag_field_of_study': ['Computer Science']} | 10,117 |
Abstrakt. Detta dokument presenterar en felande länk mellan Plotkins minst generella generaliseringsformalism och generalisering på stiftelsen Order Sorterad Feature (FOS). En funktionsbegrepp (eller -term) är en utökad logisk term baserad på beställda typer och är en normal form av en FOS-term. En axiomatic definition av på sikt generalisering ges som en uppsättning FOS-klausul generalisering regler och den minst generalitet av den axiomatiska definitionen bevisas i betydelsen av Plotkin minsta generalisering (lgg). Definitionens riktighet anges på grundval av den axiomatiska grunden. En operativ definition av den minsta generaliseringen av klausuler som bygger på villkor visas också som ett förverkligande av den axiomatiska definitionen. | En operativ definition av den minsta generaliseringen av klausuler baserade på (ordningssorterade) särdrag ges i REF. | 13,378,017 | An Axiomatic Approach to Feature Term Generalization | {'venue': 'ECML', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,118 |
Abstrakt. Trots intresset för AHS finns det inte så många tillämpningar som man kan förvänta sig. Vi har tidigare pekat på problemet att förlita sig på svårigheten med AHS författare. Adaptiva funktioner som har införts och genomförts framgångsrikt fram till nu är ofta för finkorniga, och en författare lätt förlorar översikten. I detta dokument införs en treskiktsmodell och klassificeringsmetod för adaptiv teknik: direkta anpassningsregler, anpassningsspråk och anpassningsstrategier. Fördelarna med denna modell är tvåfaldiga: å ena sidan kan man exakt fastställa storleken på författandet av adaptiv hypermedia, och författarna kan därför arbeta på den lämpligaste nivån för dem. Å andra sidan är detta ett steg mot standardisering av adaptiva tekniker, särskilt genom att gruppera dem i ett anpassningsspråk eller strategier på högre nivå. På detta sätt kan inte bara adaptiv hypermedia författarskap, men också adaptiva tekniker utbyte mellan adaptiva applikationer aktiveras. | Det syftar också till att hjälpa författarna till adaptiv hypermedia genom att ge dem högre nivå "handlers" av låg nivå anpassningsteknik REF. | 3,792,163 | The three Layers of Adaptation Granularity | {'venue': 'ICWE', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,119 |
Flera senaste publikationer har föreslagit metoder för att kartlägga bilder i kontinuerliga semantiska inbäddningsutrymmen. I vissa fall tränas inbäddningsutrymmet tillsammans med bildomvandlingen. I andra fall etableras det semantiska inbäddningsutrymmet genom ett självständigt naturligt språkarbete, och sedan lär man sig bildens omvandling till det rummet i ett andra steg. Förespråkarna för dessa bildinbäddningssystem har betonat sina fördelar jämfört med den traditionella n-way klassificeringen inramning av bildförståelse, särskilt när det gäller löftet om noll-shot lärande - förmågan att korrekt kommentera bilder av tidigare osynliga objekt kategorier. I detta dokument föreslår vi en enkel metod för att bygga ett bildinbäddningssystem från alla befintliga n-way bildklassificeringssystem och en semantisk ordingivande modell, som innehåller n-klassetiketter i sitt ordförråd. Vår metod kartlägger bilder in i det semantiska inbäddningsutrymmet via konvex kombination av klassetiketten inbäddningsvektorer, och kräver ingen ytterligare utbildning. Vi visar att denna enkla och direkta metod ger många av de fördelar som förknippas med mer komplexa bild inbäddning system, och faktiskt överträffar state of the art metoder på ImageNet noll-shot inlärning uppgift. | Till exempel kartläggs i REF-avbildningar in i ett semantiskt inbäddningsutrymme genom att kombinera klassetiketten med konceptdetekteringsresultaten. | 1,926,319 | Zero-Shot Learning by Convex Combination of Semantic Embeddings | {'venue': None, 'journal': 'arXiv: Learning', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 10,120 |
Abstrakt. Vi visar att allmänna envägsfällor permutationer är tillräckliga för att privat hämta en post från en databas av storlek n med total kommunikations komplexitet strikt mindre än n. Mer specifikt presenterar vi ett protokoll där användaren skickar O(K 2 ) bitar och servern skickar n − cn K bitar (för alla konstant c), där K är säkerhetsparametern för fällan permutationer. Således, för tillräckligt stora databaser (t.ex., när K = n för några små ) vår konstruktion bryter den informationteoretiska lägre-bundna (av minst n bitar). Detta visar att det är möjligt att basera privat insamling av information från en enda server på allmänna antaganden om komplexitet. En viktig konsekvens av vårt resultat är att vi kan genomföra en 1-out-n Obligatorisk överföring protokoll med kommunikation komplexitet strikt mindre än n baserat på varje enkelriktad fälla permutation. | Kushilevitz et al REF visade en enda server PIR-protokoll kan också baseras på envägs fälla permutationer (TDP). | 2,201,034 | One-way trapdoor permutations are sufficient for non-trivial single-server private information retrieval | {'venue': 'In Proc. of EUROCRYPT ’00', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,121 |
Vi presenterar runtime-verktyg för att hjälpa Linux-communityn att verifiera att Linux Security Modules (LSM)-ramverket är korrekt. LSM-ramverket består av en uppsättning behörighetskrokar som infogas i Linuxkärnan för att göra det möjligt att utföra ytterligare behörigheter (t.ex. för obligatorisk åtkomstkontroll). Jämfört med systemanropsinterposition har behörighet inom kärnan både säkerhets- och prestandafördelar, men det är svårare att verifiera att placeringen av LSM-krokarna säkerställer att alla kärnans säkerhetskänsliga operationer är auktoriserade. Vi har undersökt både statiska och runtime analystekniker för denna verifiering, och har funnit dem vara komplementära. Statisk analys är mer komplex att genomföra och tenderar att generera fler falska positiva, men täckning av alla typsäkra genomförandevägar är möjlig. Runtime analys saknar kod och indata täckning av statisk analys, men tenderar att vara enklare att samla in användbar information. Den största förenklingsfaktorn i vår körtidskontrollmetod är att vi kan utnyttja det faktum att de flesta av LSM-krokarna är rätt placerade för att identifiera felplacerade krokar. Våra verktyg för kontroll av körtid samlar in de nuvarande LSM-behörigheterna och hittar inkonsekvenser i dessa behörigheter. Vi beskriver vårt tillvägagångssätt för att utföra runtime-verifiering, utformningen av verktygen som implementerar detta tillvägagångssätt och de onormala situationer som finns i en LSM-patched Linux 2.4.16-kärna. | I REF analyseras riktigheten hos LSM-krokars placering i Linuxkärnan. | 3,126,032 | Runtime verification of authorization hook placement for the linux security modules framework | {'venue': "CCS '02", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,122 |
Koalitionsstrukturens problem är en naturlig abstraktion av en av de viktigaste utmaningarna i multiagentsystem: Hur kan ett antal agenter dela upp sig i grupper för att förbättra sina prestationer? Mer exakt, koalitionsstruktur generation problemet fokuserar på att dela upp uppsättningen av agenter i ömsesidigt osammanhängande koalitioner så att den totala belöningen från de resulterande koalitioner maximeras. Detta problem är datormässigt utmanande, även under ganska restriktiva antaganden. Detta har fått forskare att utveckla en rad algoritmer och heuristiska metoder för att lösa problemet på ett effektivt sätt. I den här artikeln ges en översikt över dessa metoder. I synnerhet undersöker den de viktigaste dynamiska programmetoderna och algoritmer som utvecklats för att skapa koalitionsstruktur, och överväger tekniker som är särskilt utvecklade för en rad kompakta representationssystem för koalitionsspel. Det tar också hänsyn till miljöer där det finns begränsningar för koalitionerna som tillåts bildas, liksom miljöer där bildandet av en koalition kan påverka andra samexisterande koalitioners prestationer. | En undersökning av de olika tillvägagångssätten i denna miljö finns också tillgänglig REF. | 7,882,059 | Coalition structure generation: A survey | {'venue': 'Artif. Intell.', 'journal': 'Artif. Intell.', 'mag_field_of_study': ['Computer Science']} | 10,123 |
Begreppet robusta regleringsnät har fått stor uppmärksamhet under det senaste årtiondet. Ett mått på robusthet har förknippats med volymen i den genomförbara regionen, nämligen regionen i det parameterutrymme där systemet är funktionellt. I detta dokument visar vi att förutom volymen har geometrin i denna region viktiga konsekvenser för ett nätverks robusthet och bräcklighet. Vi utvecklar en approximation inom vilken vi algebraiskt kan specificera den genomförbara regionen. Vi analyserar segmentet polaritet gennätverk för att illustrera vår strategi. Studien av slumpmässiga promenader i parameterutrymmet och hur de lämnar den genomförbara regionen ger oss ett rikt perspektiv på de olika sätten att misslyckas i denna nätverksmodell. I synnerhet fann vi att mellan två alternativa sätt att aktivera Wingless, en är mer robust än den andra. Vår metod ger ett mer komplett mått på robusthet till parametervariation. Som en allmän modellstrategi är vårt tillvägagångssätt ett intressant alternativ till Boolesk representation av biokemiska nätverk. | När det gäller robusthet föreslår Chaves och kollegor i REF ett kvantitativt mått på robusthet som motsvarar volymen av uppsättningen giltiga parametrar i parameterutrymmet. | 712,701 | Shape, Size, and Robustness: Feasible Regions in the Parameter Space of Biochemical Networks | {'venue': 'PLoS Computational Biology', 'journal': 'PLoS Computational Biology', 'mag_field_of_study': ['Biology', 'Medicine', 'Computer Science']} | 10,124 |
Vi föreslår en enhetlig neural nätverk arkitektur och lärande algoritm som kan tillämpas på olika naturliga språk bearbetning uppgifter inklusive: del-av-tal taggning, bitning, namngivna enhet igenkänning, och semantisk roll märkning. Denna mångsidighet uppnås genom att försöka undvika uppgiftsspecifik ingenjörskonst och därmed bortse från en hel del förkunskaper. Istället för att utnyttja konstgjorda inmatningsfunktioner som är noggrant optimerade för varje uppgift, lär sig vårt system interna representationer på grundval av stora mängder mestadels omärkta träningsdata. Detta arbete används sedan som grund för att bygga ett fritt tillgängligt märkningssystem med bra prestanda och minimala beräkningskrav. | Collobert m.fl. REF föreslår en enhetlig neural nätverk arkitektur och lärande algoritm för att göra olika NLP uppgifter och också uppnå ett bättre resultat för NER uppgift. | 351,666 | Natural Language Processing (almost) from Scratch | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 10,125 |
Abstract-We utforskar kameraplanering och energiallokeringsstrategier för livstidsoptimering i bildsensornätverk. För de tillämpningsscenarier som vi överväger erhålls visuell täckning över en övervakad region genom att distribuera trådlösa, batteridrivna bildsensorer. Varje sensorkamera ger täckning över en del av den övervakade regionen och en central processor samordnar sensorerna för att samla in nödvändig visuell data. För att maximera nätverkets operativa livslängd överväger vi två problem i denna inställning: a) schemaläggning av kameran, d.v.s. valet, bland tillgängliga möjligheter, av en uppsättning kameror som ger önskad täckning vid varje tillfälle, och b) energiallokering, d.v.s. fördelningen av total tillgänglig energi mellan kamerasensorn noder. Vi modellerar nätverkets livslängd som en stokastisk slumpvariabel som beror på täckningsgeometrin för sensorerna och distributionen av dataförfrågningar över den övervakade regionen, två nyckelegenskaper som skiljer vårt problem från andra trådlösa sensornätverksapplikationer. Genom att på lämpligt sätt dra nytta av denna modell av nätverkets livstid och använda asymptotisk analys, föreslår vi livstidsmaximering av kameraschemaläggning och energiallokeringsstrategier. Effektiviteten hos de föreslagna strategierna för schemaläggning av kameror och energiallokering valideras genom simuleringar. Index Terms-Camera schemaläggning, energiallokering, bildsensornätverk, nätverkets livslängd, visuell täckning. | Yu m.fl. utvecklar en kamera schemaläggning strategi för att maximera livslängden för de visuella sensornätverk REF. | 763,724 | Camera Scheduling and Energy Allocation for Lifetime Maximization in User-Centric Visual Sensor Networks | {'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Medicine']} | 10,126 |
Abstract-Medan spektrum vid millimetervåg (mmWave) frekvenser är mindre knapp än vid traditionella frekvenser under 6 GHz, är det fortfarande inte obegränsat, särskilt om vi beaktar kraven från andra tjänster som använder samma band och behovet av att licensiera mmWave band till flera mobiloperatörer. Därför är ett effektivt system för spektrumtillträde av avgörande betydelse för att dra största möjliga nytta av framväxande mmWave-teknik. I detta dokument introducerar vi ett nytt system för tillgång till hybridspektrum för mmWave-nät, där datapaket schemaläggs genom två mmWave-bärare med olika egenskaper. I synnerhet anser vi att det rör sig om ett hybridspektrum mellan ett mmWave-band med exklusiv tillgång och ett mmWave-band där spektrumet slås samman mellan flera operatörer. Såvitt vi vet är detta den första studien som föreslår hybridspektrumaccess för mmWave-nät och ger en kvantitativ bedömning av dess fördelar. Våra resultat visar att detta tillvägagångssätt ger fördelar när det gäller traditionella system för fullt licensierad eller fullt poolad spektrumaccess, även om det krävs ytterligare arbete för att uppnå en mer fullständig förståelse av både tekniska och icke-tekniska konsekvenser. | Arbetsreferensen inför ett hybridsystem för spektrumaccess för mmWave-nät, där datapaket schemaläggs genom två mmWave-bärare med olika egenskaper. | 14,092,750 | Hybrid Spectrum Sharing in mmWave Cellular Networks | {'venue': 'IEEE Transactions on Cognitive Communications and Networking, vol. 3, no. 2, pp. 155-168 (June 2017)', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 10,127 |
Abstrakt. Fysisk interaktivitet är en stor utmaning inom humanoid robotik. För att robotar ska kunna fungera i mänskliga miljöer finns det ett trängande behov av att utveckla kontrollarkitekturer som ger de avancerade förmågor och interaktiva färdigheter som behövs för att effektivt interagera med miljön och/eller den mänskliga partnern samtidigt som de utför användbar manipulation och lokomotion. Sådana arkitekturer måste ta itu med problemet med roboten helkroppskontroll i dess mest allmänna form: uppgifts- och helkroppsrörelsesamordning med aktiv kraftkontroll vid kontakter, under olika begränsningar, självkollision och dynamiska hinder. I detta dokument presenterar vi en ram som på ett enhetligt sätt tar upp problemet med helkroppskontroll i samband med flerpunktskontakter, begränsningar och hinder. Effektiviteten hos denna nya formulering illustreras genom omfattande robotdynamiska simuleringar som genomförs i SAI, och den experimentella valideringen av ramverket pågår för närvarande på ASIMO-plattformen. | Dessutom utökade de denna metod till en enhetlig hierarkisk helkroppskontrollram för humanoida robotar i REF. | 8,117,859 | A Unified Framework for Whole-Body Humanoid Robot Control With Multiple Constraints and Contacts | {'venue': 'EUROS', 'journal': None, 'mag_field_of_study': ['Engineering', 'Computer Science']} | 10,128 |
Återuppbyggnad av fragmenterade dokument är fortfarande en stor utmaning. Att skapa ett bättre återuppbyggnadssystem för dokument gör det inte bara möjligt att återvinna information som av misstag gått förlorad utan också att förstå våra begränsningar mot motståndares försök att få tillgång till information. Befintliga metoder för att rekonstruera strimlade dokument antar antingen en övervägande manuell (t.ex. crowd-sourcing) eller en nära automatisk metod. Vi beskriver Deshredder, ett visuellt analytiskt tillvägagångssätt som skalar väl och effektivt införlivar användarinput för att styra återuppbyggnadsprocessen. Deshredder representerar strimlade bitar som tidsserie och använder närmaste granne matchande tekniker som gör det möjligt att matcha både konturer av strimlade bitar samt innehållet i strimlor själva. Ännu viktigare är att Deshredders gränssnitt stöder visuell analys genom användarinteraktion med likhetsmatriser samt montering på högre nivå genom mer komplexa sömfunktioner. Vi identifierar en funktionell uppgift taxonomi som leder till designöverväganden för att bygga deshredding lösningar, och beskriver hur Deshredder applicerar på problem från DARPA Shredder Challenge genom expertutvärderingar. | Butler m.fl. presenterade en visuell analys för att rekonstruera strimlade dokument REF. | 15,245,782 | The Deshredder: A visual analytic approach to reconstructing shredded documents | {'venue': '2012 IEEE Conference on Visual Analytics Science and Technology (VAST)', 'journal': '2012 IEEE Conference on Visual Analytics Science and Technology (VAST)', 'mag_field_of_study': ['Computer Science']} | 10,129 |
I detta dokument analyseras trafikegenskaperna hos, och föreslås en trafikmodell för, Xbox spelet Halo 2. Vårt mål är att hjälpa spelare och nätverksleverantörer att uppskatta mängden trafik som orsakas av spelet och effekten på åtkomstlänkar eller leverantörsnätverk. Det gör det också möjligt för andra forskare att använda en realistisk Halo 2-trafikmodell i nätverkssimuleringar. Vi fokuserar på följande egenskaper: bandbredd, pakethastighet och distribution av paket mellan ankomsttider och paketlängder. Vi jämför resultaten med en tidigare analys av Halo 1 och finner några stora skillnader - klientpaketräntan har minskat, paketstorlekarna har inte längre ett enda fast värde per spel och den genomsnittliga paketstorleken har minskat (så Halo 2 kräver mindre bandbredd). Slutligen utvecklar vi trafiksimuleringsmodeller för Halo 2 och jämför dem med experimentellt erhållna data. | Vi har utvecklat en trafikmodell för Xbox spelet Halo 2 REF. | 1,790,036 | A traffic model for the Xbox game Halo 2 | {'venue': "NOSSDAV '05", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,130 |
Allestädes närvarande system som använder artificiell intelligens eller "AI" har ökat uppmärksamheten på hur dessa system bör regleras. Valet av hur man reglerar AI-system kommer att kräva vård. AI-system har potential att syntetisera stora mängder data, vilket möjliggör större nivåer av personalisering och precision än någonsin tidigare-ansökningar sträcker sig från kliniskt beslutsstöd till autonom körning och prediktivt polisarbete. Som sagt, våra AIs fortsätter att släpa i sunt förnuft resonemang [McCarthy, 1960], och därmed finns det legitima farhågor om avsiktliga och oavsiktliga negativa konsekvenser av AI-system [Bostrom, 2003, Amodei et al., 2016, Sculley et al., 2014. Hur kan vi dra nytta av vad AI-system har att erbjuda, samtidigt hålla dem ansvariga? I detta arbete fokuserar vi på ett verktyg: förklaring. Frågor om en laglig rätt till förklaring från AI-system diskuterades nyligen i EU:s dataskyddsförordning [Goodman and Flaxman, 2016, Wachter et al., 2017a], och därmed tänka noga på när och hur förklaring från AI-system kan förbättra ansvarighet är lägligt. Bra val om när man ska begära förklaring kan bidra till att förhindra negativa konsekvenser från AI-system, medan dåliga val kanske inte bara misslyckas med att hålla AI-system ansvariga men också hindra utvecklingen av välbehövliga välgörande AI-system. Nedan går vi kort igenom aktuella samhälleliga, moraliska och rättsliga normer kring förklaringar, och fokuserar sedan på de olika sammanhang under vilka det för närvarande krävs en förklaring enligt lagen. Vi finner att det finns stora variationer runt när förklaring krävs, men det finns också viktiga konsistenser: när kräva förklaring från människor, vad vi vanligtvis vill veta är om och hur vissa indata faktorer påverkade det slutliga beslutet eller resultatet. Dessa sammansättningar gör att vi kan lista de tekniska överväganden som måste beaktas om vi önskade AI-system som kan ge typer av förklaringar som för närvarande krävs av människor enligt lagen. Tvärtemot populär visdom av AI-system som obeskrivliga svarta lådor, vi finner att denna nivå av förklaring bör i allmänhet vara tekniskt möjligt men kan ibland vara praktiskt betungande-det finns vissa aspekter av förklaring som kan vara enkelt för människor att ge men utmanande för AI-system, och vice versa. Som ett tvärvetenskapligt team av juridiska forskare, datavetare och kognitiva forskare, rekommenderar vi att AI-system för närvarande kan och bör hållas till en liknande standard av förklaring som människor för närvarande är; i framtiden kan vi vilja hålla en AI till en annan standard. | Doshi-Velez m.fl. REF diskuterar samhälleliga, moraliska och juridiska förväntningar på AI förklaringar, ger riktlinjer för innehållet i en förklaring, och rekommenderar att förklaringar av AI-system hålls till en liknande standard som människor. | 2,092,882 | Accountability of AI Under the Law: The Role of Explanation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 10,131 |
I inlärningsteorin är VC-dimensionen i en konceptklass C det vanligaste sättet att mäta dess "rikedom". Ett grundläggande resultat säger att antalet exempel som behövs för att lära sig ett okänt målkoncept c och C under en okänd distribution D, noga bestäms av VC dimension d av konceptet klass C. Särskilt, i PAC modell exempel är nödvändiga och tillräckliga för en inlärare att producera, med sannolikhet 1 − δ, en hypotes h på C som är ε-nära målkoncept c (mätt under D). I den relaterade agnostiska modellen, där proverna inte behöver komma från en c på C, Vi vet att exempel är nödvändiga och tillräckliga för att producera en hypotes h på C som är ε-nära det bästa konceptet i C. Här analyserar vi kvantprov komplexitet, där varje exempel är en sammanhängande kvanttillstånd. Denna modell introducerades av Bshouty och Jackson [BJ99], som visade att kvantexemplen är kraftfullare än klassiska exempel i vissa fasta distributionsinställningar. Men Atýcý och Servedio [AS05], förbättrade av Zhang [Zha10], visade att i PAC-miljön (där eleven måste lyckas för varje distribution), kvantexemplen kan inte vara mycket kraftfullare: det antal kvantexempel som krävs är Vårt huvudsakliga resultat är att kvant och klassisk prov komplexitet är i själva verket lika med konstanta faktorer i både PAC och agnostiska modeller. Vi ger två infallsvinklar. Det första är ett ganska enkelt informationsteoretiskt argument som ger de ovan nämnda två klassiska gränserna och ger samma gränser för kvantprov komplexitet upp till en log (d/ε) faktor. Vi ger sedan en andra metod som undviker log-faktor förlust, baserat på att analysera beteendet hos "Pretty Good Measurement" på kvanttillstånd identifieringsproblem som motsvarar lärande. Detta visar klassisk och kvantprov komplexitet är lika med konstanta faktorer. - Vad är det för fel på dig? | Nyligen har Arunachalam och de Wolf REF visat sig vara optimala gränser för kvantprovets komplexitet i Quantum PAC-modellen. | 1,492,185 | Optimal Quantum Sample Complexity of Learning Algorithms | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science', 'Physics']} | 10,132 |
Abstrakt. Den konceptuella modelleringen av programvaruarkitekturer är av central betydelse för kvaliteten på ett programvarusystem. Ett rikt modelleringsspråk krävs för att integrera de olika aspekterna av arkitekturmodellering, såsom arkitekturstilar, struktur- och beteendemodellering, i en sammanhängande ram. Vi föreslår ett ontologiskt tillvägagångssätt för arkitektonisk modellering baserad på beskrivningslogik som ett abstrakt, metanivåmodelleringsinstrument. Arkitektoniska stilar försummas ofta i programvaruarkitekturer. Vi introducerar ett ramverk för stildefinition och stilkombination. Kopplingen mellan kvalitetskrav och konceptuell modellering av arkitektoniska stilar undersöks. Tillämpningen av det ontologiska ramverket i form av en integration i befintliga arkitektoniska beskrivningar såsom ACME och UML-baserade metoder, och även service ontologier illustreras. | I REF presenteras ett ontologiskt-baserat tillvägagångssätt för modellering av arkitekturstilar. | 9,982,583 | An ontology-based approach for modelling architectural styles | {'venue': 'ECSA', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,133 |
Abstrakt. I detta dokument presenteras en metod för att införliva både hyperspektrala egenskaper och rumsliga koordinater för pixlar i maximal sannolikhetsklassificering. Indikator kriging av markdata används för att för varje pixel uppskatta de tidigare sannolikheterna för förekomst av klasser som sedan kombineras med spektral-baserade sannolikheter inom en Bayesian ram. I fallstudien (mopping of instream habitats), som svarar för rumsliga koordinater, ökar den totala producentens noggrannhet från 85,8 % till 93,8 %, medan Kappas statistik ökar från 0,74 till 0,88. Bästa resultat uppnås med hjälp av endast indikator kriging-baserade sannolikheter, med en fantastisk total noggrannhet på 97,2 %. Betydande förbättringar observeras för miljöviktiga enheter, såsom pooler (Kappa: 0,17 till 0,74) och virveldroppar (Kappa: 0,65 till 0,87). Bristen på nytta av att använda hyperspektral information i denna studie kan förklaras av det täta nätverket av markobservationer och den höga rumsliga kontinuiteten i fältklassificeringen som kan vara oäkta. Nyckelord: Hyperspektral, strömmar, övervakad klassificering, kriging Under det senaste årtiondet har utvecklingen av beräkningsresurser främjat användningen av numeriska metoder för att bearbeta de stora datakroppar som samlas in i geovetenskapen. Ett viktigt inslag i geovetenskapsinformation är att varje observation avser en viss plats i rymden. Kunskap om ett attributvärde, t.ex. en heavy metalkoncentration eller reflexvärde, är av föga intresse om inte mätplatsen är känd och redovisas i analysen. | Det närmaste tillvägagångssättet till detta dokument är av Goovaerts REF, där den tidigare sannolikheten för i-th klass, P i (s), modelleras av indikator kriging. | 6,906,555 | Geostatistical incorporation of spatial coordinates into supervised classification of hyperspectral data | {'venue': None, 'journal': 'Journal of Geographical Systems', 'mag_field_of_study': ['Geography', 'Computer Science']} | 10,134 |
I detta dokument behandlas problemet med corpus-nivå-enhetsskrivning, dvs. slutsatsen från en stor corpus att en enhet är medlem i en klass som "mat" eller "artist". Tillämpningen av entity typing vi är intresserade av är kunskapsbas komplettering, särskilt för att lära sig vilka klasser en enhet är medlem i. Vi föreslår FIGMENT för att ta itu med detta problem. FIGMENT är inbäddande-baserad och kombinerar (i) en global modell som poängsätter baserat på aggregerad kontextuell information om ett företag och (ii) en kontextmodell som först poängsätter enskilda händelser i ett företag och sedan aggregerar poängen. I vår utvärdering överträffar FIGMENT starkt ett förhållningssätt till entity typing som bygger på relationer som erhållits av ett öppet informationsextraktionssystem. | REF använde kunskapsbas och aggregerad corpus-nivå kontextuell information för att lära sig ett företags klasser. | 5,846,516 | Corpus-level Fine-grained Entity Typing Using Contextual Information | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 10,135 |
Tillgång till detta dokument beviljades genom en Emerald-prenumeration som tillhandahålls av emeraldsrm: 534301 [] Om du vill skriva för denna, eller någon annan Emerald-publikation, vänligen använd vår Emerald for Authors serviceinformation om hur du väljer vilken publikation du ska skriva för och skicka in riktlinjer för alla. Besök gärna www.emeraldinsight.com/authors för mer information. Emerald är en global utgivare som kopplar samman forskning och praktik till nytta för samhället. Företaget förvaltar en portfölj med mer än 290 tidskrifter och över 2 350 böcker och bokserier samt tillhandahåller ett brett utbud av onlineprodukter och ytterligare kundresurser och tjänster. Emerald är både COUNTER 4 och TRANSFER kompatibel. Organisationen är partner i COPE (Kommitté on Publication Ethics) och arbetar även med Portico och LOCKSS-initiativet för digitalt arkivbevarande. *Relaterat innehåll och ladda ner information korrekt vid tidpunkten för nedladdning. Determinanter för e-lärande adoption bland studenter i utvecklingsländer Department of Management Information Systems, University of Ghana Business School, Accra, Ghana Department of Operations and Management Information Systems, University of Ghana Business School, Accra, Ghana Department of Marketing and Entrepreneurship, University of Ghana Business School, Accra, Ghana, och Department of Operations and Management Information Systems, University of Ghana Business School, Accra, Ghana Abstract Purpose -Syftet med detta papper är att undersöka de avgörande faktorerna för e-lärande adoption (ELA) bland studenter i University of Ghana. Design/metodologi/approach -En kvantitativ forskningsansats bestående av en enkät med 337 studenter antogs. Data samlades in med hjälp av frågeformulär som utformats tillsammans med 13 faktorer (datorselffficiency (CSE), uppfattad användarvänlighet (PEOU), upplevd användbarhet (PU) och attityd till användning (ATTU)) i studiens konceptuella modell. Dataanalys utfördes med hjälp av strukturekvationsmodellering. Fynden -Resultatet visade att PU och ATTU hade en direkt effekt på ELA medan PU och PEOU också hade en direkt relation på ATTU. Andra variabler som CSE och PEOU hade ett indirekt förhållande till ELA även om de befanns ha ett obetydligt direkt förhållande till ELA. Praktiska konsekvenser – Nivån på betydelsen av varje konstruktion som identifieras i studien ger praktisk vägledning till skoladministratörer och instruktörer om vilka faktorer som bör beaktas vid genomförandet av e-lärandeprojekt inom deras respektive institutioner. Originalitet/värde -Denna studie ger inblick i ELA ur studenternas perspektiv, genom en utvidgning av TAM-modellen i ett utvecklingsland sammanhang med tanke på förekomsten av kulturella skillnader och samhällssynkroniseringar som finns i olika sammanhang, särskilt i Afrika. | I REF studerade man införandet av e-lärande i Ghana genom att tillämpa begreppen TAM, och de påpekar att den upplevda användbarheten (PU) och inställningen till användning (ATTU) hade en direkt effekt på elevernas acceptans för e-lärande. | 114,448,093 | Determinants of e-learning adoption among students of developing countries | {'venue': 'International Journal of Information and Learning Technology', 'journal': 'International Journal of Information and Learning Technology', 'mag_field_of_study': ['Engineering']} | 10,136 |
Databasbaserade applikationer är nästan allestädes närvarande i vårt dagliga liv. Applikationer som gör många små åtkomster till databasen skapar två utmaningar för utvecklare: ökad latens och bortkastade resurser från många nätverks turer. En välkänd teknik för att förbättra prestandan i transaktionsdatabaser är att omvandla en del av programmet till lagrade förfaranden som utförs på databasservern. Tyvärr är denna omvandling ofta svår. I detta papper beskriver vi Pyxis, ett system som tar databas-backed program och automatiskt partitionerar sin kod i två delar, varav den ena utförs på applikationsservern och den andra på databasservern. Pyxis profilerar program och serverbelastningar, analyserar statisk kodberoenden och producerar en partitionering som minimerar antalet kontrollöverföringar samt mängden data som skickas under varje överföring. Våra experiment med TPC-C och TPC-W visar att Pyxis kan generera partitioner med upp till 3× minskning av latency och 1,7× förbättring i genomströmning jämfört med en traditionell icke-partitionerad genomförande och har jämförbar prestanda med en anpassad lagrad förfarande implementation. | Trycker på beräkning till databasen: Pyxis REF-systemet partitionerar automatiskt databasprogram så att en del av programkoden körs på en samlokaliserad JVM på databasservern, och en annan del på klienten. | 62,938 | Automatic Partitioning of Database Applications | {'venue': 'PVLDB', 'journal': 'PVLDB', 'mag_field_of_study': ['Computer Science']} | 10,137 |
Vi föreslår det kopplade generativa kontrariska nätverket (CoGAN) ramverk för att generera par av motsvarande bilder i två olika domäner. Den består av ett par generativa kontradiktoriska nätverk, var och en ansvarig för att generera bilder i en domän. Vi visar att genom att genomdriva en enkel vikt-delning begränsning, CoGAN lär sig att generera par av motsvarande bilder utan att det finns några par av motsvarande bilder i de två områdena i träningssetet. Med andra ord, CoGAN lär sig en gemensam distribution av bilder i de två domänerna från bilder som dras separat från marginalfördelningarna av de enskilda domänerna. Detta står i kontrast till de befintliga multimodala generativa modellerna, som kräver motsvarande bilder för utbildning. Vi tillämpar CoGAN på flera par bildgenerering uppgifter. För varje uppgift lär sig GoGAN att generera övertygande par av motsvarande bilder. Vi demonstrerar vidare tillämpningarna av CoGAN-ramverket för domänanpassning och övergripande bildgenereringsuppgifter. | Kopplade Generativa Adversarial Networks REF består av en serie GANs, och var och en av dem kan representera en av domänerna. | 10,627,900 | Coupled Generative Adversarial Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 10,138 |
Två problem uppstår när man använder fjärrövervakning för relationsextraktion. För det första, i denna metod, är en redan befintlig kunskapsbas heuritiskt anpassad till texter, och anpassningsresultaten behandlas som märkta data. Men den heuristiska anpassningen kan misslyckas, vilket leder till fel märkningsproblem. I tidigare tillvägagångssätt har dessutom statistiska modeller vanligtvis tillämpats på ad hoc-funktioner. Det buller som härrör från funktionen extraktionsprocessen kan orsaka dålig prestanda. I det här dokumentet föreslår vi en ny modell som kallas Piecewise Convolutional Neural Networks (PCNN) med lärande i flera ämnen för att ta itu med dessa två problem. För att lösa det första problemet behandlas fjärrövervakad relationsextraktion som ett multi-intance-problem där hänsyn tas till osäkerheten om exempeletiketter. För att ta itu med det senare problemet undviker vi funktionsteknik och antar istället convolutional arkitektur med bitvis max pooling för att automatiskt lära sig relevanta funktioner. Experiment visar att vår metod är effektiv och överträffar flera konkurrenskraftiga basmetoder. | Denna metod förbättras ytterligare genom bitvis max-pooling genom REF. | 2,778,800 | Distant Supervision for Relation Extraction via Piecewise Convolutional Neural Networks | {'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,139 |
Att minska kostnaderna är en pragmatisk metod för att främja den utbredda användningen av lokalanpassningsteknik inomhus. Konventionella inomhuslokaliseringssystem (ILS) utnyttjar relativt dyra trådlösa marker för att mäta mottagen signalstyrka för positionering. Vårt arbete bygger på en billig och allmänt använd kommersiell off-the-shelf (COTS) trådlös chip, d.v.s. Nordic Semiconductor nRF24LE1, som bara har flera uteffektnivåer, och föreslår en ny effektnivå baserad-ILS, kallad Plils. Lokaliseringsproceduren omfattar två faser: en offline utbildningsfas och en online lokaliseringsfas. I utbildningsfasen offline används en självorganiserande karta (SOM) för att dela upp ett målområde i underregioner k, där deras rutnät i samma subregion har liknande fingeravtryck. I online lokaliseringsfasen, stöder vektormaskinen (SVM) och bakåtutbredning (BP) neurala nätverk metoder används för att identifiera vilken delregion ett taggat objekt ligger i, och beräkna dess exakta plats, respektive. Det rimliga värdet för k har också diskuterats. Våra experiment visar att Plils uppnår 75 cm noggrannhet i genomsnitt, och är robust mot hinder inomhus. | För att minska kostnaden för Indoor Localization Systems (ILS) föreslog författarna till REF PLILS baserat på en billig och allmänt använd kommersiell chip som levererar fyra diskreta effektnivåer. | 3,585,962 | Plils: A Practical Indoor Localization System through Less Expensive Wireless Chips via Subregion Clustering | {'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Engineering', 'Medicine', 'Computer Science']} | 10,140 |
Processing-in-memory (PIM) chips som integrerar processorlogik i minnesenheter erbjuder en ny möjlighet att överbrygga den växande klyftan mellan processor- och minneshastigheter, särskilt för applikationer med höga krav på minnesbandbredd. Systemet Data-IntensiVe Architecture (DIVA) kombinerar PIM-minnen med en eller flera externa värdprocessorer och en PIM-till-PIM-anslutning. DIVA ökar minnesbandbredden genom två mekanismer: (1) utföra utvalda beräkningar i minnet, minska mängden data som överförs över processorminnet gränssnittet, och (2) tillhandahålla kommunikationsmekanismer som kallas paket för att flytta både data och beräkning genom minnet, ytterligare förbi processorn-minnesbussen. DIVA stöder unikt acceleration av viktiga oregelbundna tillämpningar, inklusive sparse-matris och pekarbaserade beräkningar. I detta dokument fokuserar vi på flera aspekter av DIVA som är utformade för att effektivt stödja sådana beräkningar på mycket höga prestandanivåer: 1) minnesmodellen och paketdefinitionerna; 2) PIM-till-PIM-länken; och 3) krav för gränssnittet processor-till-minne. Vi demonstrerar potentialen av PIM-baserade arkitekturer för att påskynda prestandan av tre oregelbundna beräkningar, gles konjugatgradient, en naturlig join databas operation och en objektorienterad databas fråga. | M. Hall m.fl. REF utvecklade DIVA, Data Intensive Architecture, som kombinerar PIM-minnen med externa värdprocessorer. | 9,105,624 | Mapping irregular applications to DIVA, a PIM-based data-intensive architecture | {'venue': "SC '99", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,141 |
Att exakt beräkna konverteringshastigheten efter klicket (CVR) är avgörande för rankningssystem i industriella tillämpningar såsom rekommendationer och reklam. Konventionell CVR-modellering tillämpar populära djupinlärningsmetoder och uppnår toppmoderna resultat. Det stöter dock på flera uppgiftsspecifika problem i praktiken, vilket gör CVR-modellering utmanande. Till exempel tränas konventionella CVR-modeller med prover av klickade intryck medan de används för att göra slutsatser på hela utrymmet med prover av alla intryck. Detta orsakar ett urval bias problem. Dessutom finns det ett extremt data gleshet problem, vilket gör modellen passar ganska svårt. I detta papper modellerar vi CVR i ett helt nytt perspektiv genom att använda sekventiella mönster av användaråtgärder, dvs intryck → klicka → konvertering. Den föreslagna hela rymden multi-task modell (ESMM) kan eliminera de två problemen samtidigt genom att i) modellera CVR direkt över hela utrymmet, ii) använda en funktion representation överföring lärande strategi. Experiment på dataset som samlats in från trafikloggar från Taobaos rekommenderade system visar att ESMM avsevärt överträffar konkurrensmetoderna. Vi släpper också en urvalsversion av denna datauppsättning för att möjliggöra framtida forskning. Såvitt vi vet är detta den första offentliga datauppsättningen som innehåller prover med sekventiellt beroende av klick- och konverteringsetiketter för CVR-modellering. | Nyligen, Ma et al. föreslå en hel utrymme multi-task modell (ESMM) för att uppskatta efter-klick konverteringshastighet REF. | 5,067,648 | Entire Space Multi-Task Model: An Effective Approach for Estimating Post-Click Conversion Rate | {'venue': "SIGIR '18", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 10,142 |
Abstract-Sparse signal representation, analys och sensation har fått mycket uppmärksamhet under de senaste åren från signalbehandling, optimering och lärande samhällen. Å ena sidan, att lära sig över kompletta ordböcker som underlättar en gles representation av data som en linje kombination av några atomer från en sådan ordbok leder till state-of-the-art resulterar i bild-och video restaurering och klassificering. Å andra sidan har ramen för komprimerad avkänning (CS) visat att glesa signaler kan återvinnas från mycket mindre prover än vad som krävs av den klassiska Shannon-Nyquist Theorem. De prov som används i CS motsvarar linjära projektioner som erhålls genom en avkänningsprojiceringsmatris. Det har visat sig att t.ex. en icke-adaptiv slumpmässig provtagningsmatris uppfyller de grundläggande teoretiska kraven i KS och har den ytterligare fördelen av universalitet. Å andra sidan kan en projektionssensormatris som är optimalt utformad för en viss signalklass ytterligare förbättra återuppbyggnadsnoggrannheten eller ytterligare minska det nödvändiga antalet prover. I detta dokument introducerar vi en ram för gemensam design och optimering, från en uppsättning träningsbilder, av det icke-parametriska lexikonet och avkänningsmatrisen. Vi visar att denna gemensamma optimering överträffar både användningen av slumpmässiga sensormatriser och de matriser som är optimerade oberoende av inlärningen av ordboken. Särskilda fall av den föreslagna ramen inkluderar optimering av avkänningsmatrisen för en given ordbok samt optimering av ordboken för en fördefinierad avkänningsmiljö. Presentationen av ramverket och dess effektiva numeriska optimering kompletteras med många exempel på klassiska bilddataset. Index Terms-Compressed sensing, bild patchar, lärande, överfullständig ordbok, sensor projektion matris, gles representation. | REF föreslår att man samtidigt lär sig lexikonet och sensormatrisen från exempelbilddata, vilket resulterar i förbättrad rekonstruktion resulterar i komprimerade analysscenarier. | 1,209,515 | Learning to Sense Sparse Signals: Simultaneous Sensing Matrix and Sparsifying Dictionary Optimization | {'venue': 'IEEE Transactions on Image Processing', 'journal': 'IEEE Transactions on Image Processing', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 10,143 |
Detta dokument tar upp problemet med att uppskatta djupkartan för en scen med en enda RGB-bild. Vi föreslår en helt konvolutionell arkitektur, som omfattar resterande lärande, för att modellera den tvetydiga kartläggningen mellan monokulära bilder och djupkartor. För att förbättra utdataupplösningen presenterar vi ett nytt sätt att på ett effektivt sätt lära sig kartsampling inom nätverket. För optimering introducerar vi den omvända Huberförlusten som är särskilt lämplig för den aktuella uppgiften och driven av de värdefördelningar som vanligen finns på djupkartor. Vår modell består av en enda arkitektur som är utbildad end-toend och inte förlitar sig på efterbehandlingstekniker, såsom CRFs eller andra ytterligare förfining steg. Som ett resultat, det körs i realtid på bilder eller videor. I utvärderingen visar vi att den föreslagna modellen innehåller färre parametrar och kräver färre utbildningsdata än den senaste tekniken, samtidigt som man överträffar alla infallsvinklar på djupuppskattning. Kod och modeller är allmänt tillgängliga 5. | I REF presenteras ett resterande nätverk som integrerar en ny omvänd Huberförlust. | 11,091,110 | Deeper Depth Prediction with Fully Convolutional Residual Networks | {'venue': '2016 Fourth International Conference on 3D Vision (3DV)', 'journal': '2016 Fourth International Conference on 3D Vision (3DV)', 'mag_field_of_study': ['Computer Science']} | 10,144 |
Abstract-Vi presenterar en deskriptor, kallad helt konvolutionell självlikhet (FCSS), för tät semantisk korrespondens. Till skillnad från traditionella täta korrespondensmetoder för uppskattning av djup eller optiskt flöde, innebär semantisk korrespondensuppskattning ytterligare utmaningar på grund av intraklass utseende och formvariationer mellan olika instanser inom samma objekt eller scenkategori. För att på ett robust sätt matcha punkter över semantiskt liknande bilder formulerar vi FCSS med hjälp av lokal självlikhet (LSS), som i sig är okänsligt för variationer i utseendet inom klassen. LSS inkorporeras genom ett föreslaget självlikviditetsskikt (CSS-skikt), där provtagningsmönstren och självlikviditetsmåttet lärs gemensamt på ett end-to-end- och flerskaligt sätt. För att ta itu med variationer i form mellan olika objekt, föreslår vi dessutom ett konvolutionellt affinetransformatorskikt (CAT) som uppskattar explicita affine transformationsfält vid varje pixel för att omvandla provtagningsmönster och motsvarande mottagliga fält. Eftersom utbildningsdata för semantisk korrespondens är ganska begränsade, föreslår vi att man utnyttjar tidigare objektkandidater i de flesta befintliga datauppsättningar och även överensstämmelse mellan objektpar för att möjliggöra svagt övervakat lärande. Experiment visar att FCSS avsevärt överträffar konventionella hantverksmässiga deskriptorer och CNN-baserade deskriptorer på olika riktmärken. | REF erbjuder en deskriptor som bygger på lokal självlikhet för att på ett robust sätt matcha punkter mellan olika instanser inom samma objektklass. | 59,619,126 | FCSS: Fully Convolutional Self-Similarity for Dense Semantic Correspondence | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science']} | 10,145 |
Abstrakt. Att upptäcka människor i filmer och videor är ett utmanande problem på grund av motivens, kamerans och bakgrundens rörelser och variationer i pose, utseende, kläder, belysning och bakgrundsförlamning. Vi utvecklar en detektor för stående och rörliga människor i videor med möjligtvis rörliga kameror och bakgrunder, testar flera olika rörelsekodningsprogram och visar empiriskt att orienterade histogram av differential optiskt flöde ger bästa prestanda. Dessa rörelsebaserade deskriptorer kombineras med vårt histogram av orientaliska gradientdeskriptorer. Den resulterande detektorn testas i flera databaser, inklusive en utmanande testuppsättning tagen från funktionsfilmer och som innehåller ett brett spektrum av pose-, rörelse- och bakgrundsvariationer, inklusive rörliga kameror och bakgrunder. Vi validerar våra resultat på två utmanande testuppsättningar som innehåller mer än 4400 mänskliga exempel. Den kombinerade detektorn minskar falsklarmfrekvensen med en faktor på 10 i förhållande till den bästa utseendebaserade detektorn, till exempel genom att ge falsklarmfrekvenser på 1 per 20.000 fönster testade med 8% felfrekvens på vår testuppsättning 1. | Orienterade histogram av differential optiskt flöde användes i REF för att upptäcka människor i video. | 8,729,004 | Human Detection Using Oriented Histograms of Flow and Appearance | {'venue': 'ECCV (2)', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,146 |
I detta arbete presenterar vi en ny intuitiv, end-to-end-strategi för detektering av temporala åtgärder i otrimmade videor. Vi introducerar vår nya arkitektur för Single-Stream Temporal Action Detection (SS-TAD), som effektivt integrerar gemensam åtgärdsdetektering med dess semantiska deluppdrag i en enda enhetlig ram. Vi utvecklar en metod för att träna vår djupa återkommande arkitektur baserad på att upprätthålla semantiska begränsningar på mellanliggande moduler som gradvis avslappnas när lärandet fortskrider. Vi finner att ett sådant dynamiskt inlärningsprogram gör det möjligt för SS-TAD att uppnå högre total detektionsprestanda, med färre träningsperioder. Genom single-pass nätverk är mycket effektiv och kan arbeta på 701 ramar per sekund, samtidigt överträffar de senaste metoderna för temporal åtgärd upptäckt på THUMOS'14. | REF (Single Stream Temporal Action Detection) använder RNN-baserad arkitektur för att lära sig åtgärdsförslag och klassificering gemensamt. | 4,021,276 | End-to-End, Single-Stream Temporal Action Detection in Untrimmed Videos | {'venue': 'BMVC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,147 |
Reparameteriseringstricket gör det möjligt att optimera storskaliga stokastiska beräkningsgrafer via lutningsnedstigning. Kärnan i tricket är att refaktor varje stokastisk nod till en differentierad funktion av dess parametrar och en slumpmässig variabel med fast fördelning. Efter refaktoring är gradienterna för den förlust som förökas genom kedjeregeln genom grafen låga variansen opartiska skattningar av gradienterna för den förväntade förlusten. Medan många kontinuerliga slumpvariabler har sådana reparameterizations, diskret slumpvariabler saknar användbara reparameterizations på grund av den diskontinuerliga naturen av diskreta tillstånd. I detta arbete introducerar vi CONCRETE slumpmässiga variabler-Continuous avkopplingar av disCRETE slumpmässiga variabler. Betongdistributionen är en ny familj av distributioner med slutna formtätheter och en enkel omparameterisering. När en diskret stokastisk nod av en beräkningskurva kan refaktors till en enhot bit representation som behandlas kontinuerligt, Konkreta stokastiska noder kan användas med automatisk differentiering för att producera lågvarians snedgradienter av mål (inklusive mål som beror på log-sannolikheten av latenta stokastiska noder) på motsvarande diskret graf. Vi visar effektiviteten av Konkreta avslappningar på densitetsuppskattning och strukturerade förutsägelser uppgifter med hjälp av neurala nätverk. | iv) Kontinuerliga avkopplingar av diskreta distributioner REF ersätter diskreta distributioner med kontinuerliga distributioner och optimerar ett konsekvent mål. | 14,307,651 | The Concrete Distribution: A Continuous Relaxation of Discrete Random Variables | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 10,148 |
HCI-forskare som är intresserade av sociala robotar har gjort stora investeringar i humanoida robotar. Det finns fortfarande glesa bevis för att människors svar på robotar skiljer sig från deras svar på dataagenter, vilket tyder på att agentstudier kan användas för att testa HCI-hypoteser. För att hjälpa oss att förstå skillnaden mellan människors sociala interaktioner med en agent och en robot jämförde vi experimentellt människors svar i en hälsointervju med (a) en dataagent projicerad antingen på en datorskärm eller livsstorlek på en skärm, (b) en fjärrrobot projicerad livsstorlek på en skärm, eller (c) en collocated robot i samma rum. Vi fann några beteendemässiga och stora attitydskillnader mellan dessa förhållanden. Deltagarna glömde mer och avslöjade minst med den kollokerade roboten, nästa med den projicerade fjärrroboten, och sedan med agenten. De tillbringade mer tid med den collocated roboten och deras attityder var mest positiva mot den roboten. Vi diskuterar kompromisser för HRI forskning om att använda collocated robotar, fjärrrobotar, och dataagenter som proxies av robotar. | På samma sätt, Powers et al. REF rapporterade mer tid av deltagarna när de interagerade med en collocated robot kontra dess projektion på en life-size skärm, och en korrespondent dator agent. | 3,894,529 | Comparing a computer agent with a humanoid robot | {'venue': "HRI '07", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,149 |
Abstract-"In-hand manipulation" är förmågan att placera ett objekt i handen, till exempel när man justerar greppet av en hammare innan man hamrar en spik. Den vanliga metoden för handmanövrering med robotiska händer, känd som fingerfärdig manipulation [1], är att hålla ett objekt i fingertopparna på handen och vicka på fingrarna, eller gå dem längs objektets yta. Dexterous manipulation är dock bara en av de många tekniker som finns tillgängliga för roboten. Roboten kan också rulla objektet i handen genom att använda gravitation, eller justera objektets pos genom att trycka det mot en yta, eller om snabbt nog, kan den även kasta objektet i luften och fånga det i en annan pose. Alla dessa tekniker har en sak gemensamt: de förlitar sig på resurser extrinsiska till handen, antingen gravitation, yttre kontakter eller dynamiska armrörelser. Vi kallar dem "extrinsisk fingerfärdighet". I detta dokument studerar vi extrinsisk fingerfärdighet i samband med regrasp-operationer, till exempel när man byter från en kraft till ett precisionsgrepp, och vi visar att även enkla gripare är kapabla till omfattande handmanövrering. Vi utvecklar tolv regrasp åtgärder, alla open-loop och handscripted, och utvärdera deras effektivitet med över 1200 prövningar av regrasps och sekvenser av regrasps, för tre olika objekt (se video [2] ). Det långsiktiga målet med detta arbete är att utveckla en allmän repertoar av dessa beteenden, och att förstå hur en sådan repertoar så småningom kan utgöra en allmän manipulationsförmåga. | I tidigare arbete REF visade vi en rad handkodade in-hand manipulation åtgärder som utnyttjar resurser utanför handen. | 1,175,946 | Extrinsic dexterity: In-hand manipulation with external forces | {'venue': '2014 IEEE International Conference on Robotics and Automation (ICRA)', 'journal': '2014 IEEE International Conference on Robotics and Automation (ICRA)', 'mag_field_of_study': ['Computer Science', 'Engineering']} | 10,150 |
Abstract Label ranking är en specifik typ av preferens inlärningsproblem, nämligen problemet med att lära sig en modell som kartlägger fall för att rangordna över en ändlig uppsättning av fördefinierade alternativ. Som i konventionell klassificering, dessa alternativ identifieras med sitt namn eller etikett utan att karakteriseras i termer av några egenskaper eller egenskaper som skulle kunna vara användbara för lärande. I det här dokumentet överväger vi en generalisering av problemet med märkningsrankning som vi kallar dyadrankning. I dyad rankning är inte bara instanserna utan även alternativen representerade i termer av attribut. För inlärning i inställningen av dyad rankning föreslår vi en förlängning av en befintlig märkning rankningsmetod baserad på Plackett-Luce-modellen, en statistisk modell för rankningsdata. Denna modell kombineras med en lämplig funktion representation av dynader. Konkret föreslår vi en metod baserad på en bilinjär förlängning, där representationen ges i termer av en Kronecker produkt, samt en metod baserad på neurala nätverk, som gör det möjligt att lära sig en (mycket ickelinjär) gemensam funktion representation. Nyttan av den ytterligare information som ges genom beskrivningen av alternativ visas i flera experimentella studier. Slutligen föreslår vi en metod för visualisering av dyadrankningar, som bygger på tekniken för multidimensionell utveckling. | REF tar itu med problemet med att lära sig en dyad rankningsfunktion, det vill säga en funktion som företrädesvis sorterar en uppsättning kandidatdyader baserat på deras (gemensam) representation. | 4,335,124 | Dyad ranking using Plackett–Luce models based on joint feature representations | {'venue': 'Machine Learning', 'journal': 'Machine Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 10,151 |
Även om djupet tenderar att förbättra nätverksprestanda, gör det också gradientbaserad träning svårare eftersom djupare nätverk tenderar att vara mer icke-linjära. Den nyligen föreslagna kunskapsdestilleringsmetoden syftar till att få fram små och snabba modeller, och den har visat att ett studentnätverk kan imitera det mjuka resultatet av ett större lärarnätverk eller ensemble av nätverk. I denna uppsats utvidgar vi denna idé för att möjliggöra utbildning av en student som är djupare och tunnare än läraren, inte bara med hjälp av resultaten utan också de mellanliggande representationer som läraren lärt sig som tips för att förbättra den studerandes utbildningsprocess och slutresultat. Eftersom den studerandes mellanliggande dolda lager i allmänhet kommer att vara mindre än lärarens mellanliggande dolda lager, införs ytterligare parametrar för att kartlägga den studerandes dolda lager till förutsägelsen av läraren dolda lager. Detta gör att man kan träna djupare studenter som kan generalisera bättre eller köra snabbare, en kompromiss som styrs av den valda studentkapaciteten. Till exempel, på CIFAR-10, ett djupt studentnätverk med nästan 10,4 gånger mindre parametrar överträffar ett större, toppmodernt lärarnätverk. | I stället för att härma lärarmodellens resultat föreslog REF en metod där studenten härmar de dolda skikten i lärarmodellen. | 2,723,173 | FitNets: Hints for Thin Deep Nets | {'venue': 'ICLR 2015', 'journal': 'arXiv: Learning', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 10,152 |
I detta dokument presenteras en allmän formulering av dataparallell för en klass av problem som bygger på uppdelningen och erövra strategin. En kombination av tre tekniker-mapping vektorer, index-digitala permutationer och utrymme-fyllning kurvor-används för att omorganisera algoritmiska dataflöde, ger stor flexibilitet för att effektivt utnyttja datalokalitet och för att minska och optimera kommunikation. Dessutom möjliggör dessa tekniker en enkel översättning av de omorganiserade dataflöden till HPF (High Performance Fortran) konstruktioner. Slutligen, experimentella resultat på Cray T3E validerar vår metod. | En allmän formulering av dataparallell för en klass av problem med delning och konklusion utvärderades i REF. | 15,124,643 | A Data-Parallel Formulation for Divide and Conquer Algorithms | {'venue': 'Comput. J.', 'journal': 'Comput. J.', 'mag_field_of_study': ['Computer Science']} | 10,153 |
Vi presenterar en domänoberoende ämne segmenteringsalgoritm för flerpartital. Vår funktionsbaserade algoritm kombinerar kunskap om innehåll med hjälp av en textbaserad algoritm som funktion och om form med hjälp av språkliga och akustiska signaler om ämnesförskjutningar som utvunnits ur tal. Denna segmenteringsalgoritm använder automatiskt inducerade beslutsregler för att kombinera de olika funktionerna. Den inbyggda textbaserade algoritmen bygger på lexisk sammanhållning och har prestanda jämförbar med toppmoderna algoritmer baserade på lexisk information. En betydande felminskning uppnås genom att de två kunskapskällorna kombineras. | Galley m.fl. presenterade en domänoberoende ämne segmenteringsalgoritm för flerpartital REF. | 5,509,911 | Discourse Segmentation Of Multi-Party Conversation | {'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,154 |
Vi presenterar en ny, rent affinitetsbaserad naturlig bildmatrisalgoritm. Vår metod bygger på noggrant definierade pixel-till-pixel anslutningar som möjliggör effektiv användning av information som finns i bilden och trimap. Vi kontrollerar informationsflödet från de kända regionerna till den okända regionen, liksom inom själva den okända regionen, genom att använda flera definitioner av pixelaffinitet. På så sätt uppnår vi betydande förbättringar av matt kvalitet nära utmanande regioner i förgrundsobjektet. Bland andra former av informationsflöde introducerar vi färgblandningsflöde, som bygger på lokal linjär inbäddning och effektivt inkapslar förhållandet mellan olika pixel opaciteter. Vår resulterande nya linjära systemformulering kan lösas i sluten form och är robust mot flera grundläggande utmaningar i naturlig matning såsom hål och avlägsna invecklade strukturer. Medan vår metod i första hand är utformad som ett fristående naturligt mattverktyg, visar vi att den också kan användas för att reglera matt som erhållits med olika provtagningsbaserade metoder. Vår utvärdering med hjälp av det offentliga alfamatriseringsriktmärket tyder på en betydande förbättring jämfört med den senaste tekniken. | Nyligen, Aksoy et al. REF utformade ett effektivt interpixel informationsflöde för att förutsäga alfamatt och nå toppmodernt. | 24,382,270 | Designing Effective Inter-Pixel Information Flow for Natural Image Matting | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 10,155 |
Abstract-Vi bedömer de grundläggande kompromisserna mellan spektrum och infrastrukturdelning för radioåtkomst. Speci caley, vi analyserar tre mobilnät delning scenarier: radio access infrastruktur delning, spektrumdelning, och kombinationen av de två, som vi kallar full delning. Vi utför vår analys med hjälp av stokastiska geometrimodeller, såsom den homogena Poisson point processen och Gauss-Poisson processen, som gör att vi kan variera den rumsliga korrelationen i basstationer placeringar av olika mobiloperatörer. Våra stora bidrag kan sammanfattas på följande sätt. Vi härleder analytiska uttryck för täckningsannolikheten och den genomsnittliga användardatahastigheten för ett delat nätverk som skapats som en förening av oberoende distribuerade nätverk för vart och ett av de tre delningsscenarierna. För den allmänna modellen för placering av basstationer visar vi att infrastruktur och spektrumdelning inte bara kan ersätta varandra, eftersom det finns en avvägning mellan täckning och datahastighetsprestanda mellan de två. Dessutom ger kombinationen av de två metoderna inte bara linjära skalvinster, eftersom ökningen av datahastigheten handlas för en mindre minskning av täckningen (jämfört med infrastrukturdelning som utförs isolerat). Vi visar att de rumsliga distributionerna av de delade operatörernas nät har en betydande inverkan på delningsresultatet. Vi visar att respektive täthet hos de två operatörernas nät visar hur de två operatörerna uppfattar delningsvinster. I synnerhet är det ofta så att en större operatör har mer att vinna på att dela på på grund av oproportionerligt lägre störningar från den mindre operatören. | I REF användes stokastisk geometri för att undersöka infrastrukturdelning, spektrumdelning och kombinationen av två i storskaliga cellulära nätverk. | 11,902,992 | Infrastructure and spectrum sharing trade-offs in mobile networks | {'venue': '2015 IEEE International Symposium on Dynamic Spectrum Access Networks (DySPAN)', 'journal': '2015 IEEE International Symposium on Dynamic Spectrum Access Networks (DySPAN)', 'mag_field_of_study': ['Computer Science']} | 10,156 |
Abstract-To date, som en av de mest populära online sociala nätverk (OSNs), Twitter betalar sina avgifter som fler och fler spammare sätter sina sikten på denna mikrobloggning webbplats. Twitter spammare kan uppnå sina skadliga mål som att skicka skräppost, sprida skadlig kod, hosting botnet kommando och kontroll (C&C) kanaler, och lansera andra underjordiska olagliga aktiviteter. På grund av betydelsen och nödvändigheten av att upptäcka och stänga av dessa spamkonton, har många forskare tillsammans med ingenjörerna på Twitter Inc. ägnat sig åt att hålla Twitter som skräppostfria online-gemenskaper. De flesta av de befintliga studierna använder maskininlärning tekniker för att upptäcka Twitter spammers. "När prästen klättrar på en stolpe klättrar djävulen tio." Twitter spammare utvecklas för att undvika befintliga upptäckt funktioner. I den här artikeln gör vi först en omfattande och empirisk analys av den skatteflyktstaktik som används av Twitter spammare. Vi designar ytterligare flera nya detekteringsfunktioner för att upptäcka fler Twitter spammare. Dessutom, för att djupt förstå effektiviteten och svårigheterna med att använda maskininlärning funktioner för att upptäcka spammare, analyserar vi robustheten av 24 detektionsfunktioner som är vanliga i litteraturen samt våra föreslagna. Genom våra experiment visar vi att våra nya designade funktioner är mycket mer effektiva för att användas för att upptäcka (även undvikande) Twitter spammare. Enligt vår utvärdering, samtidigt som en ännu lägre falskt positiv hastighet, detektionshastigheten med hjälp av vår nya funktion uppsättning är också betydligt högre än det befintliga arbetet. Såvitt vi vet är detta arbete den första empiriska studien och utvärderingen av effekten av skatteundandragandetaktik som används av Twitter spammers och är ett värdefullt komplement till denna forskningslinje. | Spammers har använt Twitter som en ny plattform för att uppnå sina skadliga mål som att skicka spam meddelanden, sprida skadlig kod, hosting botnet och kontroll (C&C) kanaler och utföra andra olagliga aktiviteter REF. | 573,894 | Empirical Evaluation and New Design for Fighting Evolving Twitter Spammers | {'venue': 'IEEE Transactions on Information Forensics and Security', 'journal': 'IEEE Transactions on Information Forensics and Security', 'mag_field_of_study': ['Computer Science']} | 10,157 |
Burrows-Wheelertransform (BWT) är en invertibel textomvandling som, med tanke på en text T av längd n, permuterar sina symboler enligt den lexikografiska ordningen av suffix av T. BWT är en av de mest studerade algoritmer i datakomprimering med många tillämpningar i indexering, sekvensanalys och bioinformatik. Dess konstruktion är en flaskhals i många scenarier, och att lösa komplexiteten i denna uppgift är en av de viktigaste olösta problem i sekvensanalys som har varit öppen i 25 år. Med tanke på en binär sträng av längd n, ockupera O(n/ log n) maskin ord, BWT konstruktion algoritm på grund av Hon et al. (SIAM J. Beräkna., 2009) körs i O(n) tid och O(n/ log n) utrymme. Nyligen gjorda framsteg (Belazzougui, STOC 2014, och Munro m.fl., SODA 2017) fokuserar på att ta bort alfabetets storlek beroende i tid komplexitet, men de kräver fortfarande på (n) tid. Trots den klart ooptimala körtiden verkar de befintliga teknikerna ha nått sina gränser. I detta dokument föreslår vi den första algoritmen som bryter O(n)-tidsbarriären för BWT-konstruktion. Med tanke på en binär sträng av längd n, vår procedur bygger Burrows- Wheeler transform i O (n/ log n) tid och O (n/ log n) utrymme. Vi kompletterar detta resultat med ett villkorat lägre bundet bevis på att eventuella ytterligare framsteg i tids komplexitet BWT konstruktion skulle ge snabbare algoritmer för mycket väl studerade problemet med att räkna inversioner: det skulle förbättra den state-of-the-art O (m log m)-tid lösning av Chan och P-traşcu (SODA 2010). Vår algoritm är baserad på ett nytt koncept av strängsynkroniserande uppsättningar, vilket är av oberoende intresse. Som en av tillämpningarna visar vi att denna teknik låter oss designa en datastruktur av optimal storlek O(n/ log n) som svarar på längst gemensamma förlängningsförfrågningar (LCE-förfrågningar) i O(1) tid och dessutom kan deterministiskt konstrueras i optimal O(n/ log n) tid. * Dominik Kempa fick stöd av EPSRC-priset EP/N011163/1. Tomasz Kociumaka fick stöd av ISF-bidrag nr. 824/17 och 1278/16 samt genom ett bidrag från Europeiska forskningsrådet till MPM inom ramen för EU:s forsknings- och innovationsprogram Horisont 2020 (bidrag nr. Detta anslag är avsett att täcka utgifter för studier, möten med experter, möten med experter, möten med experter, möten med experter, möten med experter, möten med experter, möten med experter, möten med experter, möten med experter och experter samt andra administrativa utgifter. Tillstånd att göra digitala eller papperskopior av hela eller delar av detta arbete för personligt bruk eller klassrum beviljas utan avgift, förutsatt att kopiorna inte görs eller distribueras för vinst eller kommersiella fördelar och att kopiorna är försedda med detta meddelande och den fullständiga hänvisningen på första sidan. Upphovsrätt till delar av detta verk som ägs av andra än upphovsmannen måste hedras. Abstraktering med kredit är tillåten. För att kopiera på annat sätt, eller återpublicera, för att posta på servrar eller för att omfördela till listor, krävs tidigare specifik behörighet och/eller avgift. Begär tillstånd från [email protected]. • Teori av beräkning → Mönster Matchning; Datakompression; Datastrukturer design och analys; Cellsond modeller och nedre gränser; Problem, minskningar och fullständighet. | Den snabbaste algoritmen lösa detta problem fungerar i sublineära O(n/ ε log n) tid och O(n) bitar av utrymme på en binär text av längd n genom att utnyttja ordet parallellism REF. | 102,350,909 | String synchronizing sets: sublinear-time BWT construction and optimal LCE data structure | {'venue': 'STOC 2019', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 10,158 |
Ett separat tilldelningsproblem (SAP) definieras av en uppsättning behållare och en uppsättning objekt att packa i varje behållare; ett värde, f ij, för att tilldela objekt j till bin i; och en separat förpackningsrestriktion för varje bin - i.e. för bin i, en familj I av undergrupper av objekt som passar i bin i. Målet är att packa föremål i soptunnor för att maximera det aggregerade värdet. Denna klass av problem inkluderar den maximala generaliserade uppdragsproblem (GAP) ) och en distribuerad caching problem (DCP) som beskrivs i detta papper. Med tanke på en β-approximation algoritm för att hitta det högsta värdet förpackning av en enda behållare, ger vi därför, för alla exempel på SAP som medger ett approximationssystem för single-bin problem, vi får en LP-baserad algoritm med (1 − 1 e − )- approximation och en lokal sökalgoritm med ( 1 2 − )- approximation garanti. Dessutom kan LP-baserad algoritmanalys stärkas för att ge en garanti på 1 – 1 e. Den mest kända approximationsalgoritmen för GAP är en 1 2 - approximation av Shmoys och Tardos, och Chekuri och Khanna. Vår LP-algoritm är baserad på avrundning av en ny linjär programmeringsavslappning, med ett bevisligen bättre integreradhetsgap. För att komplettera dessa resultat visar vi att SAP och DCP inte kan approximeras inom en faktor som är bättre än 1‐1 e om inte NP-DTIME(n O(log log n) ), även om det finns en exakt algoritm för single-bin problem. 1 GAP är följande: med tanke på en uppsättning bins och en uppsättning objekt som har en annan storlek och värde för varje bin, packa en maximal värderad delmängd av objekt i lådorna. Vi utökar (1 - 1 e )-algoritmen till ett oskiljaktigt uppdragsproblem med applikationer för att maximera intäkterna för budgetkonsekventa kombinatoriska auktioner och AdWords-tilldelningsproblem. Vi generaliserar den lokala sökalgoritmen för att ge en 1 2 − approximationsalgoritm för k-medianproblemet med hård kapacitet. Slutligen studerar vi naturligt definierade spel-teoretiska versioner av dessa problem, och visar att de har priset på anarki 2. Vi bevisar också existensen av cykler av bästa respons rörelser, och exponentiellt långa bästa-respons vägar till (ren eller sjunka) jämvikt. | En kombinatoriell lokal sökning med - approximation garanti, och en LP-baserad algoritm med - approximation garanti med polynomisk körtid presenteras i REF. | 3,222,283 | Tight approximation algorithms for maximum general assignment problems | {'venue': "SODA '06", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 10,159 |
Abstract-Mobile enheter, såsom mobiltelefoner och personliga digitala assistenter, har fått bred popularitet. Dessa enheter kommer i allt högre grad att vara nätverksanslutna, vilket gör det möjligt att bygga distribuerade applikationer som måste anpassas till förändringar i sammanhanget, såsom variationer i nätverksbandbredd, batterieffekt, anslutningsmöjligheter, tillgänglighet för tjänster och värdar, och så vidare. I detta dokument beskriver vi Carisma, en mobil dator middleware som utnyttjar principen om reflektion för att förbättra konstruktionen av anpassningsbara och sammanhangsmedvetna mobila applikationer. Middleware ger programvaruingenjörer med primitiva för att beskriva hur kontextförändringar ska hanteras med hjälp av policyer. Denna politik kan strida mot varandra. Vi klassificerar de olika typer av konflikter som kan uppstå i mobil databehandling och hävdar att konflikter inte kan lösas statiskt vid den tidpunkt då applikationer är utformade, utan snarare måste lösas vid exekveringstidpunkten. Vi visar på en metod med vilken politiska konflikter kan hanteras; denna metod använder en mikroekonomisk strategi som bygger på en viss typ av sluten budauktion. Vi beskriver hur denna metod implementeras i Carisma middleware arkitektur, och skissa en distribuerad sammanhangsmedveten applikation för mobila enheter för att illustrera hur metoden fungerar i praktiken. Vi visar, genom en systematisk prestationsutvärdering, att konfliktlösning inte innebär onödiga omkostnader, innan vi jämför vår forskning med relaterat arbete och avslutar uppsatsen. | Carisma är en mobil dator för peer-to-peer middleware som utnyttjar principen om reflektion för att stödja uppbyggnaden av kontext-medvetna adaptiva applikationer REF. | 7,993,325 | CARISMA: Context-Aware Reflective mIddleware System for Mobile Applications | {'venue': 'IEEE Trans. Software Eng.', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,160 |
Abstract-This study reviews research methods vanligt förekommande i vetenskaplig litteratur om studenters och instruktörers erfarenheter av att använda Massive Open Online Courses (MOOCs), publicerade från januari 2014 till april 2016. 53 artiklar identifierades genom en sökning i fyra elektroniska databaser. Resultaten visar att undersökningar, intervjuer och loggfiler från MOOC-plattformar var de vanligaste metoderna för datainsamling. Användning av andra kvalitativa forskningsmetoder som dagboksstudier och fokusgrupper var mindre vanligt. De flesta identifierade artiklar använder en enda forskningsmetod. Metodisk triangulation observeras i studier som samlar in data från flera källor. För studier som har antagit metodologisk triangulation kan man konstatera att undersökningar ofta trianguleras med intervjuer och loggfiler. De sätt på vilka MOOC-forskare använder de viktigaste forskningsmetoderna diskuteras, och framtida forskningsvägar baserade på forskningsresultaten tillhandahålls. Index Terms-MOOC, forskningsmetod, student, översyn, online kurs. | de vanligaste metoderna för datainsamling i empiriska MOOC-studier genom att undersöka de forskningsmetoder som används i MOOC-forskning REF. | 56,120,092 | A contemporary review of research methods adopted to understand students’ and instructors’ use of Massive Open Online Courses (MOOCs) | {'venue': None, 'journal': 'International Journal of Information and Education Technology', 'mag_field_of_study': ['Sociology']} | 10,161 |
Vi studerar en modell där en målvariabel Y korreleras med en vektor X := (X 1,. .., X d ) av prediktor variabler är potentiella orsaker till Y. Vi beskriver en metod som visar i vilken utsträckning det statistiska beroendet mellan X och Y beror på påverkan av X på Y och i vilken utsträckning på grund av en dold gemensam orsak (medgrundare) av X och Y. Metoden bygger på koncentrationen av mätresultat för stora dimensioner d och ett oberoende antagande som anger att, i avsaknad av konfounding, vektorn för regressionskoefficienter som beskriver påverkan av varje X på Y har typiskt "generisk orientering" i förhållande till eigenrymderna i kovariansmatrisen av X. För specialfallet av en skaklare visar vi att förbryllande typiskt förstör denna allmänna orientering på ett karakteristiskt sätt som kan användas för att kvantitativt uppskatta mängden förbryllande (med förbehåll för våra idealiserade modellantaganden). | Vi beskriver metoden med REF för congrunder detektion. | 88,515,270 | Detecting Confounding in Multivariate Linear Models via Spectral Analysis | {'venue': None, 'journal': 'Journal of Causal Inference', 'mag_field_of_study': ['Mathematics']} | 10,162 |
Syfte -Att ge en intressant metod för att bestämma intervallmått, genom den analytiska hierarkiprocessen, för integration med sociala nätverksanalys för kunskapskartläggning i organisationer. Design/metodologi/approach -För att utveckla förbättrade organisations- och affärsprocesser genom kunskapshantering bör en kunskapsgranskning genomföras för att bättre förstå kunskapsflödena i organisationen. En viktig teknik för att visualisera dessa kunskapsflöden är användningen av en kunskapskarta. Analys av sociala nätverk kan användas för att utveckla denna kunskapskarta. Intervala åtgärder bör användas i den sociala nätverksanalysen för att fastställa styrkan i kopplingarna mellan individer eller avdelningar i organisationen. Detta dokument tillämpar den analytiska hierarkiprocessen för att utveckla dessa intervallmått, och integrerar värderingarna i den sociala nätverksanalysen för att ta fram en meningsfull kunskapskarta. Founds -Den analytiska hierarkiprocessen, i kombination med analys av sociala nätverk, kan vara en användbar teknik för att utveckla intervallmått för kunskapsmappning. Forskning begränsningar / konsekvenser -Den analytiska hierarki processen kan bli tråkig och mödosam för användning i stora sociala nätverk kartor. Mer forskning behöver bedrivas på detta område för skalbarhet. Praktiska konsekvenser - Eftersom analys av sociala nätverk blir allt mer framträdande i kunskapshanteringen, kan den analytiska hierarkiprocessen ge mer värdefulla åtgärder för att bestämma styrkan i relationerna mellan aktörer än att bara använda ordinära tal. Originalitet/värde – Att koppla ihop den analytiska hierarkiprocessen med analys av sociala nätverk ger ett nytt tillvägagångssätt för framtida kunskapsmappningsverksamhet. | Liebowitz REF integrerar användningen av en analytisk hierarkisk process med social nätverksanalys på organisationsnivå för att skapa en kunskapskarta. | 20,335,176 | Linking social network analysis with the analytic hierarchy process for knowledge mapping in organizations | {'venue': 'J. Knowledge Management', 'journal': 'J. Knowledge Management', 'mag_field_of_study': ['Computer Science']} | 10,163 |
Under utbildningen av en maskininlärningsmodell med hjälp av flera arbetstagare, som var och en samlar in data från sina egna datakällor, skulle det vara mest användbart när de data som samlas in från olika arbetstagare kan vara unika och olika. Ironiskt nog bygger den senaste analysen av decentraliserad parallell stokastisk lutningsnedstigning (D-PSD) på antagandet att de data som finns hos olika arbetstagare inte är alltför olika. I denna artikel ställer vi frågan: Kan vi utforma en decentraliserad parallell stokastisk lutningsnedstigningsalgoritm som är mindre känslig för datavariansen mellan arbetare? I detta papper presenterar vi D 2, en ny decentraliserad parallell stokastisk lutning nedstigning algoritm utformad för stora data varians bland arbetare (imprekt, "decentraliserad" data). Kärnan i D 2 är en variationsminskning utvidgning av standard D-PSGD algoritm, vilket förbättrar konvergensen från O där 2 betecknar variansen mellan data på olika arbetstagare. Som ett resultat, D 2 är robust till data variansen bland arbetstagare. Vi utvärderade empiriskt D 2 om bildklassificeringsuppgifter där varje arbetstagare endast har tillgång till data från en begränsad uppsättning etiketter, och finner att D 2 avsevärt överträffar D-PSD. | D 2 REF algoritmen tillämpar ytterligare variansminskningen på icke-konvexa stokastiska decentraliserade optimeringsproblem och tar bort effekten av gradientvariansen bland arbetstagare på konvergenshastigheten. | 3,988,570 | D$^2$: Decentralized Training over Decentralized Data | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 10,164 |
Abstract-Vi föreslår ett effektivt klientbaserat tillvägagångssätt för kanalhantering (kanaltilldelning och lastbalansering) i 802.11-baserade WLAN som leder till bättre användning av det trådlösa spektrumet. Detta tillvägagångssätt är baserat på en "konfliktuppsättning färg" formulering som gemensamt utför lastbalansering tillsammans med kanaltilldelning. En sådan formulering har ett antal fördelar. För det första fångar den uttryckligen störningar hos kunder. Därefter avslöjar det i sig möjligheter till bättre kanalåteranvändning. Slutligen är algoritmer baserade på denna formulering inte beroende av specifika fysiska RF-modeller och kan därför tillämpas effektivt på ett brett spektrum av inomhus- och utomhusscenarier. Vi har utfört omfattande simuleringar och mätningar på paketnivå på en distribuerad trådlös testbädd på 70 AP för att validera prestandan hos våra föreslagna algoritmer. Vi visar att förutom enskilda nätverksscenarier, är konfliktuppsättning färgformuleringen väl lämpad för kanaltilldelning där flera trådlösa nätverk delar och kämpar för spektrum i samma fysiska utrymme. Våra resultat inom ett brett spektrum av både simulerade topologier och in-building testbed experiment tyder på att vårt tillvägagångssätt förbättrar applikationsnivån prestanda hos kunderna med upp till tre gånger (och minst 50%) i jämförelse med nuvarande mest kända tekniker. | Mishra m.fl. föreslå en dynamisk kanal tilldelningsalgoritm som kallas CFAssign-RaC för att uppnå belastningsbalans baserat på en "konfliktuppsättning färgning" formulering REF. | 9,689,197 | A Client-Driven Approach for Channel Management in Wireless LANs | {'venue': 'Proceedings IEEE INFOCOM 2006. 25TH IEEE International Conference on Computer Communications', 'journal': 'Proceedings IEEE INFOCOM 2006. 25TH IEEE International Conference on Computer Communications', 'mag_field_of_study': ['Computer Science']} | 10,165 |
Abstract-autentication system baserade på trådlös fysisk lagerkanal information har fått betydande uppmärksamhet under de senaste åren. Det har visats i färska studier, att den kanalbaserade autentiseringen antingen kan samarbeta med befintliga säkerhetsprotokoll i högre skikt eller ge viss säkerhet till nätverk utan central myndighet såsom sensornätverk. Vi föreslår en Gaussian Blandning Modell baserad semi-övervakad inlärningsteknik för att identifiera inkräktare i nätverket genom att bygga en probabilistisk modell av den trådlösa kanalen för nätverksanvändare. Vi visar att även utan att ha en komplett apriori kunskap om statistiken över inkräktare och användare i nätverket, vår teknik kan lära sig och uppdatera modellen på ett online-mode samtidigt som hög detektionshastighet. Vi demonstrerar experimentellt vår föreslagna teknik att utnyttja mönstermångfald och visar med hjälp av uppmätta kanaler att man kan uppnå så låga detekteringshastigheter som 0,1 % för falsklarmfrekvens på 0,4 %. | En Gaussian Blandning Modellbaserad teknik i kombination med utnyttjande av kanalsvaren för olika antennlägen beaktas i REF. | 14,247,622 | GMM Based Semi-Supervised Learning for Channel-Based Authentication Scheme | {'venue': '2013 IEEE 78th Vehicular Technology Conference (VTC Fall)', 'journal': '2013 IEEE 78th Vehicular Technology Conference (VTC Fall)', 'mag_field_of_study': ['Computer Science']} | 10,166 |
ABSTRACT Problemet med influence maximization (IM) har studerats ingående under de senaste åren och har många praktiska tillämpningar såsom social reklam och viral marknadsföring. Med tanke på nätverket och diffusion modellen, IM syftar till att hitta en inflytelserik uppsättning av frönoder så att rikta dem som diffusionskällor kommer att utlösa den maximala kaskaden av påverkade individer. Den största utmaningen med IM-problemet är dess NP-hårdhet, och de flesta av de befintliga tillvägagångssätten är med polynomisk tids komplexitet, vilket gör dem oskalerbara för mycket stora nätverk. För att ta itu med denna fråga föreslår vi i detta dokument LAIM: ett linjärt tidsschema för effektiv IM på storskaliga nät. Vårt ramverk har två steg: 1) påverka approximationen och 2) set set val. I det första steget föreslår vi en iterativ algoritm för att beräkna den lokala påverkan av en nod baserad på en rekursiv formel och använda den lokala påverkan för att approximera dess globala inflytande. I det andra steget, de k inflytelserika frönoder bryts baserat på den ungefärliga påverkan i det första steget. Utifrån vår modell visar vi teoretiskt att det föreslagna tillvägagångssättet har linjär tids- och rymdkomplexitet. Vi accelererar ytterligare vår algoritm med enkla ändringar och föreslår dess snabba version. Experimentella resultat på åtta storskaliga nätverk i verkligheten visar hur överlägsen vår strategi är jämfört med de senaste metoderna när det gäller både effektivitet och ändamålsenlighet. INDEX TERMS Influence maximization, iterativ algoritm, sociala nätverk analys, informationsspridning, beräkning komplexitet. | Wu och Al. I REF föreslås LAIM, ett linjärt tidsperspektiv för effektiv påverkansmaximering på storskaliga nät. | 52,153,343 | LAIM: A Linear Time Iterative Approach for Efficient Influence Maximization in Large-Scale Networks | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 10,167 |
Topologikontroll syftar till att öka livslängden för ett ad hoc-nätverk genom att endast välja en delmängd av de tillgängliga länkarna som ska användas för routing. Avvägningen mellan att hålla klangegenskaperna i grafen medan sparifiera grafen har studerats väl. Det har dock ofta antagits att ett glest diagram implicit har låg störning, men ny forskning visar att det inte nödvändigtvis är sant. I detta dokument diskuterar vi olika metoder för att mäta störningar, och presenterar en ny interferensmodell som syftar till att beskriva störningar i hela nätverket, snarare än bara den värsta delen av det. Vi presenterar API, en topologikontrollalgoritm som tjänar två syften: den minimerar störningen i nätverket enligt våra mätvärden, och den behåller skiftnyckelegenskaperna hos den ursprungliga grafen. Papperet kompletteras med simuleringar som jämför olika topologier med avseende på olika interferensmått. | I REF har författarna diskuterat olika metoder som används för att mäta nätverksstörningar och föreslagit en ny topologikontrollalgoritm för att beskriva störningen i hela nätverket. | 12,264,815 | Reducing interference in ad hoc networks through topology control | {'venue': "DIALM-POMC '05", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 10,168 |
Användningen av M-skattare i generaliserade linjära regressionsmodeller i högdimensionella inställningar kräver riskminimering med hårda L 0 begränsningar. Av de kända metoderna är det känt att klassen projicerad lutningsnedstigning (även kallad iterativ hård tröskel (IHT)) erbjuder de snabbaste och mest skalbara lösningarna. Men den nuvarande state-of-the-art kan bara analysera dessa metoder i extremt restriktiva miljöer som inte håller i högdimensionella statistiska modeller. I detta arbete överbryggar vi denna klyfta genom att tillhandahålla den första analysen för IHT-metoder i den högdimensionella statistiska inställningen. Våra gränser är tighta och matchar kända minimax nedre gränser. Våra resultat bygger på en allmän analysram som gör det möjligt för oss att analysera flera populära hårda tröskelstil algoritmer (såsom HTP, CoSAMP, SP) i högdimensionell regression inställning. Vi utökar också vår analys till en stor familj av "fullständigt korrigerande metoder" som inkluderar tvåstegs- och partiella hårdtröskelalgoritmer. Vi visar att våra resultat håller för problemet med gles regression, samt låg-rank matris återhämtning. | REF föreslog en iterativ hård tröskel algoritm för gles regression, som delar en liknande anda av hård tröskel som vår algoritm. | 1,162,245 | On Iterative Hard Thresholding Methods for High-dimensional M-Estimation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 10,169 |
Abstract-Med tillkomsten av små form-faktor enheter, protokoll standardisering, och robust protokoll implementeringar, multihop mobila nätverk bevittnar utbredd distribution. Övervakningen av sådana nät är avgörande för att de ska fungera väl. I detta syfte presenteras i detta dokument DAMON, ett distribuerat system för övervakning av mobilnät med flera block. DAMON använder agenter inom nätverket för att övervaka nätverksbeteendet och skicka insamlade mätningar till dataarkiv. DAMONs allmänna arkitektur stöder övervakning av ett brett spektrum av protokoll, enheter och nätverksparametrar. Andra viktiga funktioner i DAMON inkluderar sömlöst stöd för flera arkiv, automatisk upptäckt av sänkor av agenterna, och resililiens av agenter för arkivfel. Vi har implementerat DAMON agenter som samlar in statistik om datatrafik och ad hoc On-demand distans Vector (AODV) routing protokoll. Vi har använt vårt genomförande för att övervaka ett ad hoc-nätverk vid det 58:e mötet i Internet Engineering Task Force (IETF) i november 2003 i Minneapolis, MN. I det här dokumentet beskriver vi DAMON:s arkitektur och rapporterar om hur IETF-nätverket fungerar med hjälp av övervakningsinformation som samlas in av DAMON. Vårt nätverksövervakningssystem är tillgängligt online för användning av andra forskare. | Ramach m.fl. REF designa och implementera DAMON, ett distribuerat övervakningssystem för MANETS. | 15,202,897 | DAMON: a distributed architecture for monitoring multi-hop mobile networks | {'venue': '2004 First Annual IEEE Communications Society Conference on Sensor and Ad Hoc Communications and Networks, 2004. IEEE SECON 2004.', 'journal': '2004 First Annual IEEE Communications Society Conference on Sensor and Ad Hoc Communications and Networks, 2004. IEEE SECON 2004.', 'mag_field_of_study': ['Computer Science']} | 10,170 |
Monokulära djupförutsägelser spelar en avgörande roll för förståelsen av 3D scengeometri. Även om de senaste metoderna har gjort imponerande framsteg i utvärderingsmått som pixelmässigt relativt fel, de flesta metoder försummar de geometriska begränsningarna i 3D-utrymmet. I detta arbete visar vi betydelsen av de höga geometriska 3D-begränsningarna för djupprognoser. Genom att utforma en förlustterm som upprätthåller en enkel typ av geometriska begränsningar, nämligen virtuella normala riktningar bestäms av slumpmässigt prov tre punkter i den rekonstruerade 3D utrymme, kan vi avsevärt förbättra noggrannheten djup förutsägelse. Betecknande är att biprodukten av detta förutsagda djup är tillräckligt exakt är att vi nu kan återställa bra 3D-strukturer i scenen såsom punktmolnet och ytan normal direkt från djupet, eliminera behovet av att träna nya undermodeller som tidigare gjorts. Experiment på två riktmärken: NYU Djup-V2 och KITTI visar effektiviteten i vår metod och toppmoderna prestanda. | Yin m.fl. REF utformade en förlustterm för att genomdriva geometriska begränsningar. | 198,968,133 | Enforcing Geometric Constraints of Virtual Normal for Depth Prediction | {'venue': '2019 IEEE/CVF International Conference on Computer Vision (ICCV)', 'journal': '2019 IEEE/CVF International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 10,171 |
I detta dokument introducerar vi vad vi kallar en Bag of Expression (BoE) ram, baserad på säck med ord metod, för att erkänna mänskliga åtgärder i enkla och realistiska scenarier. • Väska av uttryck (BoE) förbättrar på Bag of Words metod för Mänsklig Action Erkännande • BoE kan representera spatio-temporala kontextuella relationer mellan ord • Klassspecifika ordbok lärande använder sådana relationer • BoE möjliggör viss grad av oberoende och viss tolerans mot ocklusion Bag of Words (BoW) strategi har använts i stor utsträckning för mänskliga åtgärder erkännande i senaste state-of-the-art metoder. I detta dokument introducerar vi vad vi kallar en Bag of Expression (BoE) ram, baserad på säcken med ord metod, för att erkänna mänskliga åtgärder i enkla och realistiska scenarier. Det föreslagna tillvägagångssättet omfattar information om rumstid i grannskapet utöver visuella ord. Huvudfokus ligger på att stärka den befintliga styrkan i BoW-strategin som att se oberoende, skala invarians och ocklusionshantering. BOE innehåller oberoende par av grannar för att bygga uttryck, därför är det tolerant mot ocklusion och kapabel att hantera visa oberoende upp i viss utsträckning i realistiska scenarier. Vårt viktigaste bidrag är att lära sig en klassspecifik visuell ordextraktionsmetod för att etablera ett samband mellan dessa extraherade visuella ord i både rums- och tidsdimension. Slutligen har vi genomfört en uppsättning experiment för att optimera olika parametrar och jämföra dess prestanda med de senaste toppmoderna metoderna. Vårt tillvägagångssätt överträffar befintliga Påse of Words-baserade tillvägagångssätt, när de utvärderas med hjälp av samma prestandautvärderingsmetoder. Vi testade vår strategi på fyra allmänt tillgängliga datauppsättningar för erkännande av mänskliga åtgärder, dvs. UCF-Sports, KTH, UCF11 och UCF50 och uppnå betydande resultat, dvs. 97,3%, 99,5%, 96,7% respektive 93,42% i fråga om genomsnittlig noggrannhet. | Mycket nyligen, Nazir et al. I REF föreslogs en ram för erkännande av verksamheten (påse of Expression, BOE). | 13,568,639 | A Bag of Expression framework for improved human action recognition | {'venue': 'Pattern Recognit. Lett.', 'journal': 'Pattern Recognit. Lett.', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 10,173 |
Inom många vetenskapsområden observerar vi en responsvariabel tillsammans med ett stort antal potentiella förklarande variabler, och vill kunna upptäcka vilka variabler som verkligen förknippas med svaret. Samtidigt behöver vi veta att den falska upptäcktsfrekvensen (FDR) - den förväntade bråkdelen av falska upptäckter bland alla upptäckter - inte är för hög, för att försäkra forskaren om att de flesta upptäckterna verkligen är sanna och reproducerbara. Detta dokument introducerar knockoff-filtret, ett nytt förfarande för variabelt urval som styr FDR i den statistiska linjära modellen när det finns minst lika många observationer som variabler. Denna metod uppnår exakt FDR-kontroll i finita provinställningar oavsett design eller kovariater, antalet variabler i modellen, och amplituderna av de okända regressionskoefficienterna, och kräver ingen kunskap om bullernivån. Som namnet antyder, fungerar metoden genom att tillverka knockoff variabler som är billiga-deras konstruktion inte kräver några nya data-och är utformade för att efterlikna den korrelationsstruktur som finns inom de befintliga variablerna, på ett sätt som möjliggör korrekt FDR kontroll, utöver vad som är möjligt med permutation-baserade metoder. Metoden för knockoffs är mycket allmän och flexibel, och kan arbeta med en bred klass av teststatistik. Vi testar metoden i kombination med statistik från Lasso för gles regression, och får empiriska resultat som visar att den resulterande metoden har mycket mer makt än befintliga urvalsregler när andelen nollvariabler är hög. Vi tillämpar även knockoff-filtret på HIV-data med målet att identifiera de mutationer som är förknippade med en form av resistens mot behandlingsplaner. | Dessutom beräknas FDR-tröskeln för simultan Knockoff på ett sådant sätt att den förlorar statistisk kraft i takt med att antalet bootstraps ökar när provtagningsschemat för Vanilla Knockoff i REF används. | 8,467,059 | Controlling the false discovery rate via knockoffs | {'venue': 'Annals of Statistics 2015, Vol. 43, No. 5, 2055-2085', 'journal': None, 'mag_field_of_study': ['Mathematics']} | 10,174 |
Syfte: I detta dokument studeras genomförbarheten av att utveckla ett automatiskt anatomisegmenteringssystem (AAS) i klinisk radiologi och demonstrerar dess funktion på kliniska 3D-bilder. Metoder: AAS-systemet, författarna utvecklas består av två huvuddelar: objektigenkänning och objektbeskrivning. När det gäller igenkänning används en hierarkisk 3D-skalabaserad multiobject-metod för multiobject-igenkänning, som införlivar intensitetsviktad bollskala (b-skala) information i modellen för aktiv form (ASM). För objektdelinering föreslås en iterativ algoritm för graf-cut-ASM (IGCASM), som effektivt kombinerar den rika statistiska forminformation som ingår i ASM med GC-metodens globalt optimala avgränsningsförmåga. Den presenterade IDCASM algoritm är en 3D generalisering av 2D GC-ASM metod som de föreslog tidigare i Chen et al. [Proc. SPIE, 7259, 72590C1-72590C-8 (2009)). De föreslagna metoderna testas på två datauppsättningar bestående av bilder från 20 patienter (10 män och 10 kvinnor) av kliniska CT-skanningar i buken och 11 fot magnetisk resonanstomografi (MRI). Testet gäller fyra organ (lever, vänster och höger njurar, och mjälte) segmentering, fem fot ben (kalkaneus, tibia, kuboid, talus, och navikulär). Erkännande- och avgränsningsnoggrannheten utvärderades separat. Accepterbarheten utvärderades i termer av översättning, rotation och skalfel (storlek). Delinationsnoggrannheten utvärderades i form av sant och falskt positiva volymfraktioner (TPVF, FPVF). Effektiviteten i avgränsningsmetoden utvärderades också på en Intel Pentium IV PC med en 3,4 GHZ CPU-maskin. Resultat: Accuraciesen i termer av översättning, rotation, och skala fel över alla organ är ca 8 mm, 10 och 0,03, och över alla fot ben är ca 3.5709 mm, 0.35 respektive 0,025, respektive. Noggrannheten i avgränsningen av alla organ för alla försökspersoner, uttryckt i TPVF och FPVF, är 93,01 % och 0,22 %, och alla fotben för alla försökspersoner är 93,75 % respektive 0,28 %. Även om avgränsningarna för de fyra organen kan åstadkommas ganska snabbt med i genomsnitt 78 s, kan avgränsningarna för de fem fot ben uppnås med i genomsnitt 70 s. De experimentella resultaten visade genomförbarheten och effektiviteten av den föreslagna automatiska anatomi segmenteringssystem: a) införlivandet av form tidigare i GC ramverket är möjligt i 3D som tidigare visats för 2D-bilder; b) våra resultat i 3D bekräftar noggrannhet beteendet som observerats i 2D. Hybridstrategin GAMEASM verkar vara mer robust och exakt än ASM och GC individuellt; och c) avgränsningar inom kroppsregioner och fotben av klinisk betydelse kan åstadkommas ganska snabbt inom 1,5 min. | En kombination av multi-objekt igenkänning och iterativa graf-cuts med aktiv form modell infördes i REF. | 7,488,573 | 3D automatic anatomy segmentation based on iterative graph-cut-ASM | {'venue': 'Medical physics', 'journal': 'Medical physics', 'mag_field_of_study': ['Physics', 'Medicine']} | 10,175 |
Papperet attackerar absolut fasuppskattning med en tvåstegsmetod: det första steget tillämpar ett adaptivt lokalt denoiseringsschema för den modulo-2π bullriga fasen; det andra steget tillämpar en robust fas Unwraping algoritm för den denoiserade modulo-2π fasen som erhålls i det första steget. Den adaptiva lokala modulo-2π fasen denoisering är en ny algoritm baserad på lokala polynom approximationer. Fasens nollställning och första ordningens approximationer beräknas i skjutbara fönster av varierande storlek. Noll-order approximationen används för punktvis adaptiv fönsterstorlek val, medan den första-order approximationen används för att filtrera fasen i de erhållna fönstren. För fasurpackning använder vi den nyligen införda robusta (i betydelsen diskontinuitetsbevarande) PUMA-urpackningsalgoritmen (IEEE Trans). Bildbehandling. 16, 698 (2007) till den denoiserade inslagna fasen. Simuleringar ger belägg för att den föreslagna algoritmen ger toppmodern prestanda, vilket möjliggör stark bullerdämpning samtidigt som bildens detaljer bevaras. | PEARLS implementerar en filtreringsteknik baserad på lokal polynom approximation med ett varierande adaptivt område som används vid återuppbyggnad (se REF för detaljer). | 10,303,811 | Absolute phase estimation: adaptive local denoising and global unwrapping | {'venue': 'Appl. Opt', 'journal': None, 'mag_field_of_study': ['Physics', 'Medicine']} | 10,176 |
Abstract-Instrumentera den fysiska världen genom stora nätverk av trådlösa sensorn noder, särskilt för tillämpningar som miljöövervakning av vatten och jord, kräver att dessa noder är mycket små, lätta, otyglade och diskreta. Problemet med lokalisering, d.v.s. att bestämma var en given nod fysiskt befinner sig i ett nätverk är ett utmanande problem, men ändå oerhört viktigt för många av dessa tillämpningar. Praktiska överväganden såsom liten storlek, formfaktor, kostnad och makt begränsningar noder utesluter beroendet av GPS (Global Positioning System) på alla noder i dessa nätverk. I detta dokument granskar vi lokaliseringstekniker och utvärderar effektiviteten av en mycket enkel konnektivitet-metrisk metod för lokalisering i utomhusmiljöer som använder sig av de inneboende radiofrekvens (RF) kommunikationskapacitet av dessa enheter. Ett fast antal referenspunkter i nätverket med överlappande områden för täckning sänder periodiska signaler från beacon. Noder använder en enkel konnektivitetsmätare, som är mer robust för miljövagarier, för att härleda närheten till en given delmängd av dessa referenspunkter. Noder lokaliserar sig själva till centroiden av deras proximata referenspunkter. Noggrannheten i lokaliseringen är då beroende av separationsavståndet mellan två intilliggande referenspunkter och dessa referenspunkters överföringsområde. Initiala experimentella resultat visar att noggrannheten för 90% av våra datapunkter ligger inom en tredjedel av separationsavståndet. Men framtida arbete krävs för att utvidga tekniken till mer belamrade miljöer. | al REF studerade signalstyrkasbaserade och konnektivitetsbaserade tekniker för lokalisering i utomhusmiljöer. | 771,769 | GPS-less Low Cost Outdoor Localization For Very Small Devices | {'venue': 'IEEE Personal Communications Magazine', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 10,177 |
Abstract-Under rusningstid i stadsområden ökar oförutsägbara trafikstockningar på grund av händelser under rutten (t.ex. fordonsolyckor) förarnas restid och minskar, mer allvarligt, deras restidstillförlitlighet. I detta dokument föreslås ett originellt och mycket praktiskt system för omdirigering av fordon, som kallas "Next Road Rerouting" (NRR), för att hjälpa förare att göra det bästa nästa vägval för att undvika oväntade trafikstockningar. Detta heuristiska beslut om ombokning fattas framför allt på grundval av en kostnadsfunktion som tar hänsyn till förarens destination och lokala trafikförhållanden. Dessutom gör NRR:s nydesignade systemarkitektur att de positiva omdirigeringseffekterna på den lokala trafiken kan spridas till ett större område genom det naturliga trafikflödets utbredning inom sammankopplade lokala områden. Simuleringsresultaten baserade på både syntetiska och realistiska stadsscenarier visar att NRR, jämfört med de befintliga lösningarna, kan uppnå en lägre genomsnittlig restid och samtidigt garantera en högre restidstillförlitlighet vid oväntade trafikstockningar. Effekterna av NRR på restiden för både omriktade och icke-omriktade fordon bedöms också, och motsvarande resultat visar att det är mer praktiskt genomförbart. | Wang m.fl. REF utvecklar ett system för omdirigering av fordon som kallas NRR (Next Road Rerouging), där man i ett heuristiskt omdirigeringsbeslut överväger en kostnadsfunktion som tar hänsyn till förarens destination och lokala trafikförhållanden. | 16,550,733 | Next Road Rerouting: A Multiagent System for Mitigating Unexpected Urban Traffic Congestion | {'venue': 'IEEE Transactions on Intelligent Transportation Systems', 'journal': 'IEEE Transactions on Intelligent Transportation Systems', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 10,178 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.