src
stringlengths
100
134k
tgt
stringlengths
10
2.25k
paper_id
int64
141
216M
title
stringlengths
9
254
discipline
stringlengths
67
582
__index_level_0__
int64
0
83.3k
Abstract-I detta arbete vi ta itu med subrymd kluster problem. Med tanke på en uppsättning dataprover (vektorer) som ungefär dras från en förening av flera subrymder, är vårt mål att samla proverna i sina respektive subrymder och ta bort eventuella avvikelser också. I detta syfte föreslår vi en ny objektiv funktion som heter Låg-Rank Representation (LRR), som söker den lägsta nivån representation bland alla kandidater som kan representera dataprover som linjära kombinationer av baserna i en given ordbok. Det visas att det konvexa programmet som är associerat med LRR löser subrymdsklustret i följande mening: när datan är ren, bevisar vi att LRR exakt återvinner de sanna subrymdsstrukturerna; när datan kontamineras av outliers, bevisar vi att LRR under vissa förhållanden exakt kan återställa radutrymmet för originaldata och upptäcka utlier också; för data som korrumperas av godtyckliga glesa fel, kan LRR också ungefär återställa radutrymmet med teoretiska garantier. Eftersom subrymdsmedlemskapet tydligt bestäms av radutrymmet innebär dessa ytterligare att LRR kan utföra robust subrymdsklustring och felkorrigering på ett effektivt och effektivt sätt.
För att ytterligare fånga den globala datastrukturen, Liu et al. I REF föreslås LRR-grafen, som syftar till en låggradig representation av uppgifterna.
2,105,943
Robust Recovery of Subspace Structures by Low-Rank Representation
{'venue': 'IEEE Trans. Pattern Analysis and Machine Intelligence, 35(2013) 171-184', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine', 'Mathematics']}
2,652
I vilken utsträckning lär vi oss av de positiva kontra negativa resultaten av våra beslut? Neuromodulatorn dopamin spelar en nyckelroll i dessa förstärkande inlärningsprocesser. Patienter med Parkinsons sjukdom, som har utarmat dopamin i basala ganglier, har nedsatta uppgifter som kräver att man lär sig av försök och misstag. Här visar vi, med hjälp av två kognitiva procedurer lärande uppgifter, att Parkinsons patienter utan medicinering är bättre på att lära sig att undvika val som leder till negativa resultat än de är på att lära sig från positiva resultat. Dopamin medicinering vänder denna bias, vilket gör patienterna mer känsliga för positiva än negativa resultat. Detta mönster förutspåddes av vår biologiskt baserade beräkningsmodell av basala ganglier/dopamininteraktioner i kognition, som har separata vägar för "Go" och "NoGo" svar som differentieras genom positiv och negativ förstärkning.
Till exempel, REF visar att off-medicinering PD patienter är bättre på att lära sig att undvika val som leder till negativa resultat än de är på att lära sig av positiva resultat, medan dopamin medicinering vanligtvis används för att behandla PD symtom vänder denna bias.
6,089,047
By carrot or by stick: Cognitive reinforcement learning in parkinsonism
{'venue': 'Science', 'journal': None, 'mag_field_of_study': ['Medicine']}
2,653
Beräkningen av betydelsen likhet som operationalized av vektorbaserade modeller har funnit utbredd användning i många uppgifter som sträcker sig från förvärv av synonymer och parafraser till ord sense disambiguation och textanknytning. Vektorbaserade modeller är vanligtvis inriktade på att representera ord isolerat och därmed bäst lämpade för att mäta likhet utifrån sammanhang. I sitt dokument föreslår vi en probabilistisk ram för att mäta likhet i sitt sammanhang. Centralt för vårt tillvägagångssätt är intuitionen att ordbetydelse representeras som en sannolikhetsfördelning över en uppsättning latenta sinnen och moduleras av sammanhang. Experimentella resultat på lexikal substitution och ordlikviditet visar att vår algoritm överträffar tidigare föreslagna modeller.
Padó (2008, 2009 ) använder sig av urvalspreferenser för att uttrycka innebörden av ett ord i sitt sammanhang. Och REF föreslår en probabilistisk ram som modellerar betydelsen av ord som en sannolikhetsfördelning över latenta faktorer.
5,216,936
Measuring Distributional Similarity in Context
{'venue': 'EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,654
Forskare som är intresserade av akademiskt självreglerat lärande har börjat studera processer som studenterna använder för att initiera och styra sina insatser för att förvärva kunskap och färdighet. Den sociala kognitiva uppfattningen om självreglerat lärande som presenteras här innefattar en triadisk analys av komponentprocesser och ett antagande av ömsesidigt kausalitet mellan personliga, beteendemässiga och miljömässiga triadiska influenser. Denna teoretiska redogörelse representerar också en central roll för uppbyggnaden av akademiska själveffektivitetsföreställningar och tre självreglerande processer: självobservation, självbedömning och självreaktioner. Forskningsstöd för denna sociala kognitiva formulering diskuteras, liksom dess användbarhet för att förbättra studenternas lärande och akademiska prestationer. I över två decennier har forskare inom socialt lärande forskat om sådana självreglerande processer som självstärkande (t.ex. Bandura, Grosec, & Menlove, 1967; Bandura & Kupers, 1964), standardinställning (t.ex., Mischel & Liebert, 1966), fördröjning av tillfredsställelse (t.ex., Mischel, 1981; Mischel & Bandura, 1965), målinställning (t.ex., Bandura & Schunk, 1981; Schunk, 1985), själveffektsuppfattningar (t.ex., Bandura, 1982a; Schunk, 1984; Zimmerman & Ringle, 1981), självinstruktioner (Schunk, 1986; Schunk & Rice, 1984), och självutvärdering (t.ex. Bandura & Cervone, 1983. Under denna tidsperiod har ett antal forskare försökt integrera denna forskning i allmänna modeller för självreglering (t.ex. Bandura, 1977a Bandura,, 1986 Thoresen & Mahoney, 1974; Zimmerman, 1981 Zimmerman,, 1983 ). Banduras seminala roll i att föreslå och studera delprocesser för självreglering, deras bestämningsfaktorer och deras inbördes förhållande är uppenbar i många av dessa konton. En första formulering av självreglerat akademiskt lärande, som erbjuds enligt följande, innehåller många sociala lärandekonstruktioner och antaganden. I allmänhet kan studenterna beskrivas som självreglerade till den grad att de är metakognitiva,'motivativt, och beteendemässigt aktiva deltagare i sin egen inlärningsprocess (Zimmerman, 1986 (Zimmerman,, 1989 och styra sina egna ansträngningar att förvärva kunskap och skicklighet snarare än att förlita sig på lärare, föräldrar, eller andra agenter för undervisning. För att kvalificera sig specifikt som självreglerad i mitt konto måste studenterna* lära sig att använda specifika strategier för att uppnå akademiska mål på grundval av själveffektivitetsuppfattningar. Denna definition antar betydelsen av tre element: elever 1 självreglerade inlärningsstrategier, själveffektivitetsuppfattningar om prestationsförmåga och engagemang för akademiska mål. Självreglerade inlärningsstrategier är åtgärder och processer som är inriktade på att skaffa sig information eller färdigheter som inbegriper bemanningsföretag, syfte och instrumentalitetsuppfattningar av inlärare. De inkluderar metoder som att organisera och omvandla information, självkorrekt, söka information och repetera eller använda minneshjälpmedel (Zimmerman & Martinez-Pons, 1986). Själveffekt avser uppfattningar om ens förmåga att organisera och genomföra åtgärder som är nödvändiga för att uppnå bestämda färdigheter för specifika uppgifter (Bandura, 1986). Akademiska mål som betyg, social aktning eller anställningsmöjligheter efter examen kan variera mycket till sin natur och i tiden för uppnåendet. Min föreslagna definition följer Thoresen och Mahoney's (1974) när det gäller att beskriva människans självreglering på grundval av en temporal gradient. Även om de främst var intresserade av effekterna av skillnader mellan omedelbara och fördröjda miljöresultat på beteendefunktion, fokuserar min definition på hur elever representerar samtida åtgärder och villkor när det gäller strategier för att nå efterföljande mål. Det antar en motivationsorientering av inlärare som upprätthålls av fortsatta självuppfattningar av effektivitet när du utför en specifik uppgift. För att studenternas strategiska åtgärder ska beskrivas som självreglerade måste man alltså känna till sina akademiska mål och uppfattningar om effektivitet. Till exempel, man kan inte definiera elevernas gå ut för kaffe efter att ha studerat som en självkonekverande strategi utan att veta deras syfte med att använda denna strategi (dvs. att förbättra motivationen) och deras uppfattning om effektivitet när man använder den (t.ex. att göra fler läxor).
Zimmerman m.fl.Modellen för självreglerat lärande REF omfattar tre cykliska faser: förutseende, prestanda och självreflektion.
18,027,423
A social cognitive view of self-regulated academic learning.
{'venue': None, 'journal': 'Journal of Educational Psychology', 'mag_field_of_study': ['Psychology']}
2,655
En av de mest kritiska frågorna för trådlösa sensornätverk (WSN) är utbyggnaden av ett begränsat antal sensorer för att uppnå maximal täckning i terräng. Den optimala sensordistributionen som gör det möjligt att minimera förbrukad energi, kommunikationstid och personal för underhåll av nätverket har väckt intresse med det ökade antalet studier som genomförts i ämnet under det senaste årtiondet. De flesta av studierna i litteraturen idag föreslås för tvådimensionella (2D) ytor; men, verkliga världen sensor driftsättningar ofta uppstår på tredimensionella (3D) miljöer. I detta dokument föreslås en styrd wavelettransform (WT) baserad installationsstrategi (WTDS) för 3D-terräng, där sensorrörelser utförs inom mutationsfasen av de genetiska algoritmerna (GAs). Den föreslagna algoritmen syftar till att maximera kvaliteten på täckningen (QoC) av en WSN genom att distribuera ett begränsat antal sensorer på en 3D-yta genom att använda en probabilistisk sensormodell och Bresenhams synfältsalgoritm (LOS). Dessutom är den metod som följs i detta dokument ny för litteraturen och prestandan hos den föreslagna algoritmen jämförs med Delaunay Triangulation (DT) metod samt en standard genetisk algoritm baserad metod och resultaten visar att den föreslagna metoden är en mer kraftfull och mer framgångsrik metod för sensor distribution på 3D terränger.
Unaldi m.fl. föreslog en installationsstrategi för 3D-terränger baserade på våget transformation, där sensorer omlokaliseras av mutationsoperatören av de genetiska algoritmerna (GAs) REF.
16,992,165
Method for Optimal Sensor Deployment on 3D Terrains Utilizing a Steady State Genetic Algorithm with a Guided Walk Mutation Operator Based on the Wavelet Transform
{'venue': 'Sensors (Basel, Switzerland)', 'journal': 'Sensors (Basel, Switzerland)', 'mag_field_of_study': ['Computer Science', 'Medicine']}
2,656
Figur 1: Provbilder från vår interaktiva OpenGL ray tracer med hjälp av CHC+RT-algoritmen. Från vänster till höger: En stadsmodell med 138M-trianglar (7.89GB), Boeing 777-modellen med 350M-trianglar (18.9GB) och 16 kopior av Powerplant-modellen med 205M-trianglar (11.4GB). Vår algoritm baserad på hierarkisk ocklusion gallring möjliggör en enkel schemaläggning för att hantera utanför-kärna scener och också avsevärt accelererar OpenGL-baserad ray spårning i komplexa scener. Vi föreslår en ny teknik för in-core och ut-of-core GPU ray spårning med hjälp av en generalisering av hierarkisk ocklusion gallring i stil med CHC++ metoden. Vår metod utnyttjar rasterisering pipeline och hårdvaruocklusion frågor för att skapa sammanhängande satser av arbete för lokaliserade skugga-baserade ray spårningskärnor. Genom att kombinera hierarkier i både strålrymd och objektrymd kan metoden dela mellanliggande trafikresultat mellan flera strålar. Vi utnyttjar tidssammanhållning mellan liknande stråluppsättningar mellan ramar och även inom den givna ramen. En lämplig hantering av det nuvarande sikttillståndet gör det möjligt att dra nytta av ocklusionsslaktning för mindre sammanhängande stråltyper som diffusa reflektioner. Eftersom stora scener fortfarande är en utmaning för moderna GPU ray spårare, är vår metod mest användbar för scener med medium till hög komplexitet, särskilt eftersom vår metod stöder ray spårning mycket komplexa scener som inte passar i GPU minne. För in-core scener vår metod är jämförbar med CUDA ray spårning och utför upp till 5.94× bättre än ren shander-baserad ray spårning.
CHC+RT REF använder kombinerade hierarkier i strålrymd (RSH) och objektutrymme (BVH).
20,037,637
CHC+RT: Coherent Hierarchical Culling for Ray Tracing
{'venue': 'Comput. Graph. Forum', 'journal': 'Comput. Graph. Forum', 'mag_field_of_study': ['Computer Science']}
2,657
Abstrakt. En q-query Lokalt Decodable Code (LDC) kodar ett n-bit meddelande x som ett N-bit kodord C(x), så att man kan probabilistically återställa någon bit x i av meddelandet genom att fråga bara q bitar av kodordet C(x), även efter att vissa konstant bråkdel av kodord bitar har korrumperats. Vi ger nya konstruktioner av tre frågor LDC av mycket kortare längd än tidigare konstruktioner. Specifikt, med tanke på någon Mersenne prime p = 2 t − 1, vi utforma tre fråga LDCs av längd N = exp(O(n 1/t )), för varje n. Baserat på den största kända Mersenne prime, detta översätter till en längd av mindre än exp(O(n 10 −7 )), jämfört med exp(O(n 1/2 )) i de tidigare konstruktionerna. Det har ofta trotts att det finns oändligt många Mersenne primes. Under denna gissning, våra konstruktioner ger tre frågor lokalt decodable koder längd N = exp(n O( 1 log log n ) ) för oändligt många n. Vi får också liknande förbättringar för Privat Information Retrieval (PIR) system. Vi ger 3-servers PIR-system med kommunikations komplexitet av O(n 10 −7 ) för att få tillgång till en n-bit databas, jämfört med den tidigare bästa systemet med komplexitet O(n 1/5,25 ). Förutsatt att det finns oändligt många Mersenne primes, vi får 3-server PIR system av kommunikations komplexitet n O( 1 log log n ) för oändligt många n. Tidigare familjer av LDCs och PIR system baserades på egenskaperna hos låggradiga multivariat polynomials över ändliga fält. Våra konstruktioner är helt olika och erhålls genom att konstruera ett stort antal vektorer i ett litet dimensionellt vektorutrymme vars inre produkter är begränsade till att ligga i ett algebraiskt fint set.
Genom att anta förekomsten av oändligt många Mersenne primes, Yekhanin REF konstruerade en 3-server PIR system med kommunikations komplexitet n O(1/ logg n).
14,617,710
Towards 3-query locally decodable codes of subexponential length
{'venue': 'JACM', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
2,658
Vi undersöker en klass av vägbegränsningar som är av intresse i samband med både halvstrukturerade och strukturerade data. I standarddatabassystem brukar begränsningar uttryckas som en del av schemat, men i halvstrukturerade data finns det inget explicit schema och vägbegränsningar ger ett naturligt alternativ. Som med strukturerade data, banbegränsningar på halvstrukturerade data uttrycker integritet begränsningar i samband med semantik av data och är viktiga för frågeoptimering. Vi visar att i halvstrukturerade databaser, trots den enkla syntaxen av begränsningarna, deras tillhörande implikationsproblem är r.e. Fullständiga och några implicita problem är co-r.e. Färdig. Vi konstaterar dock att det är svårt att avgöra vilka konsekvenser och vilka konsekvenser det finns för flera fragment av språket som begränsar vägen, och visar att dessa fragment ger uttryck för viktig semantisk information såsom begränsningar av omfattningen, inversa relationer och lokala databasbegränsningar som ofta finns i objektorienterade databaser.
I REF visades det att i samband med halvstrukturerade data är konsekvenserna och ändliga implikationsproblem för P c obeslutbara.
553,416
Path Constraints in Semistructured Databases
{'venue': 'J. Comput. Syst. Sci.', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,659
Abstract-I detta dokument analyseras effektiv driftsättning av flera obemannade luftfartyg (UAV) med riktade antenner som fungerar som trådlösa basstationer som ger täckning för markanvändare. För det första, nedlänk täckning sannolikheten för UAVs som en funktion av höjden och antennen vinst härleds. Därefter, med hjälp av cirkelpackning teori, tredimensionella platser för UAVs bestäms på ett sätt som den totala täckningsområdet maximeras samtidigt maximera täckning livslängden för UAVs. Våra resultat visar att för att minska störningarna måste UAV:s höjd justeras korrekt baserat på strålbredden på den riktade antennen samt täckningskraven. Dessutom fastställs det minsta antal UAV som krävs för att garantera en sannolikhet för måltäckning för ett visst geografiskt område. Numeriska resultat utvärdera de olika kompromisser som är inblandade i olika UAV driftsättningsscenarier.
Författarna till REF använde sfär förpackningsteori för att bestämma den mest lämpliga 3D positionen för UAVs samtidigt som gemensamt maximera både den totala täckningsområdet och batteri driftsperioden för UAVs.
17,058,668
Efficient Deployment of Multiple Unmanned Aerial Vehicles for Optimal Wireless Coverage
{'venue': 'IEEE Communications Letters', 'journal': 'IEEE Communications Letters', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
2,660
I detta dokument presenteras en metod för att kombinera fråge-relevans med informations-nyhet i samband med textsökning och sammanfattning. Kriteriet Maximal Marginal Relevance (MMR) strävar efter att minska redundansen samtidigt som frågerelevansen bibehålls vid omvärdering av hämtade dokument och vid val av apprw priate passager för textsammanfattning. Preliminära resultat tyder på vissa fördelar för MMR mångfald rankning i dokumenthämtning och i enkel dokumentsammanfattning. De senare bekräftas av de senaste resultaten från SUMMAC-konferensen i utvärderingen av sammanfattande system. Den tydligaste fördelen är dock att man konstruerar icke-redundanta sammanfattningar av flera dokument, där MMR-resultaten är klart bättre än icke-MMR-passageval.
Att kombinera relevans och mångfald för rankning av textdokument med hjälp av Maximal Marginal Relevance (MMR) objektiv funktion syftar till att minska redundans i resultatet satt samtidigt som relevans för frågan REF.
6,334,682
The use of MMR, diversity-based reranking for reordering documents and producing summaries
{'venue': "SIGIR '98", 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,662
Vi undersöker sensibilitetsanalys på Twitterdata. Bidragen från detta dokument är: (1) Vi introducerar POS-specifika tidigare polaritetsfunktioner. (2) Vi undersöker användningen av en trädkärna för att undanröja behovet av tråkig funktionsteknik. De nya funktionerna (i kombination med tidigare föreslagna funktioner) och trädkärnan presterar ungefär på samma nivå, vilket båda överträffar det toppmoderna utgångsläget.
Agarwal m.fl. REF utförde känsloanalys på en twitter corpus där de använde Del av Speech (POS) specifika funktioner och en trädkärna för sitt system.
2,456,677
Sentiment Analysis of Twitter Data
{'venue': 'Proceedings of the Workshop on Language in Social Media (LSM 2011)', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,663
Abstrakt. Detta dokument tar upp uppgiften att upptäcka och känna igen människa-objekt-interaktioner (HOI) i bilder och videor. Vi introducerar Graph Parsing Neural Network (GPN), en ram som omfattar strukturell kunskap samtidigt som den är differentierad från början till slut. För en given scen, GPNN infer en parse graf som innehåller i) HOI graf struktur representeras av en adjacency matris, och ii) nod etiketter. Inom ramen för ett meddelande som passerar en slutsats beräknar GPN iterativt adjacencymatriser och nodetiketter. Vi utvärderar i stor utsträckning vår modell på tre HOI-detektorer på bilder och videor: HICO-DET, V-COCO och CAD-120 dataset. Vår strategi är betydligt bättre än den senaste tekniken, vilket bekräftar att GPNN är skalbart till stora datauppsättningar och gäller för rumsliga-temporala inställningar. Koden finns på https://github.com/SiyuanQi/gpnn.
Graph Parsing Neural Networks REF införlivade strukturella kunskaper och drog slutsatsen att en parsdiagram i ett meddelande passerar slutsatser ram.
51,992,868
Learning Human-Object Interactions by Graph Parsing Neural Networks
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
2,664
Med tillkomsten av Grid och tillämpningstekniker, bygger forskare och ingenjörer allt mer komplexa applikationer för att hantera och bearbeta stora datamängder, och utföra vetenskapliga experiment på distribuerade resurser. Sådana tillämpningsscenarier kräver medel för att komponera och utföra komplexa arbetsflöden. Därför har många insatser gjorts för att utveckla system för hantering av arbetsflöden för Grid computing. I detta dokument föreslår vi en taxonomi som karakteriserar och klassificerar olika metoder för att bygga och utföra arbetsflöden på Grids. Vi undersöker också flera representativa arbetsflödessystem i Grid som utvecklats av olika projekt över hela världen för att visa på taxonomin i sin helhet. Taxonomi belyser inte bara de konstruktions- och ingenjörslika likheterna och skillnaderna i toppmoderna arbetsflödessystem i Grid, utan identifierar också de områden som behöver ytterligare forskning.
Flera tillvägagångssätt har föreslagits inom området för nättillämpningar (se REF för en undersökning om tillvägagångssätt för att bygga och utföra arbetsflöden för nät) och tillämpas även inom området för servicebaserade system.
420,116
A Taxonomy of Workflow Management Systems for Grid Computing
{'venue': 'Journal of Grid Computing', 'journal': 'Journal of Grid Computing', 'mag_field_of_study': ['Computer Science']}
2,665
Vi presenterar nya algoritmer för att hitta inducerade fyranode subgraphs i en given graf, som körs i tiden ungefär som att upptäcka en klick på tre noder (dvs. en triangel). • De mest kända algoritmer för triangelfynd i en nnode graf ta tid O (n), där på < 2.373 är matris multiplikation exponenten. Vi ger en generell randomiserad teknik för att hitta någon inducerad fyra-node subgraph, med undantag för klick eller oberoende inställd på 4 noder, iñ O (n) tid med hög sannolikhet. Algoritmen kan avrandomiseras i vissa fall: vi visar hur man detekterar en diamant (eller dess komplement) i deterministisk Õ(n) tid. Vårt tillvägagångssätt förbättras avsevärt när det gäller tidigare arbete. Till exempel, den tidigare bästa algoritmen för C 4 detektion kördes i O(n 3.3 ) tid, och för diamant detektion i O(n 3 ) tid. • För glesa grafer med m-kanter körs den mest kända algoritmen för att hitta triangeln i O(m 2 och/(+1) ) ≤ O(m 1,41 ) tid. Vi ger en randomiserad Õ(m 2 och/(+1) ) tid algoritm (analog till den mest kända för triangelfynd) för att hitta någon inducerad fyranode subgraph andra än C 4, K 4 och deras komplement. När det gäller diamantdetektion utformar vi också en deterministisk Õ (m 2 och/( och +1) ) tidsalgoritm. För C 4 eller dess komplement, ger vi randomiserade O (m (40-1)/(2-+1) ) ≤ O (m 1,48 ) tid att hitta algoritmer. Dessa algoritmer förbättras avsevärt på tidigare arbete. Till exempel, den bästa algoritmen för diamant detektion kördes i O (m 1.5 ) tid.
Williams, Wang, Williams, och Yu REF gav O (n) tid algoritmer för den inducerade subgraph isomorfism problem för fyra vertex mönster grafer, utom I 4 och K 4.
1,136,121
Finding Four-Node Subgraphs in Triangle Time
{'venue': 'SODA', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
2,666
Det är mchmism. Motiveringen är att en bcttcr understditig av de relativa tnerits kommer scrve som en corncrslonc Tor clcvclopinerit o f tiore effcctivc routing protokoll för rnohilc ad hoc nctwnrks. Resten av tidningen är orgaiizcd som Iollows. I ihc lollowing scction, vi kort rcvicw tlic DSR och AODV proioculs. I Scction 111, wc prcsknt en detaljerad criliquc av thc två Ixotocols, med fokus på thc skillnader på deras dynamiska beteenden som kan lcad till performancc diKcrcnccs. Detta lwys h n mycket av contcxt av thc pccforinance studie. Scctioti IV describcs ihc simtilition cnvirontnent. Avsnitt V prcsknts ~h c siniulation rcsults followctI deras inlcractations i Sec~ion VI. Relaterat arbete presenteras i Qccticin VII. Vi drar våra slutsatser i Scction VIII, där vi också makc rccoiiimendations f o r iin~~rovctl design av cithcr protokoll. Jag... L)eck~PTION n~ I'ROI'OL'OLS Nyckeln Twltirc o P DSR 131, [9] är rhc usc av sugma rolcliig. Det vill säga, thc sctider vet tlic complctc hop-by-hop rauie lo thc destination. Thesc routcs iirc lagrad i en rtir <te cctche. 'I'lic (lata peckcts cnrIy thc källväg i tlic paket Iieacler. När en nod i tbc ad hoc arbete attctnpis 10 scnd ii datapaket till en destination för vilken den docs inte redan känner till thc rutt, det sincs ii mute discowly processa till dynamiskt fcterminc sådan 11 routc. Route discovcry fungerar tiy översvämningar tic[-work wilb route rcqucst (KHEQ) pnckck lhch node recciving en RREQ, rebroarlcasis it, iinlcss det är deslinarion eller det har en väg till destinationen i sin rouw cachc. Sådana n node-svar
Perkins i REF visade prestanda för DSR och AODV.
7,902,246
Performance comparison of two on-demand routing protocols for ad hoc networks
{'venue': 'Proceedings IEEE INFOCOM 2000. Conference on Computer Communications. Nineteenth Annual Joint Conference of the IEEE Computer and Communications Societies (Cat. No.00CH37064)', 'journal': 'Proceedings IEEE INFOCOM 2000. Conference on Computer Communications. Nineteenth Annual Joint Conference of the IEEE Computer and Communications Societies (Cat. No.00CH37064)', 'mag_field_of_study': ['Computer Science']}
2,667
Abstrakt. I tidigare forskning har vi utvecklat en curry-howard tolkning av linjär sekventiell analys som sessions-typade processer. I detta dokument integrerar vi enhetligt denna beräkningstolkning i ett funktionellt språk via en linjär kontextuell monad som isolerar sessionsbaserad konvergens. Monadiska värden är öppna processuttryck och är förstklassiga objekt i språket, vilket ger en logisk grund för högre ordning sessionstypade processer. Vi illustrerar hur den kombinerade användningen av monad och rekursiva typer gör att vi rent skriva en mängd olika samtidiga program, inklusive högre-order program som kommunicerar processer. Vi visar det vanliga metateoretiska resultatet av typbevarande, liksom ett globalt framstegsteorem, som så vitt vi vet är nytt i den högre ordningens sessionstypade inställning.
Toninho och al. REF lägger till session-typad kommunikation till ett funktionellt språk med hjälp av en monad.
6,559,980
Higher-Order Processes, Functions, and Sessions: A Monadic Integration
{'venue': 'ESOP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,668
Abstract-A metod för robot inomhus automatisk positionering och orientering baserad på tvådimensionell (2D) streckkod landmärke föreslås. Genom att använda 2D-streckkoden för referens är ett särskilt landmärke utformat som är bekvämt att använda och lätt att känna igen, innehåller koordinater för deras absoluta positioner och har en viss förmåga att automatiskt korrigera fel. Landmärken placeras över "taket" och fotograferas av en kamera monterad på roboten med sin optiska axel vertikal mot takplanet. Landmärkets koordinater och vinkel förvärvas genom bildsegmentering, konturextraktion, karakteristiska kurvor som matchar och landmärkesegenskaper som identifierar, och sedan beräknas robotens nuvarande absoluta position och kursvinkel. Experimenten visade metodens effektivitet och visar att metoden kan uppfylla noggrannhetskraven för inomhusposition och orientering.
En färsk forskning av Lin och Chen REF presenterade en robot pose estimation system baserat på att distribuera en 2D streckkod landmärke på taket och montera en kamera vertikalt på roboten.
2,608,087
A Robot Indoor Position and Orientation Method based on 2D Barcode Landmark
{'venue': 'JCP', 'journal': 'JCP', 'mag_field_of_study': ['Computer Science']}
2,669
IEEE-802.15.4-standarden är redo att bli den globala standarden för låg datahastighet, låg energiförbrukning Trådlösa Sensornätverk. Genom att tilldela samma uppsättning parametrar för åtkomst till innehåll för alla dataramar och noder, tillhandahåller Contention Access Period (CAP) för den slitsade IEEE-802.15.4 för närvarande en jämn kanalåtkomstfunktionalitet och ingen tjänstedifferentiering. Vissa tillämpningar kan dock kräva servicedifferentiering och trafikprioritering stöd för att rymma högprioriterad trafik (t.ex. larm). För att simulera ett scenario där olika uppsättningar parametrar för åtkomst för olika nodklasser kan konfigureras, utvecklar detta dokument en Markov-kedjebaserad modell av CAP för IEEE-802.15.4-MAC. Vår Markov-modell kan användas för att utvärdera effekten av att blanda nodklasser i viktiga faktorer som genomströmning, energiförbrukning, sannolikhet för leverans och paketlatens. Modellen har använts för att ge trafikdifferentiering i en hög mättnad scenario där en uppsättning noder kan konfigureras för att öka 76% sannolikheten för att skicka ett paket och minska 58% latens, med en 69% energipåföljd, i jämförelse med ett standardscenario. Markovmodellens noggrannhet valideras genom omfattande ns-2-simuleringar.
En analysmodell baserad på Markov-kedjan införs i REF för att utvärdera effekten av genomströmning och energiförbrukning på sannolikheten för att leverera ett paket.
11,654,168
Generic Markov Model of the Contention Access Period of IEEE 802.15.4 MAC Layer
{'venue': 'Digit. Signal Process.', 'journal': 'Digit. Signal Process.', 'mag_field_of_study': ['Computer Science']}
2,670
Observationer från två motorvägsflaskhalsar i och nära Toronto, Kanada visar att den genomsnittliga hastighet fordon utsläpp från en kö kan vara 10% lägre än det flöde som uppmätts före kön bildandet. Frånvaron av påverkan från nedströms, köurladdningsflödena visade nästan stationära mönster som växlade mellan högre och lägre priser. Dessa alternerande flödesmönster var särskilt tydliga på en av de två platserna, även om funktionen inträffade på båda platserna under perioder som omedelbart följde på uppkomsten av uppströms köer, dvs.. En kö formation åtföljdes alltid av en relativt låg disladdningsfrekvens följt senare av en tillfällig ökning av urladdningsflödet. När man ritade kumulativt över tiden, avvek dock i allmänhet inte antalet utsläppsfordon med mer än 50 fordon från en trendlinje med konstant lutning. Således beskrivs utsläppsflödena som "nästan" konstanta, d.v.s. De varierade (lite) omkring en fast ränta. Vid varje plats, denna genomsnittliga urladdningsfrekvens uppvisade liten avvikelse från dag till dag. De nuvarande resultaten kom genom att visuellt jämföra transformerade kurvor av kumulativt antal fordon anlända jämfört med tid och kumulativ beläggning jämfört med tid mätt vid angränsande loop detektorer. Denna behandling av data gav tydliga presentationer av vissa viktiga trafikfunktioner och detta underlättade en detaljerad studie av flaskhalsflöden.
Fordonets urladdningshastighet på två motorvägar i Toronto, Kanada, analyserades i REF.
17,520,792
Some traffic features at freeway bottlenecks
{'venue': None, 'journal': 'Transportation Research Part B-methodological', 'mag_field_of_study': ['Economics']}
2,671
Vi föreslår ett nytt djupt nätverk för ljudhändelseigenkänning, som kallas AENet. I motsats till tal, ljud som kommer från ljudhändelser kan produceras av en mängd olika källor. Dessutom kräver det ofta att man analyserar en längre tidsperiod på grund av bristen på tydliga underordsenheter som finns i tal. För att införliva denna långsiktiga frekvensstruktur av ljudhändelser, introducerar vi ett konvolutionellt neuralt nätverk (CNN) som arbetar på en stor temporal ingång. I motsats till tidigare arbeten gör detta att vi kan träna ett system för att upptäcka ljudhändelser till slut. Kombinationen av vår nätverksarkitektur och en ny dataförstärkning överträffar tidigare metoder för att upptäcka ljudhändelser med 16 %. Dessutom utför vi överföring lärande och visar att vår modell lärt sig generiska ljudfunktioner, liknande det sätt CNNs lär generiska funktioner på vision uppgifter. I videoanalys, kombinera visuella funktioner och traditionella ljudfunktioner, såsom mel frekvens cepstral koefficienter, leder vanligtvis bara till marginella förbättringar. Istället, kombinera visuella funktioner med våra AENet funktioner, som kan beräknas effektivt på en GPU, leder till betydande prestandaförbättringar på åtgärdsigenkänning och video highlight upptäckt. I video höjdpunkt upptäckt, våra ljudfunktioner förbättra prestanda med mer än 8% över visuella funktioner ensam. Index Terms-konvolutionella neurala nätverk, ljudfunktion, stora ljud händelse dataset, stora inmatningsfält, höjdpunkt upptäckt.
Till exempel, i REF, författarna presenterar en ny djup arkitektur med dataförstärkningsstrategi för att lära sig en modell för ljudhändelser erkännande.
3,750,664
AENet: Learning Deep Audio Features for Video Analysis
{'venue': 'IEEE Transactions on Multimedia', 'journal': 'IEEE Transactions on Multimedia', 'mag_field_of_study': ['Computer Science']}
2,672
Abstrakt. Anpassning av applikationsarkitektur till affärsarkitektur är ett centralt problem vid utformning, förvärv och genomförande av informationssystem i nuvarande storskaliga informationshanteringsorganisationer. Den aktuella forskningen om arkitekturanpassning är antingen för strategisk eller för programimplementeringsinriktad för att vara till nytta för den praktiserande informationssystemarkitekten. Detta dokument presenterar en ram för att analysera anpassningsproblem och operationaliserar detta som en strategi för applikationsarkitektur design med tanke på ett affärssammanhang. Vi sammanfattar riktlinjer för applikationsarkitekturdesign och illustrerar vår strategi och riktlinjer med ett exempel.
Wiering m.fl. I Ref föreslogs en ram för att anpassa tillämpningsarkitekturen till affärssammanhang.
7,480,584
Aligning Application Architecture to the Business Context
{'venue': 'CAiSE', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,673
Vi presenterar en modell, uppgiftsautomata, för realtidssystem med icke-uniformt återkommande beräkningsuppgifter. Det är en utökad version av tidsinställd automata med asynkrona processer som är beräkningsuppgifter som genereras (eller utlöses) av tidsinställda händelser. Jämfört med klassiska aktivitetsmodeller för realtidssystem, kan task automata användas för att beskriva uppgifter (1) som genereras icke-deterministiskt enligt tidsbegränsningar i tidsinställda automata, (2) som kan ha intervallutförandetider som representerar bästa fall och värsta fall utförandetider, och (3) vars slutförandetider kan påverka utgivningen av aktivitetsfall. Vi generaliserar den klassiska uppfattningen om schedulability till uppgift automata. En aktivitetsautomaton kan schemaläggas om det finns en schemaläggningsstrategi så att alla möjliga sekvenser av händelser som genereras av automaten kan schemaläggas i den meningen att alla tillhörande uppgifter kan beräknas inom sina tidsfrister. Vårt första tekniska resultat är att schemaläggningen för en viss schemaläggningsstrategi kan kontrolleras algoritmiskt för den klass av uppgiftsautomata när det bästa fallet och det värsta fallet utförande tider av uppgifter är lika. Beviset är baserat på en decibel klass av fjädring automata: tidsinställd automata med begränsad subtraktion där klockor kan uppdateras genom subtraktioner inom en avgränsad zon. Vi kommer också att studera gränslinjen mellan fall som kan avgöras och fall som inte kan avgöras. Vårt andra tekniska resultat visar att problemet med schemaläggningskontroll kommer att vara obeslutbart om följande tre villkor gäller: (1) uppgifternas utförandetider är intervaller, (2) den exakta avslutningstiden för en aktivitetsinstans kan påverka nya aktivitetsutgåvor, och (3) en uppgift tillåts föregripa en annan köruppgift.
Författarna till REF analyserade uppgifternas flexibilitet i realtid på en enda processor.
718,533
Task Automata: Schedulability, Decidability and Undecidability
{'venue': None, 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,675
Experimentella studier har visat att beteendet hos verkliga länkar i trådlösa nät med låg effekt (t.ex. trådlösa sensornätverk) i stor utsträckning avviker från den idealiska binära modell som används i flera simuleringsstudier. I synnerhet finns det en stor övergångsregion med trådlös länkkvalitet som kännetecknas av betydande nivåer av otillförlitlighet och asymmetri, vilket avsevärt påverkar prestandan hos protokoll i högre skikt. Vi tillhandahåller en omfattande analys av grundorsakerna till otillförlitlighet och asymmetri. I synnerhet härleder vi uttryck för fördelningen, förväntningarna och variansen av paketmottagningen som en funktion av avståndet, liksom för lokaliseringen och omfattningen av övergångsregionen. Dessa uttryck innehåller viktiga miljö- och radioparametrar såsom den väg förlust exponent och skuggande varians av kanalen, och modulering, kodning, och hårdvara variansen av radios.
I REF är en viktig kanaldynamik väl definierad; deras studier representeras av beteendet hos en verklig länk inverkan i låg effekt trådlösa nätverk.
2,186,154
An analysis of unreliability and asymmetry in low-power wireless links
{'venue': 'TOSN', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,676
Eftersom känsligare data delas och lagras av webbplatser från tredje part på Internet kommer det att finnas ett behov av att kryptera data som lagras på dessa webbplatser. En nackdel med att kryptera data, är att det kan selektivt delas endast på en grov-kornig nivå (dvs. att ge en annan part din privata nyckel). Vi utvecklar ett nytt kryptosystem för finkornig delning av krypterad data som vi kallar Key-Policy Attribut-Based Encryption (KP-ABE). I vårt kryptosystem är chiffertexter märkta med uppsättningar av attribut och privata nycklar associerade med åtkomststrukturer som styr vilka chiffertexter en användare kan dekryptera. Vi demonstrerar tillämpligheten av vår konstruktion på delning av revisions-logg information och sända kryptering. Vår konstruktion stöder delegering av privata nycklar som subsumerar Hierarchical Identity-Based Encryption (HIBE).
I Goyals konstruktion REF förlängde de den uttrycksfulla åtkomststrukturen genom att associera en chiffertext med en uppsättning attribut, som heter Key-Policy Attributbaserad kryptering (KP-ABE).
5,131,034
Attribute-based encryption for fine-grained access control of encrypted data
{'venue': "CCS '06", 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,677
Probabilistic Latent Semantic Analysis är en ny statistisk teknik för analys av två- och samtidiga data, som har tillämpningar i informationshämtning och filtrering, naturlig språkbehandling, ma chine lärande från text, och i relaterade ar eas. Jämfört med standard Latent Semantic Analysis som härrör från linjär algebra och utför en Singular Value Decomposition av co-occurrence tabeller, är den föreslagna metoden baserad på en blandning sönderdelning härrör från en latent klass modell. Detta leder till detta. i ett mer principfast tillvägagångssätt som har en solid grund i statistiken. För att undvika överbemanning föreslår vi en allmänt tillämplig generalisering av modellen med maximal sannolikhet genom härdad EM. Vårt tillvägagångssätt ger betydande och konsekventa förbättringar över Latent Semantic Analysis i ett antal fall.
Den probabilistiska latenta semantiska analysen REF är en populär metod för dokumentkluster och relaterade uppgifter.
653,762
Probabilistic Latent Semantic Analysis
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
2,678
Den här tidningen tar upp problemet med ansiktshallucinationer när det gäller att omvandla värmeinfrarött ansikte till fotorealistiska bilder. Det är en utmanande uppgift eftersom de två metoderna är dramatiska, vilket gör många utvecklade linjära modeller otillämpliga. Vi föreslår ett lärande-baserat ramverk syntetisera det normala ansiktet från infraröd ingång. Jämfört med det tidigare arbetet utnyttjar vi ytterligare den lokala linjäriteten i inte bara bildens rumsliga domän utan även bildgrenrören. Vi har också utvecklat en mätning av variansen mellan en inmatning och dess förutsägelse, vilket gör att vi kan tillämpa Markovs slumpmässiga fältmodell på det förutsagda normala ansiktet för att förbättra hallucinationsresultatet. Experimentella resultat visar fördelen med vår algoritm framför de befintliga metoderna. Vår algoritm kan enkelt generaliseras för att lösa andra multimodala bildkonverteringsproblem också.
I REF föreslogs en enkel metod som hallu-cinerar det synliga ansiktet från det termiska ansiktet genom att utnyttja den lokala linjäriteten i inte bara bildens rumsliga domän utan även bildgrenrören.
12,148,790
Hallucinating faces from thermal infrared images
{'venue': '2008 15th IEEE International Conference on Image Processing', 'journal': '2008 15th IEEE International Conference on Image Processing', 'mag_field_of_study': ['Computer Science']}
2,679
Höga kostnader för nätverkskommunikation för synkronisering av gradienter och parametrar är den välkända flaskhalsen för distribuerad utbildning. I detta arbete föreslår vi TernGrad som använder ternära gradienter för att påskynda distribuerat djupinlärning i dataparallalism. Vårt tillvägagångssätt kräver endast tre numeriska nivåer {−1, 0, 1}, som aggressivt kan minska kommunikationstiden. Vi bevisar matematiskt TernGrads konvergens under antagandet av en gräns på lutningar. Vägledd av gränsen, föreslår vi skiktvis ternarizing och lutning klippning för att förbättra dess konvergens. Våra experiment visar att tillämpa TernGrad på AlexNet inte drabbas av någon noggrannhet förlust och kan även förbättra noggrannheten. Noggrannheten förlust av GoogLeNet inducerad av TernGrad är mindre än 2% i genomsnitt. Slutligen föreslås en prestandamodell för att studera skalbarheten hos TernGrad. Experiment visar betydande hastighetsvinster för olika djupa neurala nätverk. Ur perspektivet inferenceacceleration har sparse och kvantized Deep Neural Networks (DNN) studerats i stor utsträckning, såsom [17][18][19][20][21][22]. Men dessa metoder generellt arXiv:1705.0778v4 [cs.LG] 18 Sep 2017 förvärrar träningsinsatsen. Forskare som sparse logistisk regression och Lasso optimeringsproblem [4][12][23] utnyttjade den sparhet som är inbyggd i modeller och uppnådde anmärkningsvärd hastighetshöjning för distribuerad träning. Ett mer generiskt och viktigt ämne är hur man kan påskynda den distribuerade utbildningen av täta modeller genom att använda sparsamhet och kvantiseringstekniker. Till exempel föreslog Aji och Heafield [24] att heuritiskt sparifiera täta lutningar genom att släppa av små värden för att minska gradientkommunikationen. Av samma skäl har kvantifieringen av lutningar till låga precisionsvärden med mindre bitbredd också studerats ingående [22][25][26][27]. Vårt arbete hör till kategorin gradientquantization, som är ett ortogonalt förhållningssätt till gleshet metoder. Vi föreslår TernGrad att kvantisera gradienter till ternära nivåer {−1, 0, 1} för att minska overheaden av gradientsynkronisering. Dessutom föreslår vi skalan delning och parameter lokalisering, som kan ersätta parametersynkronisering med en låg precision gradient drag. Jämfört med tidigare arbeten, våra viktigaste bidrag inkluderar: 1) vi matematiskt bevisa konvergensen av TernGrad i allmänhet genom att föreslå en statistisk gräns på gradienter; (2) vi föreslår skiktvis ternarizing och gradient klippning för att flytta denna gräns närmare gränsen för standard SGD. Dessa enkla tekniker förbättrar konvergensen; (3) vi bygger en prestandamodell för att utvärdera hastigheten på träningsmetoder med komprimerade gradienter, som TernGrad. Vår källkod finns på https://github.com/wenwei202/terngrad.
TernGrad REF kvantifierar varje element i en gradientvektor till tre numeriska värden {−1, 0, 1}. Gradienten approximationg visas vara objektiv och träningen konvergerar under antagandet av en gräns på gradienter.
3,747,520
TernGrad: Ternary Gradients to Reduce Communication in Distributed Deep Learning
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
2,680
I psykoterapin innehåller patient-leverantörens interaktion de aktiva substanserna i behandlingen. Tekniken för att analysera innehållet i denna interaktion har dock inte förändrats i grunden på årtionden, vilket begränsar både omfattningen och specificiteten av psykoterapiforskning. Nya metoder krävs för att "skala upp" till större utvärderingsuppgifter och "borra ner" till råa språkliga data om patient-terapeutiska interaktioner. I den aktuella artikeln visar vi nyttan av statistiska textanalysmodeller som kallas ämnesmodeller för att upptäcka den underliggande språkliga strukturen i psykoterapi. Ämnesmodeller identifierar semantiska teman (eller ämnen) i en samling dokument (här, utskrifter). Vi använde ämnesmodeller för att sammanfatta och visualisera 1 553 psykoterapi- och läkemedelsbehandlingar (d.v.s. läkemedelsbehandling) transkript. Resultaten visade att ämnesmodeller identifierade kliniskt relevant innehåll, inklusive affektiva, relationella och interventionsrelaterade ämnen. Dessutom lärde sig ämnesmodeller att identifiera specifika typer av terapeututlåtanden i samband med behandlingsrelaterade koder (t.ex. olika behandlingsmetoder, patientterapeutiska diskussioner om det terapeutiska förhållandet). Visualiseringar av semantisk likhet mellan olika sessioner tyder på att ämnesmodeller identifierar innehåll som diskriminerar mellan breda terapiklasser (t.ex. kognitiv-beteendeterapi vs. psykodynamisk terapi). Slutligen visade prediktiv modellering att ämnesmodellbaserade funktioner kan klassificera terapityp med en hög grad av noggrannhet. Beräkningspsykoterapiforskning har potential att skala upp studiet av psykoterapi till tusentals sessioner i taget. Vi avslutar med att diskutera konsekvenserna av beräkningsmetoder såsom ämnesmodeller för framtidens psykoterapiforskning och praktik. Nyckelord: psykoterapi, ämnesmodeller, lingvistik Jag tror att vissa aspekter av psykoanalytisk teori för närvarande inte är forskningsbara eftersom den mellanteknologi som krävs. .. finns inte. Jag menar hjälpmedel och metoder som en uppsopad, högt utvecklad vetenskap av psykolingvistik, och den typ av matematik som behövs för att genomföra en rigorös men kliniskt känslig och psykoanalytiskt realistiskt arbete av temat spårning i det analytiska protokollet (Meehl, 1978, s. 830). Framsteg inom tekniken har revolutionerat forskningen inom en stor del av psykologin och hälsovården, inklusive viktiga utvecklingar inom farmakologi, neurovetenskap och genetik. Ändå, vetenskapen om patient-terapeutiska interaktioner - kärnan i psykoterapi processen forskning-har varit i grunden oförändrad i 70 år. Patienter fyller i undersökningar, eller mänskliga kodare betygsätta någon aspekt av interaktionen. Även om psykiatriska och psykologiska riktlinjer rekommenderar psykoterapi som första linjens behandling för ett antal psykiska störningar (American Psychiatric Association, 2006), vet vi fortfarande relativt lite om hur psykoterapi fungerar. Som Meehl påpekade är befintliga forskningsmetoder fortfarande begränsade i sin förmåga att utforska strukturen av verbala utbyten som är kärnan i de flesta psykoterapier. I den aktuella artikeln går vi mot ett svar på Meehls begäran om en "supermatematik" för att minera de råa språkliga uppgifterna om psykoterapiinteraktioner. I traditionell forskning om psykoterapi är mänskligt omdöme och relaterad beteendekodning den hastighetsbegränsande faktorn. I den här artikeln introducerar vi en beräkningsstrategi för psykoterapiforskning som är informerad av traditionella metoder (t.ex. beteendekodning) men inte förlitar sig på dem som den primära datakällan. Den viktigaste innovationen i denna beräkningsmetod är att använda metoder från datavetenskap och maskininlärning som gör det möjligt att direkt, statistisk analys av sessionens innehåll, skala upp forskningen till tusentals sessioner. Finansiering för förberedelsen av denna artikel tillhandahölls av National Institute of Drug Abuse (NIDA) vid National Institutes of Health (National Institutes of Health) under utmärkelsen R34/DA034860, National Institute on Alcohol Abuse and Alcoholism (NIAAA) under utmärkelsen R01/AA018673, och ett särskilt initiativbidrag från College of Education, University of Utah. Innehållet är uteslutande upphovsmännens ansvar och representerar inte nödvändigtvis de officiella åsikterna hos National Institutes of Health eller University of Utah. Författarna tackar också Alexander Street Press för konsultation relaterad till analys av psykoterapi transkript. Korrespondens angående denna artikel bör ställas till Zac E. Imel, Institutionen för pedagogisk psykologi, University of Utah, 1705 Campus Center Drive, rum 327, Salt Lake City, UT 84112. E-post: [email protected] Detta dokument är upphovsrättsskyddat av American Psychological Association eller en av dess allierade förlag. Denna artikel är endast avsedd för den enskilde användarens personliga bruk och får inte spridas på bred front. Vissa uppskattningar visar att det finns 400 olika namn varumärke psykoterapier (Lambert, 2013) ; varje behandling erbjuder en annan metod för att hjälpa patienter med psykisk stress. Även om de kliniska resonemangen och tillvägagångssätten skiljer sig åt, är det inte klart att de faktiska metoderna för dessa psykoterapier är meningsfulla. Potentiella skillnader i processen och resultatet av psykoterapier har varit fokus för psykoterapivetenskap i över ett sekel. Som jämförelse finns det många olika läkemedelsbehandlingar. De unika ingredienserna i behandlingar är dock kemiska (och patenterbara). Behandlingarnas faktiska särskiljningsförmåga är alltså känd, även om den specifika verkningsmekanismen eller den relativa effekten inte är det. I psykoterapi, behandlingen består främst av ord, och även kognitivt beteende orienterade behandlingar (CBT) kan fokusera starkt på patientens beteende, behandlingen är fortfarande verbalt medierad (Wampold, 2007). Följaktligen är den vetenskapliga klassificeringen av behandlingar mer nebulös. Vad som anses vara en "skatt" på kognitiv beteendeterapi kan variera kraftigt mellan experter och utövare, med vissa definitioner så breda att de omfattar alla vetenskapligt motiverade ingrepp och andra begränsade till mycket specifika psykologiska mekanismer (se Baardseth et al., 2013). Denna tvetydighet är ganska gammal, sträcker sig tillbaka till debatter mellan Freud och hans tidiga anhängare och kan hittas i aktuell forskning som jämför olika kognitivt beteende psykoterapier och moderna varianter av psykoanalys (t.ex. psykodynamisk psykoterapi;. Vissa har hävdat att skillnaderna mellan psykoterapier är kosmetiska (t.ex. skillnaden mellan generisk ibuprofen och advil) och att de underliggande verkningsmekanismerna är gemensamma för olika tillvägagångssätt (Wampold, 2001). Metaanalyser tyder generellt på att de flesta behandlingsmetoder är av jämförbar effekt (t.ex. Benish, Imel, & Wampold, 2008; Imel, Wampold, Miller, & Fleming, 2008), och processstudier kastar tvivel på förhållandet mellan behandlingsspecifika terapeutbeteenden och patientresultat (Webb, DeRubeis, & Barber, 2010). En ledande missbruksforskare kommenterade detta ". ... Det finns få bevis för att behandlingar fungerar som det påstås, vilket tyder på att vi ännu inte vet mycket om hur varumärkesbehandlingar fungerar" (Morgenstern & McKay, 2007, s. 87S). Är de 400 psykoterapier vi har idag unika medicinska behandlingar? Eller är de olika psykoterapierna till stor del likartade, kännetecknade av förpackningar som skymmer de mest vanliga komponenterna? Med tanke på att psykoterapi är ett samtal mellan patienten och leverantören, bör distinktionen i en terapi strategi hittas i de ord patienter och terapeuter använder under sina sessioner. Men det är just här vi finner en grundläggande metodologisk klyfta i psykoterapiforskningen. Källdata och information är språkliga och semantiska, men de tillgängliga verktygen som används för att studera psykoterapi är inte det. Forskning om de aktiva ingredienserna i psykoterapi har främst förlitat sig på självrapporteringsåtgärder för patienter eller terapeuter (t.ex. se recensioner av empati och allianslitteratur; Elliott, Bohart, Watson, & Greenberg, 2011; Horvath, Del Re, Fl påckiger, & Symonds, 2011) eller på beteendekodningssystem, där mänskliga "kodare" gör betyg från ljud- eller videoinspelningar av interventionssessionen enligt en priori teorispecifika kriterier (Crits-Christoph, Gibbons, & Mukherjeed, 2013). Försök till beteendemässig kodning har varierat i sitt djup från allmänna topografiska bedömningar av sessionen såsom de som används i många kognitiv-beteende behandlingar (t.ex., frågade terapeuten om läxor eller ställa en agenda?) till mycket detaljerade kodningssystem på talnivå (t.ex. verbala responslägen, Stiles, Shapiro, & Firth-Cozens, 1988; Motiveringsintervjuer Skills Code, Moyers, Miller, & Hendrickson, 2005). Men beteendemässig kodning som teknik har inte förändrats i grunden sedan Carl Rogers första inspelning av en psykoterapi session på 1940-talet (Kirschenbaum, 2004), och kodning bär ett antal nackdelar. Det är extremt tidskrävande och pålitlighet kan vara problematiskt att etablera och underhålla. Dessutom finns det ingen möjlighet för mänsklig kodning att skala upp till större tillämpningar (dvs. kodning av 1000 sessioner tar 1000 gånger längre tid än kodning 1 session; därför är det inte möjligt att övervaka kvaliteten på psykoterapi i en storskalig naturalistisk miljö över tid). Det finns få flexibilitetskodningssystem som bara kodar vad de kodar. De måste utvecklas i förväg och kan inte upptäcka en ny mening som inte har specificerats i förväg av forskaren. Mer konkret, kodsystem är till sin natur extremt reduktionistiska-minskande den mycket komplexa strukturen av naturlig mänsklig dialog till ett litet antal beteendekoder. Med tanke på dessa begränsningar är det inte förvånande att den stora majoriteten av rådata från psykoterapi aldrig analyseras och frågor centrala för psykoterapi vetenskap förblir antingen obesvarade eller opraktiska att ta itu med. De flesta innehållsanalyser av vad patienter och terapeuter faktiskt diskuterar i psykoterapi är begränsade till kvalitativa insatser som kan vara rika på innehåll men till sin natur är små i omfattning (t.ex., Greenberg & Newman, 1996). Även om kvalitativt arbete fortfarande är viktigt, innebär arbetsintensiteten i den nära läsningen av sessionens innehåll att det stora flertalet psykoterapidata aldrig analyseras. Följaktligen publiceras majoriteten av psykoterapistudierna utan några detaljer om vad de specifika samtalen mellan patienter och terapeuter faktiskt innebar. Utöver den allmänna teoretiska beskrivningen av behandlingen som beskrivs i manualer, vad sade patienterna och terapeuterna egentligen? Är de olika psykoterapier vi har idag språkligt unika? Eller säger terapeuter som ger olika namn på märkesbehandlingar i stort sett liknande saker? Vilka specifika terapeutinterventioner, och i vilken kombination är de mest prediktiva av bra kontra dåliga resultat? Dessa grundläggande frågor utgör bakgrunden till varje terapeuts arbete, men har varit opraktiska att överväga med tanke på den nuvarande tekniken för beteendekodning och kvalitativ analys. En viktig uppgift för nästa generations psykoterapiforskning är att gå bortom användningen av beteendekodning för att bryta de råa verbala utbyten som är kärnan i psykoterapi, inklusive akustiskt och semantiskt innehåll i vad som sägs av patienter och terapeuter. Användningen av upptäckt-orienterade maskininlärningsförfaranden erbjuder nya sätt att utforska och kategorisera psykoterapier baserat på den faktiska texten i patientens och terapeutens tal. Mängden data som genereras varje dag (t.ex. digitaliserade böcker, e-post, video, tidningar, blogginlägg, twitter, elektroniska journaler, mobilsamtal) har expanderat exponentiellt under det senaste årtiondet, med konsekvenser för företag, regering, vetenskap och humaniora (Hilbert & Lopez, 2011 Det finns en liten litteratur som visar nyttan av beräkningslingvistiska metoder för analys av psykoterapidata. Majoriteten av dessa studier bygger på människa-definierade datoriserade ordböcker där ett program klassificerar ord eller uppsättningar av ord i fördefinierade kategorier. I en tidig studie fann Reynes, Martindale och Dahl (1984) att "språklig mångfald" var högre i mer produktiva sessioner. Dessutom har Mergenthaler och hans kollegor publicerat flera studier som visar att känslo- och abstraktion ordanvändning diskriminerar mellan förbättrade och oförbättrade fall (t.ex., Mergenthaler, 2008; se även Anderson, Bein, Pinnell, & Strupp, 1999). Studier som har använt ordlista-baserade strategier håller löfte, men har också viktiga begränsningar. För det första, kanske på grund av att stora corpora av psykoterapi transkript är svåra att hitta, dessa studier har i allmänhet varit begränsade i omfattning (n 100), minska mervärdet av en datoriserad teknik som kan utvärdera en stor uppsättning sessioner (dvs. 1000 eller 10 000) på en kort tid. För det andra, datoriserade ordböcker begränsas av de kategorier som skapats av människor-datorn kan inte "lära" nya kategorier. Slutligen, ordböcker kan i allmänhet inte rymma effekten av sammanhang på semantisk betydelse (t.ex., "mörk" kan referera en stämning eller himlen på natten). En specifik text-mining metod som håller löftet om psykoterapi utskriftsdata är ämnesmodeller (även kallad, Latent Dirichlet Allocation; Blei, Ng, & Jordan, 2003). Ämnesmodeller är datadrivna, maskininlärningsförfaranden som försöker identifiera semantisk likhet mellan grupper av ord. Liknar faktoranalys där observerade objektvärden är funktioner av underliggande dimensioner, ämnesmodeller ser de observerade orden i en passage av text som en blandning av underliggande semantiska ämnen. En fördel med ämnesmodeller är att de konstruerar en språklig struktur från en uppsättning dokument induktivt, kräver ingen extern inmatning, men kan också användas på ett övervakat sätt för att lära semantiskt innehåll i samband med särskilda koder eller metadata (där metadata är någon data utanför själva texten;. Det finns nyligen arbete med hjälp av dessa modeller för att undersöka strukturen av National Institute of Health bidragsansökningar (Talley et al., 2011), publikationer från Proceedings of the National Academy of Sciences (Griffiths & Steyvers, 2004), artiklar från New York Times (Rubin, Chambers, Smyth, & Steyvers, 2012), och identitet vetenskapliga författare (Rosen-Zvi, Chemudugunta, Griffiths, Smyth, & Steyvers, 2010). Kanske mer slående, ämnesmodeller har använts i humaniora för att underlätta "distant läsning" i jämförande litteratur så att hypoteser i litteraturkritik kan testas i förhållande till hela corpus av relevant arbete (t.ex., utforska stilistiska likheter i dikter, se Kao & Jurafsky, 2012; Kaplan & Blei, 2007). Med några få undantag har ämnesmodeller ännu inte tillämpats på psykoterapidata (se Atkins et al., 2012 och även Salvatore, Gennaro, Auletta, Tonti, & Nitti, 2012 som använde ett derivat av latent semantisk analys-en föregångare till ämnesmodeller; Landauer & Dumais, 1997). Men i likhet med de nyhetsartiklar, romaner och dikter som nämnts ovan kan de ord som används vid psykoterapier av patienter och terapeuter betraktas som en stor samling texter med en komplex lokal struktur. Antalet ord som genereras under psykoterapin är ganska stort. En kort psykoterapikurs för en viss patient kan bestå av 5-10 timmar ostrukturerad dialog inklusive 12 000 -15 000 ord per timme (cirka 60 000 till 150 000 ord, längre behandlingskurer 1 miljon ord). Under 2011 avslöjade en PubMed-sökning 932 citeringar för kliniska psykoterapiprövningar (av 10.698 under alla år). Som en försiktig uppskattning, om vi beaktar 500 studier per år, 50 deltagare per studie, 5 sessioner per deltagare, och 10 000 ord per session, leder detta till en uppskattning av 125 M ord av psykoterapi text per år från kliniska prövningar ensam. Oavsett den specifika uppskattningen är det tydligt att en enorm mängd psykoterapidata genereras varje år och att detta antal sannolikt kommer att öka. Användningen av upptäcktsorienterade text-mining förfaranden såsom ämnesmodeller skulle kunna underlätta nya sätt att utforska och kategorisera psykoterapier baserat på det faktiska innehållet i patientens och terapeutens tal (snarare än etiketter som upprättats av skolor för psykoterapi). För att utvärdera potentialen hos ämnesmodeller för att "lära" psykoterapins språk tillämpade vi två olika typer av ämnesmodeller på transkript från 1 553 psykoterapi- och psykiatrisk medicinhanteringssessioner. Vårt första mål var att verifiera att ämnesmodeller skulle uppskatta kliniskt relevant semantiskt innehåll i vår corpus av terapi transkript. För det andra bestämde vi om halvövervakade modeller kunde identifiera semantiskt särskiljande innehåll från olika behandlingsmetoder och interventioner (t.ex. terapeut "här och nu" process kommentarer om den terapeutiska relationen inom en session). Ett tredje syfte var att undersöka den övergripande språkliga likheten och särskiljbarheten hos sessioner från olika behandlingsformer (t.ex. psykodynamiska vs. humanistiska/experimentella). Vårt slutliga mål var att automatiskt klassificera behandlingsformer av nya psykoterapisessioner med hjälp av endast de ord som användes under sessionen. Uppgifterna för det aktuella förslaget kommer från två olika källor: a) en stor, allmän psykoterapi corpus som inkluderar sessioner från en rad olika terapier, och b) en uppsättning transkript inriktade på motivationsintervjuer (MI), en särskild form av kognitiv beteende psykoterapi för alkohol och drogmissbruk. Allmän psykoterapi corpus. Den allmänna corpus innehar 1 398 psykoterapi och läkemedel terapi (dvs., läkemedelsbehandling) transkript (ca 2,0 miljoner prat varv, 8,3 miljoner ord tokens inklusive interpunktion) dras från flera teoretDetta dokument är upphovsrättsskyddat av American Psychological Association eller en av dess allierade utgivare. Denna artikel är endast avsedd för den enskilde användarens personliga bruk och får inte spridas på bred front. 3 KOMPUTATIONELLA PSYCHOTHERAPY ikala metoder (t.ex. kognitivt beteende; psykoanalys; MI; kort relationsterapi). Corpus underhålls och uppdateras av "Alexander Street Press" (http://alexanderstreet.com/) och görs tillgängligt via biblioteksprenumeration. Förutom utskrifter finns det tillhörande metadata såsom patient-ID, terapeut-ID, begränsad demografi, sessionsnummer när det fanns mer än en enda session, terapeutiskt förhållningssätt, patientens primära symtom, och en lista över ämnen som diskuterats i sessionen. Listan över symptom och ämnen anvisades av publikationspersonalen till varje utskrift, och det fanns ingen statistik över interritoriell tillförlitlighet. Alla etiketter härrörde från DSM-IV och andra primära psykologi/psykiatri texter. Många sessioner genomfördes av framstående psykoterapeuter som utvecklade särskilda behandlingsmetoder (t.ex. James Bugental, existentiell; Albert Ellis, rationellt motiv; Carl Rogers, personcentrerad; William Miller, MI), och kan därför fungera som exempel på dessa behandlingsmetoder. För att underlätta analysen kategoriserade vi varje psykoterapisession i en av fem behandlingskategorier, a) Psykodynamisk (t.ex. psykoanalys, kort relationsterapi, psykoanalytisk psykoterapi), b) Kognitiv beteendeterapi (t.ex. motiverande beteendeterapi, MI, avslappningsträning osv.)), c) Experimentell/humanistisk (t.ex. personcentrerad, existentiell), d) annan (t.ex. Adlerian, Reality Therapy, Solution-Focused, liksom grupp, familj, och äktenskapliga terapier), och slutligen e) Drogterapi eller läkemedelsbehandling. I vissa fall, när en etikett saknades eller mer än en behandlingsetikett tilldelades en session, användes dock säkerhetsinformation i metadata för att tilldela en enda specifik behandlingsetikett (dvs. en välkänd terapeut associerad med en specifik intervention, rapporterad användning av specifika ingrepp, och/eller inspektion av den råa utskriften). Om det inte fanns någon säkerhetsinformation eller någon lämplig etikett kunde inte fastställas, valdes den första förtecknade interventionen eftersom behandlingsnamnet eller behandlingsetiketten och kategorin saknades. Förutom behandlingskategori använde analyserna en ämnesmärkning, "counselor-client relations". Denna etikett på sessionsnivå (dvs. applicerad på en hel session) tilldelades en utskrift när det förekom en diskussion om relationen till patienten eller interaktionen under behandlingen. M.I.I.C.P.O. Vi kompletterade den allmänna corpus ovan med en uppsättning MI sessioner (Miller & Rollnick, 2002 ; n på 148, 30 000 prat varv, 1,0 miljoner ord tokens). Transkript är en undergrupp av sessioner från fem randomiserade prövningar av MI för drog- eller alkoholproblem, inklusive problematiska drickande i college förstaårselev (Tollison, Lee, Neighbors, & Neil, 2008), 21:a födelsedagar och vårlov (Neighbors et al., 2012), problematisk marijuanaanvändning (Lee et al., 2014), och droganvändning på ett offentligt säkerhetsnät sjukhus (Krupski et al., 2012). Varje studie omfattade en eller flera personligen behandlade armar som fick en enda behandling med hjärtinfarkt. Sessioner transkriberades som en del av pågående forskning med fokus på att tillämpa text-mining och talsignalbehandlingsmetoder på MI-sessioner (se t.ex. Atkins, Steyvers, Imel, & Smyth, i pressen). Den språkliga representationen i vår analys bestod av orden i varje talomgång. En del-av-talk tagger (Toutanova, Klein, Manning, & Singer, 2003) användes för att analysera de typer av ord i varje samtal tur. Vi höll alla substantiv, adjektiv och verb och filtrerade ut ett antal ordklasser såsom bestämningar och associationer (t.ex., ", "a") såväl som pronomen. Den resulterande corpus minskar dramatiskt storleken på corpus till 1.2M enskilda ord över 223K prat varv. Vi tillämpade en ämnesmodell med 200 ämnen på denna datauppsättning, behandla varje pratsväng (antingen patient eller terapeut) som ett "dokument". I ämnet modellering litteratur, dokumentet definierar den nivå på vilken ord med liknande teman grupperas tillsammans i rådata. Vi skulle kunna definiera dokument på ett antal olika sätt (t.ex. alla ord i sessionen eller alla ord från en viss person), men vi har i tidigare forskning inom klinisk psykologi funnit att definitionen av dokument genom samtal vänder ökar tolkningen av de resulterande ämnena. I en ämnesmodell, varje ämne modelleras som en sannolikhetsfördelning över ord och varje dokument (talk tur) behandlas som en blandning över ämnen. Varje ämne tenderar att samla ihop ord med liknande mening och användningsmönster över prat varv. Sannolikhetsfördelningen över ämnen i varje talomgång ger en indikation om vilka semantiska teman som är mest vanliga i talomgången. För ytterligare information om ämnesmodeller, se Atkins et al. (2012)............................................................................................ Resultat Först använde vi ämnesmodeller för att undersöka vad terapeuter och patienter pratar om. Som tidigare nämnts uppskattar ämnesmodeller underliggande dimensioner i text, som helst fångar semantiskt liknande innehåll (dvs. de underliggande "ämnena"). Vid tillämpning av ämnesmodeller på psykoterapiutskrifter är därför en första fråga huruvida modellerna extraherar relevant semantiskt innehåll? I tabell 1 presenteras 20 utvalda ämnen (av totalt 200) från en oövervakad ämnesmodell som tillämpas på alla sessionsprotokoll (dvs. dessa ämnen genererades induktivt utan input från forskarna). Det är tydligt att orden i varje ämne ger semantiskt relaterat innehåll och fångar aspekter av det kliniska mötet som vi kan förvänta terapeuter och patienter att diskutera. Vi har organiserat ämnen i fyra områden-(a) Känslor/Symptom, (b) Relationer, (c) Behandling, och (d) Övrigt. I likhet med faktoranalysen tillhandahölls alla etiketter av de nuvarande författarna – själva modellen numrerar dem helt enkelt. De tio mest troliga orden för varje ämne ges tillsammans med författare-genererade ämnesetiketter för att underlätta tolkningen. Exempelvis omfattar känslokategorin flera symptomrelevanta ämnen. Ämne 15 (Depression) innehåller många av de specifika symptomkriterierna för depression (t.ex. sorg, energi, hopplöshet; ordet "depression" är det 16: e mest sannolika ordet), och ämne 149 (Anxien) innehåller ord som är relevanta för diskussionen om en panikattack. Sambandskategorin illustrerar hur en ämnesmodell kan hantera meningsskillnader beroende på sammanhang. Ämne 146 (Sex) och 60 (Intimitet) inkluderar derivat av orden relation och kön. I ämne 60, dessa ord förekommer i samband med ord som närhet, intimitet, anslutning, och öppen, vilket tyder på att dessa ord hade andra implikationer än när de förekommer i ämne 60, som innehåller ord som önskan, Detta dokument är upphovsrättsskyddat av American Psychological Association eller en av dess allierade utgivare. Denna artikel är endast avsedd för den enskilde användarens personliga bruk och får inte spridas på bred front. njuta, och nöjd. Den grundläggande ämnesmodell kan härleda olika betydelse identiska ord (t.ex., spela används i referens till teater vs. barn) så länge de dokument som orden förekommer i har ytterligare semantisk information som skulle informera skillnaden (Griffiths, Steyvers, & Tenenbaum, 2007). I behandlingskategorin, ämne 196 innehåller ett antal läkemedel namn och är tydligt relaterad till diskussioner om psykofarmakologisk behandling. Ämne 198 (Behavior Mönster) innehåller ord som kan vara typiska vid undersökning av beteende/tänkmönster (t.ex. irrationella, mönster, beteende, identifiera). Vi övervägde att märka detta ämne "CBT", givna ord som kan finnas i en undersökning av tankar i kognitiv terapi. Men vi fann att detta ämne faktiskt var vanligare i psykodynamiska sessioner jämfört med CBT sessioner. Detta konstaterande belyser komplexiteten i ämnesmodeller. Medan modellen returnerar en kluster av ord, forskaren måste dra slutsatsen vad klustret betyder. För att visa nyttan av en ämnesmodell i upptäckten av språk som är specifikt för olika metoder för psykoterapi använde vi en "märkt" ämnesmodell där modellen lär sig språk som är förknippat med en viss etikett-i det aktuella fallet en session-nivå etikett som identifierar typen av psykoterapi (t.ex., CBT vs. Psykodynamisk). Vi använde resultatet från denna modell för att identifiera specifika terapeut prat svängar som var statistiskt representativa för en given etikett. I den allmänna psykoterapi corpus, det fanns inga etiketter eller koder för samtal vänder, bara för sessionen som helhet. Med tanke på etiketterna för varje session och den heterogena användningen av ord över sessioner, var modellen "lärar" som samtal vänder mest sannolikt att ge upphov till en särskild etikett för hela sessionen. I tabell 2, Vi ger fyra mycket sannolika samtal vänder för sex olika behandlingar. De avbildade uttalandena är vad som kan betraktas som prototypiska terapeutiska uttalanden för varje behandling. Kundcentrerade samtal vänder verkar vara reflekterande i naturen, medan uttalanden i logiska känslobeteende terapi har en kvalitet på att identifiera irrationella tankemönster. Korta relationsinterventioner fokuserar på här och nu erfarenheter, och de utvalda prat varv för MI var de typiska för den korta strukturerade feedback session som terapeuter utbildades för att ge i flera av de MI kliniska prövningar som ingår i corpus. I tabell 2 presenteras resultat från en märkt ämnesmodell med psykoterapityp som etikett som kategoriserar en session. Vi undersökte om modellen kunde lära sig mer nyanserade, psykologiska etiketter, med fokus på "client-counselor relations" – en kod som användes för att märka sessioner som inkluderade diskussioner mellan klient och terapeut om deras relation/interaktion. Som med identifieringen av terapeut prat vänder, klient-counselor relationer kod tilldelades en hel utskrift. Därför måste modellen lära sig att skilja mellan språk i dessa sessioner som är irrelevant för etiketten (t.ex. allmänna frågor, schemaläggning, trevligheter, andra insatser, etc.) och språk som innebär att klienten och terapeuten talar om sitt förhållande. Tabell 3 ger de fem mest troliga terapeut prat vändningar i samband med klient-counselor relationer etikett. Varje samtalssväng är tydligt relaterad till tabell 1
I REF använder författarna till exempel ämnesmodeller för att analysera psykoterapi och läkemedelsterapi.
8,832,559
Computational Psychotherapy Research: Scaling up the Evaluation of Patient-Provider Interactions
{'venue': 'Psychotherapy', 'journal': 'Psychotherapy', 'mag_field_of_study': ['Psychology', 'Medicine']}
2,681
Det har visat sig att inlärning för att rangordna strategier kan lära sig mycket effektiva rankningsfunktioner. Dessa strategier har dock främst ignorerat den viktiga frågan om effektivitet. Med tanke på att både effektivitet och effektivitet är viktiga för riktiga sökmotorer, kanske modeller som är optimerade för effektivitet inte uppfyller de stränga effektivitetskrav som krävs för att användas i en produktionsmiljö. I detta arbete lägger vi fram en enhetlig ram för att gemensamt optimera effektivitet och ändamålsenlighet. Vi föreslår nya mått som fångar kompromissen mellan dessa två konkurrerande krafter och utformar en strategi för automatiskt lärande modeller som direkt optimerar kompromissmåtten. Experiment visar att modeller som man lärt sig på detta sätt ger en god balans mellan hämtningseffektivitet och effektivitet. Med specifika förlustfunktioner, lärda modeller konvergera till bekanta befintliga, vilket visar generaliteten i vårt ramverk. Slutligen visar vi att vårt tillvägagångssätt naturligt leder till en minskning av variansen av frågeutförandetider, vilket är viktigt för frågebelastningsbalansering och användarnöjdhet.
I REF lägger författarna fram en enhetlig ram för att gemensamt optimera effektivitet och ändamålsenlighet.
5,759,210
Learning to efficiently rank
{'venue': "SIGIR '10", 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,682
I den här artikeln undersöker vi hur morfologiska egenskaper påverkar uppgiften att automatiskt utöka ett lexikon. Vi närmar oss problemet som ett mönster klassificering uppgift och jämföra prestanda av flera modeller i att klassificera substantiv som är okända för en bred täckning ordbok. Vi använde en booster classifier för att jämföra prestanda hos modeller som använder olika uppsättningar av funktioner. Vi visar hur tillägg av enkla morfologiska egenskaper till en modell avsevärt förbättrar klassificeringsprestandan.
REF jämförde flera modeller för att klassificera substantiv med avseende på en förenklad version av WordNet och betecknade vinsten i prestanda med morfologiska egenskaper.
11,734,261
Boosting Automatic Lexical Acquisition With Morphological Information
{'venue': 'Workshop On Unsupervised Lexical Acquisition', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,683
Crowds kan användas för att generera och utvärdera designlösningar. För att öka en crowdsourcing systemets effektivitet föreslår och jämför vi två utvärderingsmetoder, en med fem poängs Likert skala betyg och den andra förutsägelse röstning. Våra resultat visar att även om de två utvärderingsmetoderna korrelerar har de olika mål: medan förutsägelseröstning fokuserar utvärderarna på att hitta de allra bästa lösningarna, fokuserar betygsvärderarna på alla lösningar. Förutsägelseröstning är därför lämplig när det finns många lösningar av dålig kvalitet som måste filtreras bort, och klassificering är lämplig när alla idéer är rimliga och åtskillnader måste göras mellan alla lösningar. Publiken föredrar att delta i förutsägelseröstningen. Resultaten har pragmatiska konsekvenser, vilket tyder på att utvärderingsmetoder bör tilldelas i förhållande till fördelningen av kvalitet som finns i varje skede av crowdsourcing.
I en annan studie av crowd-genererade idéer, Det finns att förutsägelse röstning (prediktera om en idé kan vinna tävlingen) är lämpligare när många dåliga idéer behöver filtreras bort, medan Likert skala betyg är lämpligare när mer förfinade distinktioner måste göras för idéer som är av rimlig kvalitet REF.
8,132,516
Evaluating Design Solutions Using Crowds
{'venue': 'AMCIS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,684
I detta dokument studeras problemet med att extrahera data från en webbsida som innehåller flera strukturerade dataposter. Målet är att segmentera dessa dataposter, extrahera dataobjekt/fält från dem och lägga data i en databastabell. Detta problem har undersökts av flera forskare. Befintliga metoder har dock fortfarande vissa allvarliga begränsningar. Den första klassen av metoder bygger på maskininlärning, vilket kräver mänsklig märkning av många exempel från varje webbplats som man är intresserad av att extrahera data från. Processen är tidskrävande på grund av det stora antalet webbplatser och sidor på webben. Den andra klassen av algoritmer är baserad på automatisk mönsterupptäckt. Dessa metoder är antingen felaktiga eller gör många antaganden. I detta dokument föreslås en ny metod för att utföra uppgiften automatiskt. Den består av två steg, 1) att identifiera enskilda dataposter på en sida, och 2) att anpassa och extrahera dataposter från de identifierade dataposterna. För steg 1 föreslår vi en metod baserad på visuell information för att segmentera dataposter, vilket är mer exakt än befintliga metoder. För steg 2 föreslår vi en ny partiell anpassningsteknik baserad på trädmatchning. Partiell anpassning innebär att vi anpassar endast de datafält i ett par dataposter som kan anpassas (eller matchas) med säkerhet, och inte gör något åtagande om resten av datafälten. Detta tillvägagångssätt gör det möjligt att mycket exakt anpassa flera dataposter. Experimentella resultat med hjälp av ett stort antal webbsidor från olika domäner visar att den föreslagna tvåstegstekniken kan segmentera dataposter, anpassa och extrahera data från dem mycket exakt.
I REF föreslås en mer exakt teknik baserad på trädmatchning.
12,750,207
Web data extraction based on partial tree alignment
{'venue': "WWW '05", 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,685
Den säkra verifieringen är viktig för vattenmarkeringsprotokoll. En illasinnad skiljeman kan ta bort ett original vattenmärke från en otillåten kopia av det digitala innehållet som ett resultat av en säkerhetsintrång i fasen av skiljeförfarandet och återförsälja flera kopior av det ostraffat. Vi föreslår en ny köpar-säljare vattenmärkning protokoll för säker verifiering. I detta system, en säljare permuterar en ursprunglig vattenstämpel som tillhandahålls av en betrodd Watermarking Certification Authority (WCA) och inbäddar den i digitalt innehåll i en krypterad domän. Om en otillåten kopia hittas, kan säljaren återställa den ursprungliga vattenstämpeln från vattenstämpeln som extraherats från kopian och skicka den till en skiljeman. Utan kännedom om de permutationer som säljaren tillämpar kan skiljemannen inte ta bort den permuterade vattenstämpeln från det digitala innehållet. Verifieringen är därför säkrad. Som ytterligare en fördel med det föreslagna protokollet kan skiljeförfaranden genomföras utan att WCA eller köparen behöver samarbeta.
Under 2007 föreslogs ett annat protokoll för säkra köpare och säljare av vattenmärke, vilket visade att en säljare först skapade en ursprunglig permuterad vattenstämpel för att bädda in digitalt innehåll i en krypterad domän. Och sedan, när en obehörig digital produkt hittades på marknaden, säljaren först extraherade och återhämtade vattenstämpelsignalen och vidarebefordrade den till skiljemannen REF.
9,574,322
Watermarking protocol of secure verification
{'venue': 'J. Electronic Imaging', 'journal': 'J. Electronic Imaging', 'mag_field_of_study': ['Computer Science']}
2,686
Vi studerar problemet med 3D-objektgenerering. Vi föreslår ett nytt ramverk, nämligen 3D Generative Adversarial Network (3D-GAN), som genererar 3D-objekt från ett probabilistiskt utrymme genom att utnyttja de senaste framstegen i volymkonvolutionella nätverk och generativa kontrariska nät. Fördelarna med vår modell är trefaldiga: För det första, användningen av ett kontradiktoriskt kriterium, istället för traditionella heuristiska kriterier, gör det möjligt för generatorn att fånga objektstrukturen implicit och syntetisera högkvalitativa 3D-objekt; för det andra, generatorn upprättar en kartläggning från ett lågdimensionellt probabilistiskt utrymme till utrymmet för 3D-objekt, så att vi kan ta prover på objekt utan en referensbild eller CAD-modeller, och utforska 3D-objektgrenröret; för det tredje, den adversariska discriminatorn ger en kraftfull 3D-form deskriptor som, lärt utan övervakning, har breda tillämpningar i 3D-objektigenkänning. Experiment visar att vår metod genererar högkvalitativa 3D-objekt, och våra oövervakade inlärda funktioner uppnår imponerande prestanda på 3D-objektigenkänning, jämförbar med de av övervakade inlärningsmetoder.
Senare, REF modellera fördelningen av voxels av 3D-objekt med hjälp av en kontradiktorisk metod.
3,248,075
Learning a Probabilistic Latent Space of Object Shapes via 3D Generative-Adversarial Modeling
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
2,687
Abstract-This paper föreslår en ny graf matchande algoritm och tillämpar den för att forma igenkänning baserat på objekt silhuetter. Huvudidén är att matcha skelett grafer genom att jämföra geodesiska vägar mellan skelett endpoints. I motsats till typiska träd- eller grafmatchningsmetoder, anser vi inte den topologiska grafstrukturen. Vårt tillvägagångssätt motiveras av det faktum att visuellt liknande skelett grafer kan ha helt olika topologiska strukturer. Den föreslagna jämförelsen av geodesiska banor mellan endpoints för skelettgrafer ger korrekta matchande resultat i sådana fall. Skeletten beskärs genom konturdelning med Discrete Curve Evolution, vilket innebär att slutpunkterna för skelettgrenar motsvarar visuella delar av objekten. De experimentella resultaten visar att vår metod kan ge korrekta resultat i närvaro av artikulationer, stretching och konturdeformationer.
Bai och Latecki REF beräknade skelett likhet genom att jämföra geodesiska vägar mellan skelett endpoints, och inte beakta den topologiska strukturen av skelettet grafer eller träd.
9,045,760
Path Similarity Skeleton Graph Matching
{'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']}
2,688
Abstract Diabetesretinopati (DR) ökar gradvis driver efterfrågan av automatisk extraktion och klassificering av svårighetsgraden av sjukdomar. Blodkärlsextraktion från fondusbilden är en viktig och utmanande uppgift. Därför presenterar detta papper en ny, beräknings enkelt, och automatisk metod för att extrahera näthinnan blodkärl. Den föreslagna metoden omfattar flera grundläggande bildbehandlingsmetoder, nämligen kantförstärkning genom standardmall, bullerborttagning, tröskel, morfologisk drift och objektklassificering. Den föreslagna metoden har testats på en uppsättning retinala bilder. Näthinnans bilder samlades in från DRIVES databas och vi har använt robust prestandaanalys för att utvärdera noggrannheten. Resultaten från denna undersökning visar att den föreslagna metoden ger en genomsnittlig noggrannhet på omkring 97 %, känslighet på 99 %, specificitet på 86 % och prediktivt värde på 98 %, vilket är bättre än olika välkända tekniker.
REF presenterar automatisk metod för att extrahera det retinala blodkärlet.
547,238
A New Blood Vessel Extraction Technique Using Edge Enhancement and Object Classification
{'venue': 'Journal of Digital Imaging', 'journal': 'Journal of Digital Imaging', 'mag_field_of_study': ['Computer Science', 'Medicine']}
2,689
De senaste metoderna för semantiska bildsegmentering bygger på konvolutionella neurala nätverk (CNN). Den typiska segmenteringsarkitekturen består av (a) en nedsamplingsväg som ansvarar för att extrahera grova semantiska funktioner, följt av (b) en uppsamplingsväg tränad för att återställa den ingående bildupplösningen vid modellens utgång och, valfritt, (c) en efterbehandlingsmodul (t.ex. Villkorliga slumpmässiga fält) för att förfina modellprognoserna. Nyligen har en ny CNN-arkitektur, Densely Connected Convolutional Networks (DenseNets), visat utmärkta resultat på bildklassificeringsuppgifter. Tanken med DenseNets är baserad på observationen att om varje lager är direkt ansluten till varje annat lager på ett feed-forward-sätt så kommer nätverket att vara mer exakt och lättare att träna. I detta dokument utvidgar vi DenseNets för att ta itu med problemet med semantisk segmentering. Vi uppnår state-of-the-art resultat på urban scen benchmarking datauppsättningar som CamVid och Gatech, utan någon ytterligare efterbehandling modul eller förutbildning. Dessutom, på grund av smart konstruktion av modellen, vår strategi har mycket mindre parametrar än för närvarande publicerade bästa poster för dessa dataset. Kod för att reproducera experimenten är allmänt tillgänglig här: https://github.com/SimJeg/FC-DenseNet
Jegou m.fl. REF utvidgade DenseNet till segmentering uppgift, uppnå state-of-the-art prestanda i urban scen riktmärke dataset.
206,597,918
The One Hundred Layers Tiramisu: Fully Convolutional DenseNets for Semantic Segmentation
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW)', 'mag_field_of_study': ['Computer Science']}
2,690
Abstract mission och sömn schemaläggning mekanismer för periodisk insamling av sensordata på en basstation i trådlösa sensornätverk. I våra föreslagna mekanismer använder vi en konventionell självorganiserande kommunikationsmekanism baserad på faslåsning i en pulskopplad oscillatormodell för att sprida sensordata från nätets kant till basstationen i ordning efter humleantal från basstationen. Dessutom föreslår vi två mekanismer för att undvika kollisioner mellan sensornoder med samma humleantal, en randomiseringsbaserad mekanism och en desynkroniseringsbaserad mekanism baserad på antifassynkronisering i den pulskopplade oscillatormodellen. Genom simuleringsförsök visar vi att vår föreslagna mekanism avsevärt förbättrar datainsamlingsförhållandet och energieffektiviteten jämfört med den konventionella mekanismen. Index Termer faslåsning, fassynkronisering mot fas, pulskopplad oscillatormodell Trådlösa sensornätverk (WSN) har uppmärksammats av många forskare och utvecklare, särskilt för övervakning av applikationer [2], [3]. I typiska övervakningsapplikationer består WSN av en basstation (BS) och många batteridrivna sensornoder, var och en med en generell processor med begränsad beräkningsförmåga, en liten mängd minne och en trådlös kommunikationsenhet. Sensornoddata samlas in vid BS via trådlösa multihop-nätverk med jämna mellanrum. Mycket energieffektiva kontrollmekanismer krävs för att förlänga livslängden för batteridrivna WSN. Dessutom bör WSN-kontrollmekanismer distribueras och självorganiseras, eftersom många sensornoder är slumpmässigt utplacerade och nätverket topologi dynamiska förändringar på grund av omgivningsbuller, sensornodfel, och så vidare. Där fig. 1................................................................ Genom att tillämpa PCO-modeller på WSN-kontroller kan enkla, distribuerade och självorganiserande mekanismer under slumpmässiga och dynamiska miljöer uppnås. Till exempel i Ref. [15] föreslog författarna en tidsdelningsbaserad kommunikationsmekanism (TDMA), kallad DESYNC, som implementerar antifassynkronisering. I DESYNC, sensornoder själv-organisera tilldelningen av lika stora tider, oavsett deras ursprungliga tillstånd och antalet sensornoder. DESYNC anser dock inte att den dolda noden problem, och kommunikation mellan sensornoder i multi-hop WSNs kan misslyckas på grund av kollisioner när två-hop granne sensor noder samtidigt överföra paket till samma sensor nod. I Ref. [19], föreslogs en självorganiserande kommunikationsmekanism baserad på faslåsning, kallad WAVE. WAVE kan organisera två typer av kommunikationsmönster i multi-hop WSNs, nämligen spridning och insamling. I WAVE, en sensor nod självkonfigurerar sin meddelandeöverföring och vilotider. För insamling, sensor noder konfigurera sin överföring timing så att sensorn noder med samma humle räkna från BS samtidigt vakna upp, ta emot meddelanden från nedströms sensor -I detta papper, föreslår vi självorganiserande trans-trådlösa sensornätverk, datainsamling,
I REF utvecklade forskarna först en självorganiserande mekanism som förlitade sig på faslåsning i PCO, som syftade till att sprida sensornoddata från nätets kant till diskbänken vid ett visst humleantal i syfte att undvika dövhet.
6,978,804
Self-organizing Transmission Scheduling Considering Collision Avoidance for Data Gathering in Wireless Sensor Networks
{'venue': 'JCM', 'journal': 'JCM', 'mag_field_of_study': ['Computer Science']}
2,691
Många nyligen tagna Markov-kedjan Monte Carlo (MCMC)-provtagare utnyttjar kontinuerlig dynamik för att definiera en övergångskärna som effektivt utforskar en måldistribution. Samtidigt har fokus legat på att ta fram skalbara varianter som tar del av data och använder stokastiska gradienter i stället för fulldatagradienter i de dynamiska simuleringarna. Sådana stokastiska gradienter MCMC-provtagare har dock släpat efter sina motsvarigheter med fullständiga data när det gäller dynamikens komplexitet, eftersom det är icke-trivialt att visa konvergens i närvaro av det stokastiska gradientbullret. Även med enkel dynamik, krävs ofta betydande fysisk intuition för att ändra det dynamiska systemet för att redogöra för den stokastiska lutning buller. I detta papper ger vi ett allmänt recept för att konstruera MCMC samplers-inklusive stokastisk lutning versioner-baserade på kontinuerliga Markov processer som specificeras via två matriser. Vi kan på ett konstruktivt sätt bevisa att ramverket är fullständigt. Det vill säga, alla kontinuerliga Markov-processer som ger prover från måldistributionen kan skrivas i vårt ramverk. Vi visar hur tidigare kontinuerlig-dynamiska provtagare kan vara trivialt "uppfinna" i vårt ramverk, undvika komplicerade provtagare-specifika bevis. Vi använder också vårt recept för att enkelt föreslå en ny state-adaptive sampler: stokastisk lutning Riemann Hamiltonian Monte Carlo (SGRHMC). Våra experiment på simulerade data och en streaming Wikipedia analys visar att den föreslagna SGRHMC provtagare ärver fördelarna med Riemann HMC, med skalbarheten av stokastiska gradient metoder.
REF omfattande klassificerade SG-MCMC algoritmer, inklusive SGLD, stokastisk lutning Riemannian Langevin dynamik, och stokastisk lutning Hamiltonian Monte Carlo.
17,950,949
A Complete Recipe for Stochastic Gradient MCMC
{'venue': 'NIPS', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']}
2,692
Abstract-The [email protected] paradigm främjar användningen av modeller under utförandet av cyberfysiska system för att representera deras sammanhang och för att resonera om deras runtime beteende. Dagens modelleringsteknik tillåter dock inte att man samtidigt klarar av dessa systems storskaliga, distribuerade och ständigt föränderliga karaktär. I det här dokumentet introducerar vi en distribuerad [email protected] strategi som kombinerar idéer från reaktiv programmering, peer-to-peer distribution och storskaliga [email protected]. Vi definierar distribuerade modeller som observerbara strömmar av bitar som utbyts mellan noder på ett peerto-peer-sätt. En lat laddningsstrategi gör det möjligt att öppet komma åt den kompletta virtuella modellen från varje nod, även om bitar faktiskt distribueras över noder. Observatörer och automatisk omladdning av bitar möjliggör en reaktiv programmeringsstil. Vi integrerade vår strategi i Kevoree Modeling Framework och visar att det möjliggör ofta föränderliga, reaktiva distribuerade modeller som kan skala till miljontals element och flera tusen noder.
Det arbete som presenteras i REF kombinerar reaktiv programmering, peer-to-peer-distribution och storskaliga [email protected] för att dra nytta av de utmaningar som införs genom ständigt föränderliga runtime-modeller.
15,506,195
Stream my models: Reactive peer-to-peer distributed [email protected]
{'venue': '2015 ACM/IEEE 18th International Conference on Model Driven Engineering Languages and Systems (MODELS)', 'journal': '2015 ACM/IEEE 18th International Conference on Model Driven Engineering Languages and Systems (MODELS)', 'mag_field_of_study': ['Computer Science']}
2,693
Abstract-En smart kontrakt är svårt att lappa för buggar när den är utplacerad, oavsett de pengar som den innehar. Ett fel orsakade förluster till ett värde av omkring 50 miljoner cryptocurrency. Vi presenterar ZEUS-ett ramverk för att verifiera att smarta kontrakt är korrekta och validerar att de är rättvisa. Vi anser att korrekthet är att följa säkra programmeringsmetoder, medan rättvisa är att följa överenskomna affärslogik på högre nivå. ZEUS utnyttjar både abstrakt tolkning och symbolisk modellkontroll, tillsammans med befogenheten att begränsa hornklausuler för att snabbt kontrollera kontrakt för säkerhet. Vi har byggt en prototyp av ZEUS för Ethereum och Fabric blockchain plattformar, och utvärderat den med över 22.4K smarta kontrakt. Vår utvärdering visar att omkring 94,6 % av kontrakten (som innehåller kryptovaluta värd mer än 0,5 miljarder dollar) är sårbara. ZEUS är ljud med noll falska negativa och har en låg falsk positiv frekvens, med en storleksordning förbättring i analystid jämfört med tidigare konst.
ZEUS verifierade säkerheten för 22,4 tusen smarta kontrakt genom abstrakt tolkning och symbolisk modellkontroll REF.
3,481,056
ZEUS: Analyzing Safety of Smart Contracts
{'venue': 'NDSS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,694
Kontinuerliga rymdspråksmodeller har nyligen visat enastående resultat för en mängd olika uppgifter. I detta dokument undersöker vi de vektor-rymd-ord representationer som implicit lärs av ingång-lager vikter. Vi finner att dessa representationer är förvånansvärt bra på att fånga syntaktiska och semantiska regulariteter i språket, och att varje relation kännetecknas av en relation-specifik vektor offset. Detta gör det möjligt för vektororienterade resonemang baserade på förskjutningar mellan ord. Till exempel, den manliga / kvinnliga relationen lärs automatiskt, och med de inducerade vektor representationer, "KingMan + Kvinna" resulterar i en vektor mycket nära "Queen." Vi visar att ordet vektorer fångar syntaktiska regulariteter med hjälp av syntaktiska analoga frågor (förmedlad med detta papper), och kan korrekt besvara nästan 40% av frågorna. Vi visar att ordet vektorer fångar semantiska regulariteter genom att använda vektor offset-metoden för att svara på SemEval-2012 Task 2 frågor. Anmärkningsvärt nog överträffar denna metod de bästa tidigare systemen.
Mikolov m.fl. REF undersökte vektorutrymme ord representationer med en kontinuerlig rymd språkmodell.
7,478,738
Linguistic Regularities in Continuous Space Word Representations
{'venue': 'NAACL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,695
I detta dokument presenteras en ny oövervakad domänanpassningsmetod för visuell igenkänning över domäner. Vi föreslår en enhetlig ram som minskar övergången mellan områden både statistiskt och geometriskt, kallad Joint Geographical and Statistical Alignment (JGSA). Specifikt lär vi oss två kopplade projektioner som projicerar källdomänen och måldomändata i lågdimensionella subrymder där det geometriska förskjutnings- och fördelningsskiftet minskas samtidigt. Den objektiva funktionen kan lösas effektivt i sluten form. Omfattande experiment har verifierat att den föreslagna metoden avsevärt överträffar flera toppmoderna domänanpassningsmetoder på en syntetisk datauppsättning och tre olika verkliga cross-domain visuella igenkänningsuppgifter.
JGSA Ref genomför gemensam geometrisk och statistisk anpassning.
23,629,495
Joint Geometrical and Statistical Alignment for Visual Domain Adaptation
{'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']}
2,696
För dagens samhälle är det mycket viktigt att förstå förhållandet mellan människans rörlighetsmönster och utbredningen av de dynamiska särdragen i stadsmiljöer. Även om den senaste tidens framsteg har kastat ljus över den individuella rörlighetens egenskaper, är den roll och betydelse som nya kollektiva mänskliga fenomen spelar över tid och rum fortfarande oklar. I denna artikel visar vi med hjälp av två oberoende dataanalystekniker att trafiken i London är en kombination av sammanflätade kluster, spänner över hela staden och fungerar effektivt som en enda korrelerad enhet. Detta beror på algebraiskt sönderfallande spatio-temporala korrelationer, som liknar de som visas av system nära en kritisk punkt. Vi beskriver dessa korrelationer i termer av Taylors lag för fluktuationer och tolkar dem som det framväxande resultatet av en underliggande rumslig synkronisering. Slutligen, våra resultat utgör det första beviset för ett storskaligt rumsligt mänskligt system som når ett självorganiserat kritiskt tillstånd. Städernas utseende har varit en av de viktigaste katalysatorerna för mänsklig ekonomisk, social och kulturell utveckling. Under de senaste åren har bildandet och den interna dynamiken i stadsmiljöer 1 successivt betraktats som resultatet av mångfacetterade interaktioner mellan ekonomiska, infrastrukturella och sociala faktorer: ett nätverk av nätverk 2 väldigt mycket liknar högstrukturerade biologiska organismer, och även dela liknande sårbarheter 3. I denna analogi identifierar sig transportnäten naturligt med cirkulationssystem och stöder stadsekosystemet genom ökad rörlighet för människor och varor [4] [5] [6]. För att garantera en väl fungerande trafik är det därför oerhört viktigt att kunna beskriva och förutsäga trafikdynamiken i storstäderna på ett korrekt sätt. Under de åttio år sedan Greenshields seminal papper på den grundläggande bild 7, förhållandet mellan trafiktäthet och flöde, har stora språng tagits mot förståelsen av de komplicerade icke-linjära fenomen som föregår och följer bryta ner av fritt flöde ger väg till en mängd olika överbelastade tillstånd: stop-and-go vågor, breda rörliga sylter och förlängda sylter 8, 9. Vid sidan av trafikflödesteorin, effekten av olika resebeteenden och trafikstyrningssystem har studerats i djup 10, till exempel i samband med effekten av pre-travel och realtid reseinformation och rörliga resekrav 11, 12, verklig och upplevd information osäkerhet 13,14 och dess kognitiva kostnader, ojämlikhet bland förare 16 eller olika användarsvar på reseinformation 17. På senare tid har uppmärksamheten flyttats till informationsfeedback-effekterna av avancerade trafikledningssystem 18-20 och de mest lovande (icke-jämviktstilldelning) routingmetoderna baserade på decentraliserad insamling och projektion av realtidsinformation [21] [22] [23], vanligen inspirerade av svärm- eller myrkolonimetoder. Alla dessa metoder fokuserar på att ta fram den bästa strategin för att samla in trafikinformation och prognostiserade trafikförhållanden för att minimera restider. Databaserade studier av stadstrafik på stadsnivå är i stället mindre vanliga, på grund av de inneboende tekniska svårigheterna att registrera och hantera stora mängder trafikdata. Även om denna tendens på senare tid har vänt på grund av ökad tillgång till data för stora stadsområden, är en makroskopisk beskrivning av trafiken i täta komplexa miljöer som moderna världsstäder fortfarande ett öppet problem, vilket motiverar tillvägagångssätt inspirerade av en kombination av trafikflödesteori och statistisk mekanik. Det symboliska exemplet är den aktuella diskussionen om förekomsten och definitionen av ett meningsfullt makroskopiskt fundamentalt diagram (MFD), förhållandet mellan tätortstrafiktäthet och resulterande flöde på stadsnivå. Olika förslag till ett väldefinierat tillståndsutrymme
Inom kort bekräftas det ytterligare i betydelsen komplexa nätverksbaserade experiment att trafikfluktuationer i London korreleras över hela staden REF.
16,484,959
Entangled communities and spatial synchronization lead to criticality in urban traffic
{'venue': 'Scientific Reports', 'journal': 'Scientific Reports', 'mag_field_of_study': ['Computer Science', 'Medicine']}
2,697
Abstract-Den ökande populariteten av sociala nätverk har inspirerat den senaste forskningen att utforska sociala grafer för marknadsföring och data mining. Eftersom sociala nätverk ofta innehåller känslig information om individer blir det viktigt att bevara privatlivet när sociala grafer publiceras. I den här artikeln anser vi att problemet med identitetsutlämnande är att man släpper viktade sociala grafer. Vi identifierar viktade 1*-grannskap attacker, som antar att en angripare har kunskap om inte bara ett måls en-hop grannar och kopplingar mellan dem (1-grannskap graf), men också relaterade nod grader och kant vikter. Med denna information, en angripare kan identifiera ett mål med stort förtroende, även om någon nod 1-grannskap graf är isomorphic med k À 1 andra noders grafer. För att motverka denna attack samtidigt bevara hög nytta av den publicerade grafen, definierar vi en viktig integritet egendom, probabilistic indistinguishability, och föreslår en heuristisk oskiljaktig grupp anonymisering (HIGA) system för att anonymisera en viktad social graf med en sådan egendom. Omfattande experiment på både verkliga och syntetiska datamängder visar hur effektivt och ändamålsenligt det föreslagna systemet är.
Liu m.fl. REF arbetade med att bevara användarnas integritet i sociala nätverk och hålla deras känsliga information säker, med tanke på problemet med offentliggörande av identitet i viktade sociala diagram.
17,155,077
Preserving Privacy with Probabilistic Indistinguishability in Weighted Social Networks
{'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']}
2,698
Sammanfattning Detta dokument presenterar den skalbara online-utförande algoritmen (SOLE) för kontinuerlig och on-line utvärdering av samtidiga kontinuerliga spatio-temporala frågor över dataströmmar. Inkommande spatio-temporala dataströmmar behandlas in-minne mot en uppsättning enastående kontinuerliga frågor. SOLE-algoritmen använder den knappa minnesresursen effektivt genom att hålla reda på endast de viktiga objekten. In-minne lagrade objekt är utgångna (d.v.s. tappade) från minnet när de blir obetydliga. SOLE är en skalbar algoritm där alla oavbrutna frågor delar samma buffertpool. Dessutom presenteras SOLE som en spatio-temporal förening mellan två ingångsströmmar, en ström av spatio-temporala objekt och en ström av spatiotemporala frågor. För att klara av intervaller av höga ankomsthastigheter av objekt och / eller frågor, använder SOLE en last-nedläggning metod där några av de lagrade objekten tappas från minnet. SOLE implementeras som en pipelined frågeoperatör som kan kombineras med traditionella frågeoperatörer i en genomförandeplan för frågor för att stödja ett brett utbud av kontinuerliga frågor. Prestandaexperiment baserade på en verklig implementering av SOLE inuti en prototyp av ett dataflödeshanteringssystem visar skalbarheten och effektiviteten hos SOLE i mycket dynamiska miljöer.
SOLE REF är en skalbar algoritm för kontinuerliga spatio-temporala frågor i dataströmmar.
1,501,905
SOLE: scalable on-line execution of continuous queries on spatio-temporal data streams
{'venue': 'The VLDB Journal', 'journal': 'The VLDB Journal', 'mag_field_of_study': ['Computer Science']}
2,699
Abstract-I en värld där traditionella uppfattningar om integritet alltmer utmanas av de myriader företag som samlar in och analyserar våra data, är det viktigt att beslutsfattande enheter hålls ansvariga för orättvisa behandlingar som härrör från oansvarig dataanvändning. Tyvärr innebär bristen på lämpliga metoder och verktyg att det i praktiken kan vara svårt att identifiera orättvisa eller diskriminerande effekter. Vi inför den omotiverade ramen (UA), en principiell metod för upptäckt av orättvis, diskriminerande eller kränkande användarbehandling i datadrivna tillämpningar. UA-ramverket förenar och rationaliserar ett antal tidigare försök att formalisera algoritmisk rättvisa. Det kombinerar unikt flera undersökande primitiver och rättvisa mätmetoder med bred tillämplighet, granular utforskning av orättvis behandling i användarundergrupper, och införlivandet av naturliga begrepp av nytta som kan förklara observerade skillnader. Vi omedelbart UA-ramverket i FairTest, det första omfattande verktyget som hjälper utvecklare att kontrollera datadrivna program för orättvis användarbehandling. Det möjliggör skalbara och statistiskt rigorösa undersökningar av samband mellan tillämpningsresultat (t.ex. priser eller premier) och känsliga användarattribut (t.ex. ras eller kön). Dessutom tillhandahåller FairTest felsökningskapacitet som låter programmerare utesluta potentiella missöden för observerade orättvisa effekter. Vi rapporterar om användning av FairTest för att undersöka och i vissa fall ta upp olika effekter, stötande märkning och ojämna frekvenser av algoritmiska fel i fyra datadrivna applikationer. Som exempel, våra resultat avslöjar subtila fördomar mot äldre befolkningar i fördelningen av fel i en prediktiv hälsa ansökan och offensiv ras märkning i en bild tagger.
Andra relevanta insatser är FairTest Ref, en metod och en ram för att identifiera "omotiverade sammanslutningar" som kan motsvara orättvis, diskriminerande eller kränkande användarbehandling i datadrivna tillämpningar.
16,796,732
FairTest: Discovering Unwarranted Associations in Data-Driven Applications
{'venue': '2017 IEEE European Symposium on Security and Privacy (EuroS&P)', 'journal': '2017 IEEE European Symposium on Security and Privacy (EuroS&P)', 'mag_field_of_study': ['Computer Science']}
2,700
Detta dokument studerar problemet med säker kommunikation över sändningskanalen med mottagarsidan information under linsen av individuella sekretesskrav, det vill säga sändaren vill skicka två oberoende meddelanden till två mottagare, som, respektive har den önskade meddelandet av den andra mottagaren som sidoinformation, samtidigt hålla tjuvlyssnaren okunnig om varje meddelande (dvs., information läckage från varje meddelande till tjuvlyssnaren görs försvinna). Genom att bygga vidare på engångsprogram, kodning av sekretess och sändningssystem undersöks möjliga prisregioner, och kapacitetsregionen för särskilda fall av antingen en svag eller stark tjuvlyssnare (jämfört med båda berättigade mottagare) karakteriseras. Det är intressant att lägga märke till att kapacitetsregionen för den förstnämnda motsvarar en linje och den senare motsvarar en rektangel med saknade hörn; ett fenomen som uppstår på grund av kopplingen mellan användarens priser. Dessutom är den individuella sekretess kapacitet regionen också fullt karakteriserad för fallet där tjuvlyssnarens kanal är deterministisk. Förutom diskret minneslös installation studeras Gaussianska scenarier. För Gaussian modellen, förutom de starka och svaga tjuvlyssnare fall, är kapacitetsregionen kännetecknas för de låga och höga SNR-regimer när tjuvlyssnarens kanal är starkare än en mottagare men svagare än den andra. Anmärkningsvärt nog garanteras alltid positiva säkra överföringshastigheter under den individuella sekretessbegränsningen, till skillnad från fallet med den gemensamma sekretessbegränsningen (dvs. informationsläckagefrekvensen från båda meddelandena till tjuvlyssnaren försvinner). Detta begrepp om sekretess fungerar därför som en lämplig kandidat för handel utanför sekretess och överföringshastighet, vilket gör sekretess mer överkomlig men fortfarande godtagbar för slutanvändaren. Index Terms-Physical lager säkerhet, sändningskanal, sidoinformation, individuell sekretess.
Teorem 1 (Chen m.fl. REF : Följande område med individuell sekretess är möjligt att uppnå för tvåmottagares diskreta minneslösa sändningskanal med kompletterande information från mottagarens sida och med en passiv tjuvlyssnare:
8,238,594
Individual Secrecy for Broadcast Channels With Receiver Side Information
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
2,701
Modeller för maskininlärning (ML) kan anses vara konfidentiella på grund av deras känsliga utbildningsdata, kommersiella värde eller användning i säkerhetstillämpningar. Allt oftare används konfidentiella ML-modeller med allmänt tillgängliga frågegränssnitt. ML-as-a-service-system ("prediktiv analys") är ett exempel: Vissa gör det möjligt för användare att utbilda modeller på potentiellt känsliga data och debitera andra för tillgång på betal-per-query-basis. Spänningen mellan modellsekretess och offentlighet motiverar vår utredning av modellextraheringsattacker. Vid sådana attacker syftar en motståndare med tillgång till black-box, men ingen förkunskaper om en ML-modells parametrar eller träningsdata, till att duplicera funktionen hos (dvs. "steal") modellen. Till skillnad från klassiska inlärningsteoriinställningar kan ML-as-a-service-erbjudanden acceptera partiella funktionsvektorer som indata och inkludera förtroendevärden med förutsägelser. Med tanke på dessa metoder, visar vi enkla, effektiva attacker som extraherar mål ML modeller med nära perfekt trohet för populära modellklasser inklusive logistisk regression, neurala nätverk, och beslut träd. Vi demonstrerar dessa attacker mot online-tjänsterna BigML och Amazon Machine Learning. Vi visar vidare att det naturliga motmåttet att utelämna förtroendevärden från modellutgångar fortfarande medger potentiellt skadliga modellextrahering attacker. Våra resultat belyser behovet av noggrann installation av ML-modeller och nya modellextraherande motåtgärder.
Tramèr m.fl. REF är bland de första att införa modellen stjäla attack mot Black-box ML modeller.
2,984,526
Stealing Machine Learning Models via Prediction APIs
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
2,702
Abstrakt. Denna uppsats beskriver SOUPA (Standard Ontology for Ubiquitous and Pervasive Applications) och användningen av denna ontology i att bygga Context Broker Architecture (CoBRA). CoBRA är en ny agentarkitektur för att stödja genomträngande sammanhangsmedvetna system i en smart rymdmiljö. SOUPA ontology uttrycks med Web Ontology Language OWL och innehåller modulära komponentvokabulärer för att representera intelligenta agenter med tillhörande övertygelser, önskan, och avsikter, tid, utrymme, händelser, användarprofiler, åtgärder, och politik för säkerhet och integritet. Centralt för CoBRA är en intelligent mäklare som utnyttjar ontologier för att stödja kunskapsutbyte, kontextuella resonemang och skydd av användarnas integritet. Vi beskriver också två prototypsystem som vi har utvecklat för att visa genomförbarheten och användningen av CoBRA.
SOUPA (Standard Ontology for Ubiquitous and Pervasive Application) REF utformades med hjälp av Web Ontology Language OWL, det innehåller ordförråd komponent som representerar övertygelser, lustspänningar, profiler, åtgärder och säkerhetspolitik.
621,754
The SOUPA Ontology for Pervasive Computing
{'venue': 'Ontologies for Agents: Theory and Experiences', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,703
Att bygga textklassificeringar med hög noggrannhet är en viktig uppgift inom biomedicin med tanke på den mängd information som döljs i ostrukturerade berättelser som forskningsartiklar och kliniska dokument. På grund av stora funktionsytor har traditionellt diskriminerande metoder såsom logistisk regression och vektormaskiner med n-gram och semantiska funktioner (t.ex. namngivna enheter) använts för textklassificering där ytterligare prestandavinster vanligtvis görs genom funktionsval och ensemblemetoder. I detta dokument visar vi att ett mer direkt tillvägagångssätt med hjälp av konvolutionella neurala nätverk (CNN) överträffar flera traditionella tillvägagångssätt i biomedicinsk textklassificering med det specifika användningsfallet att tilldela medicinska ämnesrubriker (eller MeSH-termer) till biomedicinska artiklar. Utbildade annoterare vid det nationella medicinska biblioteket (NLM) tilldelar i genomsnitt 13 koder till varje biomedicinsk artikel och indexerar därmed semantiskt vetenskaplig litteratur för att stödja NLM:s söksystem PubMed. Nya rön tyder på att effektiva automatiserade insatser för MeSH term uppdrag börjar med binära klassificerare för varje termin. I detta papper använder vi CNNs för att bygga binära textklassificeringar och uppnå en absolut förbättring på över 3% i makro F-poäng över en uppsättning utvalda svårklassificerade MeSH-termer jämfört med de bästa tidigare resultaten på en offentlig datauppsättning. Ytterligare experiment på 50 högfrekvenstermer i datasetet visar också förbättringar med CNN. Våra resultat visar den starka potentialen hos CNN:er i biomedicinska textklassificeringsuppgifter.
Biomedicinsk textklassificering som indexering av biomedicinska artiklar som använder CNN har också rapporterats i REF som överträffade de traditionella metoderna.
2,132,541
Convolutional neural networks for biomedical text classification: application in indexing biomedical articles
{'venue': "BCB '15", 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine']}
2,704
Abstrakt. I denna uppsats studerar vi aggregering i en svärm av enkla robotar, som kallas s-bots, som har förmågan att självorganisera och selfamble för att bilda ett robotsystem, som kallas en svärm-bot. Aggregeringsprocessen, som observerats i många biologiska system, är av grundläggande betydelse eftersom den är förutsättningen för andra former av samarbete som innefattar självorganisering och självmontering. Vi överväger problemet med att definiera kontrollsystemet för svärm-boten med hjälp av artificiell evolution. De resultat som erhållits i en simulerad 3D-miljö presenteras och analyseras. De visar att artificiell evolution, som utnyttjar de komplexa interaktionerna mellan s-botar och mellan s-botar och miljön, kan producera enkla men generella lösningar på aggregationsproblemet.
Trianni m.fl. REF studerade aggregering med enkla robotar som kallas s-bots med hjälp av evolutionär robotik mekanism.
2,711,875
Evolving Aggregation Behaviors in a Swarm of Robots
{'venue': 'ECAL', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,705
Abstract-Multi-hop undervattens akustiska sensor nätverk begränsar prestanda för medium åtkomst kontroll protokoll. Effektiviteten i det välkända RTS-CTS-systemet försämras på grund av långa förseningar i spridningen av sådana nät. På senare tid har intresset för Aloha-varianter dykt upp, men prestandan hos sådana protokoll inom ramen för multi-hop nätverk är inte väl studerad. I detta dokument identifierar vi utmaningarna med att modellera innehållsbaserade styrprotokoll för medium åtkomst och presenterar en modell för att analysera Aloha-varianter för en enkel strängtopologi som ett första steg mot att analysera prestandan hos stridsbaserade förslag i multi-hop akustiksensornätverk under vatten. En tillämpning av modellen tyder på att Aloha varianter är olika känsliga för trafikbelastningar och nätverksstorlek.
I REF studerades ALOHA i multi-hop UWASN för strängtopologi (dvs. en kedja).
18,442,079
Analyzing the Performance of Multi-hop Underwater Acoustic Sensor Networks
{'venue': 'OCEANS 2007 - Europe', 'journal': 'OCEANS 2007 - Europe', 'mag_field_of_study': ['Engineering']}
2,706
Insilico förutsägelsen om potentiella interaktioner mellan läkemedel och målproteiner är av central betydelse för identifieringen av nya läkemedel eller nya mål för befintliga läkemedel. Endast en liten del av alla läkemedelsmålpar i nuvarande datauppsättningar är dock experimentellt validerade interaktioner. Detta motiverar behovet av att utveckla beräkningsmetoder som förutsäger äkta interaktion par med hög noggrannhet. Resultat: Vi visar att en enkel maskininlärningsmetod som använder drog-målnätverket som den enda informationskällan är kapabel att förutsäga äkta interaktion par med hög noggrannhet. Särskilt introducerar vi interaktionsprofiler av droger (och mål) i ett nätverk, som är binära vektorer som anger förekomsten eller frånvaron av interaktion med varje mål (drog) i det nätverket. Vi definierar en kärna på dessa profiler, som kallas Gaussian Interaktion Profile (GIP) kärnan, och använder en enkel klassificering, (kernel) Regularized Least Squares (RLS), för att förutsäga läkemedels-målinteraktioner. Vi testar jämförelsevis effekten av RLS med GIP-kärnan på fyra interaktionsnätverk som används i tidigare studier. Den föreslagna algoritmen uppnår arean under precisionskurvan (AUPR) upp till 92,7, vilket avsevärt förbättrar resultaten av de senaste metoderna. Dessutom visar vi att användning av även kärnor baserade på kemisk och genomisk information ytterligare ökar noggrannheten, med en snygg förbättring på små datauppsättningar. Dessa resultat styrker relevansen av nätverkets topologi (i form av interaktionsprofiler) som informationskälla för att förutsäga interaktioner mellan läkemedel och mål. Tillgänglighet: Programvara och kompletterande material finns på
Typiska exempel på denna typ av Kronecker-kärnapplikationer finns i bioinformatik, såsom uppgiften att förutsäga interaktioner mellan läkemedel och mål REF.
468,681
Gaussian interaction profile kernels for predicting drug–target interaction
{'venue': 'Bioinformatics', 'journal': 'Bioinformatics', 'mag_field_of_study': ['Computer Science', 'Medicine']}
2,707
Abstrakt. Intrinsiskt oordnade regioner i proteiner är relativt frekventa och viktiga för vår förståelse av molekylär igenkänning och sammansättning, och proteinstruktur och funktion. Ur en algoritmisk synvinkel, Flagging stora oordnade regioner är också viktigt för ab initio protein struktur förutsägelse metoder. Här extraherar vi först en curerad, icke-redundant, datauppsättning proteinoordning regioner från Protein Data Bank och beräkna relevant statistik om längden och platsen för dessa regioner. Vi utvecklar sedan en ab initio prediktor av oordnade regioner som kallas DISpro som använder evolutionär information i form av profiler, förutsedd sekundär struktur och relativ lösningsmedelstillgänglighet, och ensembler av 1D-rekursiva neurala nätverk. DISpro utbildas och korsverifieras med hjälp av curated data set. De experimentella resultaten visar att DISpro uppnår en noggrannhet på 92,8% med en falsk positiv frekvens på 5%. DISpro är medlem i SCRATCH svit av protein data mining verktyg som finns tillgängliga genom
DISpro REF använder evolutionär information i form av proteinprofiler, förutsagd sekundär struktur och relativ lösningsmedelstillgänglighet, och ensembler av 1D-rekursiva neurala nätverk.
383,107
Accurate Prediction of Protein Disordered Regions by Mining Protein Structure Data
{'venue': 'Data Mining and Knowledge Discovery', 'journal': 'Data Mining and Knowledge Discovery', 'mag_field_of_study': ['Computer Science']}
2,708
Den ökande genomträngligheten hos lokaliseringsförvärvsteknik (GPS, GSM-nät osv.) leder till insamling av stora spatiotemporala dataset och till möjligheten att upptäcka användbar kunskap om rörelsebeteende, vilket främjar nya tillämpningar och tjänster. I detta dokument går vi mot denna riktning och utvecklar en förlängning av det sekventiella mönster gruvparadigm som analyserar banorna för rörliga objekt. Vi introducerar banamönster som koncisa beskrivningar av frekventa beteenden, både i fråga om utrymme (dvs. de områden i rymden som besöks under rörelser) och tid (dvs. längden på rörelser). I detta sammanhang ger vi en allmän formell redogörelse för det nya gruvproblemet och studerar sedan flera olika momentiationer av olika komplexitet. De olika tillvägagångssätten utvärderas sedan empiriskt över verkliga data och syntetiska riktmärken och jämför deras styrkor och svagheter.
Till exempel Giannotti et al. REF introducerade bana mönster som koncisa beskrivningar av frekventa beteenden i termer av både tid och rum.
10,109,137
Trajectory pattern mining
{'venue': "KDD '07", 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,709
Abstract-This paper överväga ett överföringssystem som kombinerar flera beskrivningskodning (MDC) och nätkodning (NC). Vårt mål är att dra nytta av MDC:s egendom för att ge progressiv kvalitetsförbättring med antalet mottagna paket och effektiv användning av nätresurser som tillhandahålls av NC. I båda fallen observeras en god robusthet mot saknade NC-paket. När antalet paket som saknas är litet ger NC-MDC-F bättre SNR tack vare en minskning av en del av kvantiseringsbullret. Priset som ska betalas är en minskad robusthet mot saknade paket. När antalet förlorade paket ökar, är en rekonstruktion fortfarande möjlig med NC-MDC-F för vissa paket, även om antalet saknade paket är större än n - k, antalet införda redundans paket. Ett typiskt tillämpningssammanhang är multicasting av multimediainnehåll med fördröjningsbegränsningar. Användare med mycket goda kanalförhållanden kommer att dra nytta av mottagandet av redundanta paket med NC-MDC-F, medan dessa paket är värdelösa med NC-MDC-T eller med felkorrigerande NC.
I REF uppnås robusthet mot förlorade nätkodade paket genom att kombinera nätkodning med flera beskrivningskodningar (MDC).
16,479,974
Joint Decoding of Multiple-Description Network-Coded Data
{'venue': '2011 International Symposium on Networking Coding', 'journal': '2011 International Symposium on Networking Coding', 'mag_field_of_study': ['Mathematics']}
2,710
Vi har utvecklat Textpresso, ett nytt text-mining system för vetenskaplig litteratur vars kapacitet går långt utöver en enkel sökord sökmotor. Textpressos två huvudelement är en samling av den fullständiga texten av vetenskapliga artiklar uppdelade i enskilda meningar, och införandet av kategorier av termer för vilka en databas med artiklar och enskilda meningar kan sökas. Kategorierna är klasser av biologiska begrepp (t.ex. gen, allel, cell- eller cellgrupp, fenotyp osv.) och klasser som relaterar till två objekt (t.ex. förening, reglering osv.) eller beskriva en (t.ex. biologisk process osv.). Tillsammans bildar de en katalog över typer av objekt och begrepp som kallas ontologi. Efter denna ontologi är befolkad med termer, hela corpus av artiklar och abstracts markeras upp för att identifiera termer av dessa kategorier. Den nuvarande ontologin omfattar 33 termkategorier. En sökmotor gör det möjligt för användaren att söka efter en eller en kombination av dessa taggar och/eller nyckelord inom en mening eller ett dokument, och eftersom ontologin tillåter att ordbetydelse ifrågasätts, är det möjligt att formulera semantiska frågor. Fulltextåtkomst ökar återkallandet av biologiska datatyper från 45% till 95%. Utvinning av särskilda biologiska fakta, såsom gen-gen växelverkan, kan påskyndas avsevärt av ontologier, med Textpresso automatiskt utför nästan såväl som experter curatorer för att identifiera meningar; i sökningar efter två unikt namngivna gener och en interaktionsterm, ger ontologin en 3-faldig ökning av sökeffektivitet. Textpresso fokuserar för närvarande på Caenorhabditis elegans litteratur, med 3800 artiklar i fulltext och 16.000 abstracts. Ontologins lexicon innehåller 14 500 poster, som var och en innehåller alla versioner av ett visst ord eller en viss fras, och den innehåller alla kategorier av Gene Ontology-databasen. Textpresso är ett användbart kureringsverktyg, liksom sökmotor för forskare, och kan enkelt utvidgas till andra organismspecifika textkorpora. Textpresso finns på http://www.textpresso.org eller via WormBase på http://www.wormbase.org.
Sökningar är sofistikerade och kan omfatta kategorier som gener av en viss art och Gene Ontology klasser REF.
1,446,941
Textpresso: An Ontology-Based Information Retrieval and Extraction System for Biological Literature
{'venue': 'PLoS Biology', 'journal': 'PLoS Biology', 'mag_field_of_study': ['Biology', 'Medicine']}
2,711
Abstract-för närvarande ett växande antal kraftfulla enheter gå Internet komponera en värld av smarta enheter, eller saker i Internet of Things (IoT) perspektiv, avsevärt påverkar den globala trafiken. Det finns också fler och fler molnleverantörer som erbjuder IoT-specifika tjänster, eftersom molntjänster har potential att tillgodose IoT-behov såsom dölja datagenerering, bearbetning och visualisering uppgifter. Med hjälp av smartphones kan många saker simuleras samtidigt stödja de flesta typer av IoT-enheter. I detta papper diskuterar vi design och utveckling av en mobil IoT simulator som heter MobIoTSim som hjälper forskare att lära sig IoT-enhet hantering utan att köpa riktiga sensorer, och att testa och visa IoT-program som använder flera enheter. Vi visar också hur man utvecklar en gateway-tjänst i ett moln som kan anslutas till MobIoTSim för att hantera de simulerade enheterna och skicka tillbaka meddelanden genom att svara på kritiska sensorvärden. Genom att använda detta verktyg, utvecklare kan undersöka beteendet hos IoT-system, och utveckla och utvärdera IoT molnapplikationer mer effektivt.
En mer avancerad och generisk lösning är MobIoTSim REF som kan användas för att simulera vilken enhet som helst, och den kan anslutas till vilket moln som helst.
15,253,673
MobIoTSim: Towards a Mobile IoT Device Simulator
{'venue': '2016 IEEE 4th International Conference on Future Internet of Things and Cloud Workshops (FiCloudW)', 'journal': '2016 IEEE 4th International Conference on Future Internet of Things and Cloud Workshops (FiCloudW)', 'mag_field_of_study': ['Computer Science']}
2,712
Abstract-Network apparater utför olika funktioner på nätverksflöden och utgör en viktig del av en operatörs nätverk. Normalt, en uppsättning kedjade nätverksfunktioner processa nätverksflöden. Efter utvecklingen av virtualisering av nätverk har även virtualisering av nätverksfunktioner blivit ett intressant ämne. Vi definierar en modell för formalisering av kedjan av nätverksfunktioner med hjälp av ett sammanhangsfritt språk. Vi behandlar distributionsförfrågningar och konstruerar virtuella nätverksfunktionsgrafer som kan kartläggas till nätverket. Vi beskriver kartläggningen som en blandad Integer Quadratically Constricted Program (MIQCP) för att hitta placeringen av nätverksfunktioner och kedja dem tillsammans med tanke på de begränsade nätverksresurser och krav funktioner. Vi har gjort en Pareto-analys för att undersöka möjliga avvägningar mellan olika optimeringsmål.
Dessutom, Mehraghdam m.fl. formalisera tjänstekedjeförfrågningar med hjälp av kontextfritt språk och presentera ett blandat heltal quadratic programmering placeringsstrategi REF.
14,342,027
Specifying and Placing Chains of Virtual Network Functions
{'venue': '2014 IEEE 3rd International Conference on Cloud Networking (CloudNet)', 'journal': '2014 IEEE 3rd International Conference on Cloud Networking (CloudNet)', 'mag_field_of_study': ['Computer Science']}
2,713
Open source upplever en renässans period, på grund av uppkomsten av moderna plattformar och arbetsflöden för att utveckla och upprätthålla offentlig kod. Som ett resultat av detta skapar utvecklare programvara med öppen källkod i hastigheter som aldrig tidigare skådats. Dessa projekt står därför också inför en aldrig tidigare skådad dödlighet. För att bättre förstå orsakerna till misslyckandet med moderna open source-projekt beskriver detta dokument resultaten av en undersökning med ansvariga för 104 populära GitHub-system som har avvärjts. Vi tillhandahåller nio orsaker till misslyckandet med dessa projekt med öppen källkod. Vi visar också att vissa underhållspraxis-specifikt antagandet av bidragande riktlinjer och kontinuerlig integration har en viktig koppling till ett projekt misslyckande eller framgång. Slutligen diskuterar och avslöjar vi de viktigaste strategierna utvecklare har försökt övervinna misslyckandet i de studerade projekten.
Coelho m.fl. REF, rapportera en enkät med ansvariga för 104 misslyckade öppenkällkodsprojekt, dvs. projekt som inte underhålls längre.
12,302,770
Why Modern Open Source Projects Fail
{'venue': 'ESEC/FSE 2017', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,714
Figur 1: Vår metod tar som ingångsdjup och anpassade RGB bilder från alla konsumentdjup kamera (här en PrimeSense Carmine 1.09). Per-frame och i realtid approximerar vi incidentbelysningen och albedo, och använder dessa för geometrisk förfining. Från vänster: Exempel ingångsdjup och RGB-bild; rå djupinmatning före förfining (renderas med normals och pong skuggning, respektive); vårt förfinade resultat, notera detaljer på ögat (överst till höger) jämfört med ursprungliga djup karta (nederst till höger); full 3D rekonstruktion med hjälp av våra raffinerade djupkartor i realtid scan integrationsmetod av [Nießner et al. 2013] (längst till höger) Vi presenterar den första realtidsmetoden för förfining av djupdata med hjälp av form-från-formning i allmänna okontrollerade scener. Per bildruta tar vår realtidsalgoritm råa bullriga djupdata och en anpassad RGB-bild som indata, och ungefärar den tidsvarierande incidentbelysningen, som sedan används för geometrisk förfining. Detta leder till dramatiskt förbättrade djupkartor på 30Hz. Vår algoritm gör få scenantaganden, hanterar godtyckliga scenobjekt även under rörelse. För att möjliggöra denna typ av realtidsdjup karta förbättring, bidrar vi med en ny mycket parallell algoritm som omformulerar invers rendering optimering problem i tidigare arbete, så att vi kan uppskatta belysning och form på ett temporalt sammanhängande sätt på videoram-frekvenser. Vårt optimeringsproblem minimeras med hjälp av ett nytt vanligt rutnät Gauss-Newton lösare implementeras helt på GPU. Vi visar resultat som visar förbättrade djupkartor, som är jämförbara med offline-metoder men är beräknade storleksordningar snabbare, samt baslinjejämförelser med online-filtrering-baserade metoder. Vi avslutar med applikationer av våra kartor av högre kvalitet för förbättrad ytrekonstruktion i realtid och prestandafångst.
Wu metod REF är den första realtid skuggning baserad form förfining metod.
6,250,317
Real-time shading-based refinement for consumer depth cameras
{'venue': 'TOGS', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,715
Abstract-Målet med kodgranskningsprocessen är att bedöma kvaliteten på källkodsändringar (som lämnas in som patchar) innan de är engagerade i ett projekts versionskontrollarkiv. Denna process är särskilt viktig i projekt med öppen källkod för att säkerställa kvaliteten på de bidrag som lämnas in av gemenskapen, men översynen kan främja eller avskräcka från dessa bidrag. I detta papper studerar vi patchens livscykel i Mozilla Firefox-projektet. Modellen för en patch livscykel extraherades från både kvalitativa bevis för de enskilda processerna (intervjuer och diskussioner med utvecklare), och den kvantitativa bedömningen av Mozilla processen och praxis. Vi jämför livscykeln för en patch i pre-och post-snabb frisättning utveckling. En kvantitativ jämförelse visade att även om patchens livscykel i huvudsak förblir oförändrad efter byte till snabb frisättning, är de patcher som lämnas in av tillfälliga bidragsgivare oproportionerligt mer sannolikt att överges jämfört med kärnbidragsgivarna. Detta tyder på att plåster från tillfälliga utvecklare bör få extra omsorg för att både säkerställa kvalitet och uppmuntra framtida gemenskapsbidrag.
Vi har tidigare studerat processen kod översyn av Mozilla Firefox-projektet, särskilt skillnaderna i patchen livscykel och tid som tas för varje övergång för pre-och pos-rapid utvecklingsmodeller REF.
8,081,291
The Secret Life of Patches: A Firefox Case Study
{'venue': '2012 19th Working Conference on Reverse Engineering', 'journal': '2012 19th Working Conference on Reverse Engineering', 'mag_field_of_study': ['Computer Science']}
2,716
Abstract-The Generic Modeling Environment (GME) är en konfigurerbar verktygssvit som underlättar det snabba skapandet av domänspecifika modellintegrerade programsyntesmiljöer. Det finns tre egenskaper hos GME som gör det till ett värdefullt verktyg för konstruktion av domänspecifika modellering miljöer. För det första ger GME generiska modellering primitiver som hjälper en miljödesigner i specifikationen av nya grafiska modellering miljöer. För det andra, dessa generiska primitiva är specialiserade för att skapa de domänspecifika modellering koncept genom meta-modellering. Metamodellerna stöder uttryckligen sammansättning som gör det möjligt att skapa sammansatta modellspråk som stöder flera paradigm. För det tredje har flera idéer från prototypbaserade programmeringsspråk integrerats med den inbyggda modellens inneslutningshierarki, vilket ger domänexperten möjlighet att klona grafiska modeller. I detta dokument undersöks detaljerna i dessa tre idéer och deras konsekvenser.
GME är en konfigurerbar verktygssvit som underlättar domänspecifik modellering REF.
6,367,488
Composition and cloning in modeling and meta-modeling
{'venue': 'IEEE Transactions on Control Systems Technology', 'journal': 'IEEE Transactions on Control Systems Technology', 'mag_field_of_study': ['Computer Science']}
2,717
Många MPI bibliotek har drabbats av programvara buggar, vilket allvarligt påverkar produktiviteten hos ett stort antal användare. Detta dokument presenterar en ny metod som kallas FlowChecker för att upptäcka kommunikationsrelaterade fel i MPI-bibliotek. Huvudidén är att extrahera program intentioner av meddelande passerar (MPintensions), och att kontrollera om dessa MP-avsikter uppfylls korrekt av de underliggande MPI-bibliotek, dvs., om meddelanden levereras korrekt från angivna källor till angivna destinationer. Om inte, FlowChecker rapporterar felen och tillhandahåller diagnostisk information. Vi har byggt en FlowChecker-prototyp på Linux och utvärderat den med fem riktiga felfall i tre allmänt använda MPI-bibliotek, inklusive Open MPI, MPICH2 och MVAPICH2. Våra experimentella resultat visar att FlowChecker effektivt upptäcker alla fem utvärderade felfall och ger användbar diagnostisk information. Dessutom visar våra experiment med HPL och NPB att FlowChecker har låg drifttid (0,9-9,7% på tre MPI-bibliotek).
MPI bugg detektion metoder upptäcka fel i MPI implementationer REF.
2,036,556
FlowChecker: Detecting Bugs in MPI Libraries via Message Flow Checking
{'venue': '2010 ACM/IEEE International Conference for High Performance Computing, Networking, Storage and Analysis', 'journal': '2010 ACM/IEEE International Conference for High Performance Computing, Networking, Storage and Analysis', 'mag_field_of_study': ['Computer Science']}
2,718
Att förutse framtida situationer från streamingsensordata är en viktig utmaning för den mobila robotiken och automatiserade fordon. Vi tar itu med problemet med att förutsäga vägen för objekt med flera dynamiska lägen. Dynamiken i sådana mål kan beskrivas med ett Switching Linear Dynamical System (SLDS). Men förutsägelser från denna probabilistiska modell kan inte förutse när en förändring i dynamiskt läge kommer att ske. Vi föreslår att extrahera olika typer av signaler med datorseende för att ge sammanhang på målets beteende, och införliva dessa i en Dynamic Bayesian Network (DBN). DBN utökar SLDS genom att konditionering läget övergångs sannolikheter på ytterligare sammanhang stater. Vi beskriver effektiv online slutledning i denna DBN för probabilistiska väg förutsägelse, redovisning av osäkerhet i både mätningar och målbeteende. Vår strategi illustreras av två scenarier inom området intelligenta fordon som rör fotgängare och cyklister, så kallade Sårbara trafikanter (VRU). I sammanhanget ingår här VRU:s statiska miljö, dess dynamiska miljö och dess observerade handlingar. Experiment med hjälp av stereoseendedata från ett fordon i rörelse visar att den föreslagna metoden resulterar i mer exakta vägprognoser än SLDS vid den relevanta korta tidshorisonten (1 s). Den överträffar något en beräkning som är mer krävande än den senaste tekniken.
Kooij m.fl. REF beskriver oskyddade trafikanters rörelse med ett dynamiskt Bayesian Network.
49,556,098
Context-Based Path Prediction for Targets with Switching Dynamics
{'venue': 'International Journal of Computer Vision', 'journal': 'International Journal of Computer Vision', 'mag_field_of_study': ['Computer Science']}
2,719
Konsumenterna ägnar sig i allt större utsträckning åt hälsoinformation via Internet. Med ett kommunikationsperspektiv argumenterar denna översyn för att hälso- och sjukvårdspersonal bör oroa sig för ämnet, överväga potentiella fördelar, syntetisera kvalitetsfrågor, identifiera kriterier för att utvärdera online hälsoinformation och kritisera litteraturen. Mer än 70 000 webbplatser sprider hälsoinformation; över 50 miljoner människor söker hälsoinformation på nätet, vilket kan få konsekvenser för hälso- och sjukvårdssystemet. Internet erbjuder omfattande tillgång till hälsoinformation och fördelarna med interaktivitet, informationss skräddarsyddhet och anonymitet. Tillgången är dock ojämförlig och användningen hindras ytterligare av navigeringsutmaningar på grund av många designfunktioner (t.ex. oorganisering, tekniskt språk och brist på beständighet). Allt fler kritiker ifrågasätter kvaliteten på hälsoinformation online; begränsad forskning visar att mycket är felaktigt. Bristfälliga kunskaper i informationsbedömning ökar konsumenternas sårbarhet och stärker behovet av kvalitetsstandarder och allmänt utbredda kriterier för utvärdering av hälsoinformation. Extant litteratur kan karakteriseras som spekulativ, bestående av grundläggande "hur man" presentationer, med lite empirisk forskning.
Cline och Haynes REF presenterar en översyn av arbetet på detta område som tyder på att hälso- och sjukvårdspersonal bör oroa sig för hälsosökande online, överväga potentiella fördelar, syntetisera kvalitetsfrågor och identifiera kriterier för att utvärdera hälsoinformation på nätet.
10,071,448
Consumer health information seeking on the Internet: the state of the art.
{'venue': 'Health education research', 'journal': 'Health education research', 'mag_field_of_study': ['Medicine']}
2,720
Den ökande kostnaden för stämning och hantering av datorsystem leder till out-sourcing av kommersiella tjänster till värdcentraler. Dessa centra tillhandahåller tusentals täta servrar inom en relativt liten fastighetsenhet för att vara värd för applikationer/tjänster av olika kunder som kan ha säkerställts genom ett servicenivåavtal (SLA). Energiförbrukningen hos dessa servrar håller på att bli ett allvarligt problem i utformningen och driften av värdcentralerna. Effekterna av hög energiförbrukning visar sig inte bara i de kostnader som används för att utforma effektiva kylsystem för att avvärja den genererade värmen, utan också i själva elförbrukningen. Det är viktigt att använda energihanteringsstrategier i dessa värdcentraler för att sänka dessa kostnader för att öka lönsamheten. Samtidigt, tekniker för power management som inkluderar att stänga av dessa servrar och / eller modulera deras operativa hastighet, kan påverka förmågan hos värdcentret att möta SLA. Dessutom kan upprepade on-off-cykler öka slitaget på serverkomponenterna och medföra kostnader för inköp och utbyte av dem. Detta dokument presenterar en formalism för detta problem, och föreslår tre nya online lösningsstrategier baserade på steady state köa analys, feedback kontroll teori, och en hybrid mekanism låna idéer från dessa två. Med hjälp av verkliga webbserver spår, visar vi att dessa lösningar är mer anpassningsbara till arbetsbelastning beteende när utföra server provisionering och hastighetskontroll än tidigare heuristics mot att minimera driftskostnaderna samtidigt uppfylla SLA.
Chen och Al. REF tar upp resursförsörjning och föreslår energihanteringsstrategier med SLA-begränsningar baserade på steadystate köanalys och responskontrollteori.
5,938,016
Managing server energy and operational costs in hosting centers
{'venue': "SIGMETRICS '05", 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,721
Analysen av glandulär morfologi inom kolon histopatologi bilder är ett viktigt steg för att bestämma graden av tjocktarmscancer. Trots vikten av denna uppgift, manuell segmentering är mödosam, tidskrävande och kan lida av subjektivitet bland patologer. Ökningen av beräkningspatologi har lett till utvecklingen av automatiserade metoder för körtelsegmentering som syftar till att övervinna utmaningarna med manuell segmentering. Denna uppgift är dock icke-trivial på grund av den stora variationen i glandulärt utseende och svårigheten att skilja mellan vissa glandulära och icke-glandulära histologiska strukturer. Dessutom är ett mått på osäkerhet avgörande för det diagnostiska beslutsfattandet. För att ta itu med dessa utmaningar föreslår vi ett fullständigt konvolutionellt neuralt nätverk som motverkar förlusten av information som orsakas av max-pooling genom att återinföra den ursprungliga bilden vid flera punkter inom nätverket. Vi använder också attrous rumslig pyramid pooling med varierande dilateringshastigheter för att bevara upplösningen och multi-level aggregering. För att inkorporera osäkerhet inför vi slumpmässiga omvandlingar under testtiden för ett förbättrat segmenteringsresultat som samtidigt genererar en osäkerhetskarta, som belyser områden av tvetydighet. Vi visar att denna karta kan användas för att definiera ett mått för att bortse från förutsägelser med hög osäkerhet. Det föreslagna nätverket uppnår state-of-the-art prestanda på Glas utmaning dataset och på en andra oberoende colorectal adenocarcinom dataset. Dessutom utför vi körtelexpeditionssegmentering på helslidebilder från ytterligare två datauppsättningar för att belysa hur generell vår metod är. Som en förlängning, introducerar vi MILD-Net + för samtidig körtel och lumen segmentering, för att öka den diagnostiska kraften i nätverket.
REF utförde körtelsegmentering med hjälp av en modifierad CNN som återinförde den ursprungliga bilden vid flera punkter inom nätverket för att hjälpa till att minska informationsförlusten som orsakas av max poolning.
14,039,779
MILD-Net: Minimal Information Loss Dilated Network for Gland Instance Segmentation in Colon Histology Images
{'venue': 'Medical Image Analysis vol. 52, pp. 199-211, Feb. 2019', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Medicine', 'Mathematics']}
2,722
Abstrakt. OWL-S gör det möjligt att välja, komponera och åberopa Web Services på olika abstraktionsnivåer: urvalet använder abstrakta beskrivningar på hög nivå, anspelning använder låg nivå jordning, medan sammansättningen måste beakta både hög och låg nivå beskrivningar. I vår inställning, två Web Services ska komponeras så att utdata från uppströms används för att skapa indata för nedströms en. Dessa webbtjänster kan ha olika datamodeller men är relaterade till varandra genom beskrivningar på hög och låg nivå. Korrespondenser måste finnas mellan komponenter i datatypen uppströms och nedströmskomponenterna. Datatransformationsfunktioner på låg nivå kan krävas (t.ex. Enhetsomvandlingar, omvandlingar av datatyp. Komponenterna kan vara ordnade i olika XML-trädstrukturer. Således, flera data transformationer är nödvändiga: omforma meddelandet träd, matcha blad av motsvarande typer, översätta genom ontologier, och ringa konverteringsfunktioner. Vår prototyp sammanställer dessa omvandlingar till en uppsättning regler för datatransformering, med hjälp av vår tabellau-baserade ALC Beskrivning Logisk resonans över de givna OWL-S- och WSDL-beskrivningarna, samt tillhörande ontologier. En upplösningsbaserad slutledningsmekanism för att köra dessa regler är inbäddad i en inference kö som utför data från uppströms till nedströmstjänsten, kör reglerna för att utföra dataomvandlingen i processen.
I det ursprungliga arbetet i REF föreslås att reglerna för datatransformering ska användas för att omvandla data som utbyts mellan tjänster.
1,673,600
Inferring data transformation rules to integrate semantic web services
{'venue': 'In International Semantic Web Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,723
Detta papper presenterar inkrementell nätquantization (INQ), en ny metod, som syftar till att effektivt konvertera alla pre-tränade fullprecision konvolutional neurala nätverk (CNN) modell till en låg precision version vars vikter begränsas till att vara antingen krafter av två eller noll. Till skillnad från befintliga metoder som kämpar med märkbar noggrannhet förlust, vår INQ har potential att lösa denna fråga, som drar nytta av två innovationer. Å ena sidan inför vi tre inbördes beroende operationer, nämligen viktfördelning, gruppvis kvantisering och omskolning. Ett välbeprövat mått används för att dela upp vikterna i varje skikt i en förtränad CNN-modell i två separata grupper. Vikterna i den första gruppen är ansvariga för att bilda en låg precision bas, vilket de kvantifieras med en variabel-längd kodning metod. Vikterna i den andra gruppen är ansvariga för att kompensera för noggrannhetsförlusten från kvantiseringen, så de är de som ska omskolas. Å andra sidan, dessa tre operationer upprepas på den senaste omtränade gruppen på ett iterativt sätt tills alla vikter omvandlas till låg precision en, fungerar som en inkrementell nät kvantisering och noggrannhet förbättring förfarande. Omfattande experiment på ImageNet klassificering uppgift med hjälp av nästan alla kända djupa CNN arkitekturer inklusive AlexNet, VGG-16, GoogleNet och ResNets väl vittnar om effektiviteten av den föreslagna metoden. Specifikt, vid 5-bitars kvantisering (en variabel-längd kodning: 1 bit för att representera noll värde, och de återstående 4 bitar representerar högst 16 olika värden för befogenheter av två) 1, våra modeller har förbättrad noggrannhet än 32-bitars flytta-punktsreferenser. Med ResNet-18 som exempel visar vi vidare att våra kvantiserade modeller med 4-bitars, 3-bitars och 2-bitars ternära vikter har förbättrat eller mycket liknande noggrannhet mot sin 32-bitars flyttals baslinje. Dessutom rapporteras imponerande resultat med kombinationen av nätbeskärning och INQ. Vi tror att vår metod kastar nya insikter om hur man gör djupa CNN som ska tillämpas på mobila eller inbyggda enheter. Koden finns på https://github.com/Zhouaojun/IncrementalNetwork-Quantization.
Till exempel föreslår REF en inkrementell nätkvantisering (INQ) för att omvandla förtränade fullprecisionsmodeller till lågprecisionsmodeller genom att kvantifiera vikter till effekt av två eller noll värden.
12,130,431
Incremental Network Quantization: Towards Lossless CNNs with Low-Precision Weights
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
2,724
Abstract-I detta papper, vi tar itu med caching problemet i små cellnätverk från en spelteoretisk synvinkel. I synnerhet formulerar vi caching problemet som en många-tomany matchande spel mellan små basstationer och tjänsteleverantörers servrar. Servern lagrar en uppsättning videor och syftar till att cachetera dessa videor på de små basstationerna för att minska den upplevda fördröjningen av slutanvändarna. Å andra sidan, små basstationer cache videor enligt sin lokala popularitet, för att minska belastningen på backhaul länkar. Vi föreslår en ny matchande algoritm för det många-till-många problemet och visar att det når ett parvis stabilt resultat. Simuleringsresultat visar att antalet nöjda förfrågningar från de små basstationerna i den föreslagna cache algoritmen kan nå upp till tre gånger tillfredsställelsen av en slumpmässig cachepolicy. Dessutom kan den förväntade nedladdningstiden för alla videor minskas avsevärt.
Hamidouche m.fl. REF tar itu med problemet med videocachelagring i småcelliga nätverk.
8,455,224
Many-to-many matching games for proactive social-caching in wireless small cell networks
{'venue': '2014 12th International Symposium on Modeling and Optimization in Mobile, Ad Hoc, and Wireless Networks (WiOpt)', 'journal': '2014 12th International Symposium on Modeling and Optimization in Mobile, Ad Hoc, and Wireless Networks (WiOpt)', 'mag_field_of_study': ['Computer Science']}
2,725
Sociala nätverk är organiserade i samhällen med täta interna förbindelser, vilket ger upphov till höga värden på klusterkoefficienten. Dessutom har man observerat att dessa nät är olika, dvs. mycket uppkopplade hörn tenderar att ansluta till andra starkt uppkopplade hörn och har en bred gradfördelning. Vi presenterar en modell för ett oriktat växande nätverk som reproducerar dessa egenskaper, med målet att effektivt producera mycket stora nätverk som ska användas som plattformar för att studera sociodynamiska fenomen. Samhällena uppstår från en blandning av slumpmässiga fasthållanden och implicita preferensfästen. Modellens strukturella egenskaper studeras analytiskt och numeriskt med hjälp av k-clique-metoden för kvantifiering av samhällen. Var och en av dem ska uppfylla kraven i bilaga I till förordning (EU) nr 952/2013.
I en annan modell för växande nätverk föreslås av Toivonen et al. REF, samhällen uppstår från en blandning av slumpmässiga fastsättning och implicit preferens fastsättning.
13,919,003
A model for social networks
{'venue': None, 'journal': 'Physica A-statistical Mechanics and Its Applications', 'mag_field_of_study': ['Mathematics', 'Physics']}
2,726
Abstract-Vi illustrerar potentiella fördelar med att använda massiva antenner för trådlös energiöverföring (WET). Specifikt analyserar vi sannolikheten för avbrott i WET över blekningskanaler när en basstation (BS) med flera antenner strålar formar energi till en trådlös sensor nod (WSN). Våra analysresultat visar att med hjälp av massiva antennmatriser kan WET-området ökas för ett givet målavbrottsannolikhet. Vi bevisar att genom att använda flera antenner på BS, krävs en lägre nedlänk energi för att få samma avbrott prestanda, vilket resulterar i besparingar av utstrålad energi. Vi visar att för energinivåer som används i WET, är avbrottet prestanda med minst-kvadrater eller minsta medelvärde-kvadratfel kanal uppskattningar är samma som den erhållna baserat på perfekta kanaluppskattningar. Vi observerar att en stark linje-av-sikt-komponent mellan BS och WSN minskar sannolikheten för avbrott. Dessutom, genom att distribuera fler antenner vid BS, kan en större energi överföras på ett tillförlitligt sätt till WSN vid ett givet mål avbrott prestanda för sensorn för att kunna utföra sina huvudsakliga uppgifter. I våra numeriska exempel antas den RF-kraft som erhålls vid sensorns ingång vara i storleksordningen mW, så att rektenan verkar med en verkningsgrad i storleksordningen 50 %. Index Terms-Wireless energiöverföring, massiv MIMO, strålformning, avbrott sannolikhet, array vinna I. INLEDNING Trådlös energiöverföring (WET) är en lovande energi skörd teknik där destination noden skördar energi från elektromagnetisk strålning i stället för traditionella trådbundna energikällor [3]. Användningen av WET kan bidra till att öka batteritiden för energibelastade trådlösa sensornoder (WSN) som används för tillämpningar som intelligenta transporter, intrångsdetektering och övervakning av flygplanskonstruktioner [4]. Dessutom kan WET användas för att ladda låg effekt enheter såsom temperatur och fuktighetsmätare och flytande kristall displayer [5]. Även low-end beräkning, avkänning och kommunikation kan utföras genom att skörda energi från omgivande radiofrekvens (RF) signaler inklusive TV, cellulära nätverk och Wi-Fi-överföringar [6]. Det finns dock flera utmaningar som måste lösas för att genomföra WET. För det första kan endast en liten del av den energi som utstrålas av en energisändare skördas av WSN som allvarligt begränsar WET [4], [7]. För det andra är de mottagna effektnivåer som är lämpliga för trådlös informationsöverföring inte lämpliga för energiöverföring, där den absoluta mottagna effekten är av intresse och inte signal-till-brus-förhållandet (SNR).
Fördelarna med massiva MIMO matriser för WET undersöks i REF.
7,368,466
On the Feasibility of Wireless Energy Transfer Using Massive Antenna Arrays
{'venue': '2015 IEEE 16th International Workshop on Signal Processing Advances in Wireless Communications (SPAWC)', 'journal': '2015 IEEE 16th International Workshop on Signal Processing Advances in Wireless Communications (SPAWC)', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
2,727
Maximal avståndsskiljbara (MDS) koder är optimala felkorrigerande koder i den meningen att de ger maximal feltolerans för ett givet antal paritetsnoder. Antag att en MDS-kod med k information noder och r = n − k paritet noder används för att koda data i ett distribuerat lagringssystem. Det är känt att om h ut ur n noderna är otillgängliga och d överlevande (hjälpare) noder används för att återställa förlorade data, då måste vi ladda ner minst h/(d + h − k) fraktion av data som lagras i var och en av hjälpnoder (Dimakis et al., 2010 och. Om denna nedre gräns uppnås för reparation av h raderade noder från någon d hjälparnoder, säger vi att MDS-koden har (h, d)-optimal reparation egendom. Vi studerar högkvalitativa MDS-matriskoder med den optimala reparationsfastigheten (även känd som minimala lagringsregenererande koder, eller MSR-koder). Explicit konstruktioner av sådana koder i litteraturen är endast tillgängliga för de fall där det finns högst tre paritet noder, och dessa befintliga konstruktioner kan bara optimalt reparera en enda nod fel genom att komma åt alla överlevande noder. I detta papper, med tanke på alla r och n, presenterar vi två explicita konstruktioner av MDS array koder med (h, d)-optimal reparation egendom för alla h ≤ r och k ≤ d ≤ n − h samtidigt. ≥ sn, där s = lcm(1, 2,..., r). Kodning, avkodning, reparation av misslyckade noder, och uppdatering av dessa koder alla har låg komplexitet. Koder i den andra familjen har den optimala tillgångsegendomen och kan konstrueras över alla basfält F så länge som på F ≥ n + 1. Dessutom har båda kodfamiljer den optimala feltåligheten vid reparation av misslyckade noder. Vi konstruerar också flera andra närstående familjer av MDS-koder med den optimala reparationsfastigheten. Koder i den första familjen kan konstrueras över alla basfält F så länge som
Ye och Barg Ref presenterade en explicit MDS-kodkonstruktion som ger optimal reparation för alla e ≤ n − k och k ≤ d ≤ n − e samtidigt.
369,669
Explicit Constructions of High-Rate MDS Array Codes With Optimal Repair Bandwidth
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
2,728
Vi beskriver en uppsättning högpresterande system på SemEval 2015 English Semantic Textual Likhet (STS) uppgift. Med tanke på två engelska meningar, varje system ger graden av deras semantiska likhet. Vårt oövervakade system, som är baserat på ordanpassningar över de två indatameningarna, rankas 5:e bland 73 inskickade system körs med en genomsnittlig korrelation på 79,19% med mänskliga annoteringar. Vi lämnade också in två körningar av ett övervakat system som använder ordanpassningar och likheter mellan sammansättnings mening vektorer som dess egenskaper. Vår bästa övervakade körning rankad 1:a med en genomsnittlig korrelation på 80.15%.
Senare föreslår Ref ett oövervakat system baserat på ordanpassning.
7,450,224
DLS$@$CU: Sentence Similarity from Word Alignment and Semantic Vector Composition
{'venue': 'SemEval@NAACL-HLT', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,729
Abstrakt. Rankning och optimering av webbservicekompositioner är några av de mest intressanta utmaningarna för närvarande. Eftersom webbtjänster kan förbättras med formella semantiska beskrivningar, som bildar de "semantiska webbtjänsterna", blir det möjligt att utnyttja kvaliteten på semantiska länkar mellan tjänster (av vilken sammansättning som helst) som ett av optimeringskriterierna. För detta föreslår vi att använda semantiska likheter mellan utdata och inmatningsparametrar för webbtjänster. Genom att koppla ihop detta med andra kriterier som kvalitet på tjänsten (QoS) kan vi rangordna och optimera kompositioner som uppnår samma mål. Här föreslår vi en innovativ och extensibel optimeringsmodell utformad för att balansera semantisk passform (eller funktionell kvalitet) med icke-funktionella QoS-mått. För att möjliggöra användningen av denna modell i samband med ett stort antal tjänster enligt det strategiska EG-finansierade projektet SOA4Allt vi föreslår och testar användningen av Genetiska Algoritmer.
REF föreslog en utökad optimeringsmodell för Web Service Composition för att balansera semantiska likheter och kvaliteten på tjänsten QoS med hjälp av Genetiska Algoritmer.
16,889,592
Optimizing QoS-Aware Semantic Web Service Composition
{'venue': 'International Semantic Web Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,730
Abstract-Multicast är ett effektivt paradigm för överföring av data från en avsändare till en grupp mottagare. I detta dokument fokuserar vi på multicast i enkanaliga trådlösa lokala nätverk (LANs) bestående av flera små celler. I ett sådant system kan en mottagare inte korrekt ta emot ett paket om två eller flera paket skickas till det samtidigt, eftersom paketen "kolliderar". Därför måste man se till att endast en nod skickas åt gången. Vi tittar på två viktiga frågor. För det första anser vi att problemet med att sändaren förvärvar multi-access-kanalen för multisändning. För det andra, för tillförlitlig multicast i varje cell i det trådlösa LAN, undersöker vi ARQ-baserade metoder. Den andra frågan är viktig eftersom felfrekvensen för trådlösa länkar kan vara mycket hög. Vi presenterar en ny strategi för att övervinna problemet med feedback kollision i enkanals multi-access trådlösa LANs, både för att förvärva kanalen och för tillförlitlighet. Vår strategi omfattar valet av en av de multicast-gruppmedlemmar (mottagare) som "ledare" eller representant i syfte att skicka feedback till avsändaren. För tillförlitlig multisändning, vid felaktig mottagning av ett paket, skickar ledaren inte ett erkännande, vilket föranleder en vidaresändning. Vid felaktig mottagning av paketet hos andra mottagare än ledaren, tillåter vårt protokoll negativa erkännanden från dessa mottagare att kollidera med bekräftelsen från ledaren, vilket förstör bekräftelsen och uppmanar avsändaren att sända paketet på nytt. Med hjälp av analytiska modeller visar vi att det ledarbaserade protokollet uppvisar högre genomströmning jämfört med två andra protokoll som använder traditionella fördröjda återkopplingsbaserade probabilistiska metoder. Sist lägger vi fram en enkel plan för valet av ledare.
I LBP REF väljs en ledare bland mottagarna i multicast-gruppen.
1,084,741
Reliable multicast in multi-access wireless LANs
{'venue': "IEEE INFOCOM '99. Conference on Computer Communications. Proceedings. Eighteenth Annual Joint Conference of the IEEE Computer and Communications Societies. The Future is Now (Cat. No.99CH36320)", 'journal': "IEEE INFOCOM '99. Conference on Computer Communications. Proceedings. Eighteenth Annual Joint Conference of the IEEE Computer and Communications Societies. The Future is Now (Cat. No.99CH36320)", 'mag_field_of_study': ['Computer Science']}
2,731
W e överväga kurir leverans problem (CDP), en variant av fordon routing problem med tidsfönster (VRPTW) där kunderna verkar probabilistiskt och deras service tider är osäkra. Vi använder scenariobaserad stokastisk programmering med användning av modellera osäkerheten hos kunder och robust optimering för osäkerheten i servicetider. Vår föreslagna modell genererar en översiktsplan och dagliga scheman genom att maximera täckningen av kunder och likheten av rutter i varje scenario, samtidigt minimera den totala tid som används av kurirerna och den totala örat och försening straff. För att lösa storskaliga problemfall utvecklar vi en introduktionsbaserad lösning heuristisk, kallad master och daglig schemaläggare (MADS), och en tabu sökning förbättring förfarande. Beräkningsresultaten visar att vår heurist förbättrar likheten mellan rutter och sena straff på bekostnad av ökad total tid i jämförelse med en lösning på oberoende schemaläggning varje dag. Våra experimentella resultat visar också förbättringar jämfört med nuvarande branschpraxis på två verkliga datamängder.
REF beaktade en variant av SS-VRPTW-C, dvs. kurir leveransproblem med osäkerhet.
16,366,692
A Model and Algorithm for the Courier Delivery Problem with Uncertainty
{'venue': 'Transportation Science', 'journal': 'Transportation Science', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
2,732
Abstract-I samband med stora mångsidiga plattform för inbyggda realtidssystem på chip, kan en finkornigt omkonfigurerbar arkitektur användas som en möjlig beräkningsresurs. För att effektivt kunna hantera denna resurs behöver vi en specifik OS-kärna som kan hantera en sådan maskinvaruanpassningsbar arkitektur. Både mikroprocessorbaserat systems historia och vårt tidigare arbete baserat på för närvarande tillgängliga FPGA-enheter fick oss att tro att inte bara en OS-kärna måste definieras för att hantera en FGDRA 1 utan också en FGDRA måste utformas för att hantera denna OS-kärna. Den här artikeln återger vårt ursprungliga arbete i den här riktningen. OLLAF 2, en original FGDRA kärna som vi har utformat kommer att presenteras. En jämförelse med andra metoder som används idag med kommersiellt tillgänglig FPGA presenteras också för den särskilda preemptionstjänsten.
I REF presenterar författarna en dynamiskt anpassningsbar arkitektur som gör det möjligt att inkludera en OS-kärna för hanteringsuppgifter.
17,824,917
OLLAF : A dual plane reconfigurable architecture for OS support
{'venue': '2008 3rd International Design and Test Workshop', 'journal': '2008 3rd International Design and Test Workshop', 'mag_field_of_study': ['Computer Science']}
2,733
Liksom all programvara måste mobila applikationer ("appar") testas på lämpligt sätt för att man ska kunna lita på att de beter sig korrekt. Därför har både forskare och praktiker under de senaste åren börjat undersöka olika sätt att automatisera testning av appar. I synnerhet, på grund av Android öppna källkod natur och dess stora andel av marknaden, har en hel del forskning utförts på inmatningsgenerering tekniker för appar som körs på Android operativsystem. Vid denna tidpunkt, det finns i själva verket ett antal sådana tekniker i litteraturen, som skiljer sig i hur de genererar ingångar, den strategi de använder för att utforska beteendet hos den app som testas, och den specifika heuristik de använder. För att bättre förstå styrkor och svagheter i dessa befintliga strategier, och få allmän insikt om hur de kan göras mer effektiva, i detta dokument utför vi en grundlig jämförelse av de viktigaste befintliga test input generation verktyg för Android. I vår jämförelse utvärderar vi effektiviteten av dessa verktyg, och deras motsvarande tekniker, enligt fyra mått: enkel användning, förmåga att arbeta på flera plattformar, kod täckning, och förmåga att upptäcka fel. Våra resultat ger en tydlig bild av den senaste tekniken i indatagenerering för Android-appar och identifiera framtida forskning riktningar som, om lämpligt undersökt, kan leda till mer effektiva och effektiva testverktyg för Android. 1 Som diskuteras i avsnitt III, var vi tvungna att utesluta några verktyg från vår studie. 2015 30th IEEE/ACM International Conference on Automated Software Engineering 978-1-5090-0025-8/15 31,00
En nyligen genomförd studie av Choudhary m.fl. REF sammanfattar den senaste tekniken i automatiserad testgenerering för Android.
5,256,398
Automated Test Input Generation for Android: Are We There Yet? (E)
{'venue': '2015 30th IEEE/ACM International Conference on Automated Software Engineering (ASE)', 'journal': '2015 30th IEEE/ACM International Conference on Automated Software Engineering (ASE)', 'mag_field_of_study': ['Computer Science']}
2,734
En analys av olika tekniker för att känna igen och upptäcka objekt under extrema skalvariationer presenteras. Skalaspecifik och skala invariant design av detektorer jämförs genom att träna dem med olika konfigurationer av indata. Genom att utvärdera prestandan hos olika nätverksarkitekturer för klassificering av små objekt på ImageNet visar vi att CNN inte är robusta mot förändringar i skala. Baserat på denna analys, föreslår vi att träna och testa detektorer på samma skalor av en bildpyramid. Eftersom små och stora föremål är svåra att känna igen på mindre respektive större skalor, presenterar vi ett nytt träningsprogram som kallas Scale Normalization for Image Pyramids (SNIP) som selektivt bakåt-propagerar lutningarna av objekt fall av olika storlekar som en funktion av bildskalan. På COCO datasetet är vår enda modell prestanda 45,7% och en ensemble av 3 nätverk får en mAP på 48,3%. Vi använder Off-the-shelf ImageNet-1000 förtränade modeller och endast tåg med gränsande låda övervakning. Vår inlämning vann den bästa studentingången i COCO 2017 utmaningen. Kod kommer att göras tillgänglig på
För att upptäcka små objekt, Scale Normalization for Image Pyramids (SNIP) REF selektivt bakåt-propagate lutningen av objekt i olika skalor som en funktion av bildskalan.
4,615,054
An Analysis of Scale Invariance in Object Detection - SNIP
{'venue': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'journal': '2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']}
2,735
Vi lägger fram ett automatiskt tillvägagångssätt för att avgöra om ett pronomen i texten hänvisar till en föregående substantivfras eller i stället är icke-referentiell. Vi extraherar det omgivande textsammanhanget av pronomenet och samlar, från en stor corpus, fördelningen av ord som förekommer i det sammanhanget. Vi lär oss att på ett tillförlitligt sätt klassificera dessa distributioner som antingen referentiella eller icke-referentiella pronomen. Trots sin enkelhet visar experimentella resultat på klassificeringen av det engelska pronomenet att systemet uppnår den högsta prestanda som hittills uppnåtts på denna viktiga uppgift.
REF använde n-grammodeller för att identifiera den som antingen referens eller icke-referens.
9,658,331
Distributional Identification of Non-Referential Pronouns
{'venue': 'Annual Meeting Of The Association For Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,736
Abstract-A två-hop kvarter informationsbaserade routing protokoll föreslås för realtid trådlösa sensornätverk. Tillvägagångssättet för att kartlägga pakettidpunkten till en hastighet antas som det i SPEED; dock vårt routing beslut fattas baserat på den nya två-hop hastighet integrerad med energibalanseringsmekanismen. Initiative drop control är inbäddad för att öka energieffektiviteten, samtidigt som paket deadline miss-förhållandet minskas. Simulering och jämförelse visar att det nya protokollet har lett till lägre paket deadline miss ratio och högre energieffektivitet än två befintliga populära system. Resultatet har också indikerat en lovande riktning för att stödja realtidskvalitet för trådlösa sensornätverk. Index Terms-Deadline miss ratio, energieffektivitet, quality-of-service (QoS), realtid, två-hop information, trådlösa sensornätverk (WSN).
Li et al., Ref har föreslagit ett två-Hop Velocity-baserat Routing Protocol (THVR).
12,225,886
Enhancing Real-Time Delivery in Wireless Sensor Networks With Two-Hop Information
{'venue': 'IEEE Transactions on Industrial Informatics', 'journal': 'IEEE Transactions on Industrial Informatics', 'mag_field_of_study': ['Computer Science']}
2,737
Abstract Ranking hypotesuppsättningar är ett kraftfullt koncept för effektiv objektdetektering. I detta arbete föreslår vi ett bransch- och ranksystem som upptäcker objekt med ofta mindre än 100 rankningar. Denna effektivitet gör det möjligt att använda starka och även kostsamma klassificeringar som icke-linjära SVM med RBF-χ 2-kärnor. På så sätt avlastar vi en inneboende begränsning av metoderna för filialverksamhet, eftersom gränserna ofta inte är tillräckligt snäva för att vara effektiva i praktiken. Vår strategi har tre nyckelkomponenter: en rankningsfunktion som fungerar på uppsättningar hypoteser och en gruppering av dessa i olika uppgifter. Detection effektivitet resultat från adaptivt subdividera objektet sökutrymme i minskande mindre uppsättningar. Denna ärvs från filialen och är bunden, medan rankningsfunktionen ersätter en snäv gräns som ofta inte är tillgänglig (utom för ganska begränsade funktionsklasser). Grupperingen gör systemet effektivt: den skiljer bildklassificeringen från objektigenkänningen, men kombinerar dem med en enda formulering, formulerad som ett strukturerat SVM-problem. En ny aspekt av filial och rank är att en bättre rankningsfunktion förväntas minska antalet rangordnade samtal under upptäckten. Vi använder datasetet VOC'07 för att visa filialens och ranks algoritmiska egenskaper.
Gren&rank generaliserar idén om filial och band genom att lära sig en rankningsfunktion som prioriterar hypotesuppsättningar som innehåller ett objekt över de som inte REF.
16,640,330
Branch&Rank for Efficient Object Detection
{'venue': 'International Journal of Computer Vision', 'journal': 'International Journal of Computer Vision', 'mag_field_of_study': ['Computer Science']}
2,738
Automatisk uppskattning av framträdande objekt utan någon förkunskaper tenderar att avsevärt förbättra många datorseende uppgifter. I detta dokument föreslås en ny nedifrån-och-upp-baserad ram för framträdande objektdetektion genom att först modellera bakgrunden och sedan separera framträdande objekt från bakgrunden. Vi modellerar bakgrundsdistributionen baserad på funktionsklustringsalgoritm, vilket gör det möjligt att fullt ut utnyttja statistisk och strukturell information om bakgrunden. Sedan genereras en grov saltkarta enligt bakgrundsfördelningen. För att vara mer diskriminerande förstärks den grova saltkartan genom en tvåstegsförfining som består av kantbevarande elementfiltrering och uppsampling baserat på geodesiskt avstånd. Vi ger en omfattande utvärdering och visar att vår föreslagna metod fungerar gynnsamt mot andra enastående metoder på två vanligast använda dataset. Viktigast av allt är att det föreslagna tillvägagångssättet har visat sig vara mer effektivt när det gäller att lyfta fram det framträdande föremålet på ett enhetligt och robust sätt mot bakgrundsbuller.
Huang m.fl. REF lade fram en nedifrån-och-upp-baserad ram för detektering av viktiga föremål utan förkunskaper.
26,458,169
Salient Object Detection Based on Background Feature Clustering
{'venue': 'Adv. Multim.', 'journal': 'Adv. Multim.', 'mag_field_of_study': ['Computer Science']}
2,739
I detta dokument undersöks överenskommelsen om relevansbedömningar mellan officiella TREC-domar och dem som härrör från ett interaktivt IR-experiment. Resultaten visar att 63% av de dokument som bedöms relevanta av våra användare matchade officiella TREC-domar. Flera faktorer bidrog till skillnaderna i avtalen: antalet inhämtade relevanta dokument, antalet relevanta dokument som bedömts, systemets effektivitet per ämne och rangordningen av relevanta dokument.
REF hittade till och med 65 % avtal med de officiella TREC-domarna i ett interaktivt IR-experiment.
9,838,356
Relevance judgments between TREC and Non-TREC assessors
{'venue': "SIGIR '08", 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,740
Abstract-Energi skörd är en lovande lösning för att förlänga driftstiden för energi-konstruerade trådlösa nätverk. I synnerhet har man på senare tid dragit stor uppmärksamhet till sig energi från omgivande radiosignaler, nämligen trådlös energiskörd (WEH). I detta dokument, Vi anser en punkt-till-punkt trådlös länk över platt-fading kanal, där mottagaren har ingen fast strömförsörjning och därmed behöver fylla på energi via WEH från de signaler som skickas av sändaren. Vi betraktar först ett SISO-system (single-input single-output) där singelantennmottagaren inte kan avkoda information och skörda energi oberoende av samma signal. Under denna praktiska begränsning föreslår vi en dynamisk effektdelning (DPS), där den mottagna signalen delas upp i två strömmar med justerbara effektnivåer för informationsavkodning och energiupptagning separat baserat på det momentana kanaltillståndet som antas vara känt vid mottagaren. Vi härleder den optimala maktdelningsregeln vid mottagaren för att uppnå olika avvägningar mellan maximal ergodisk kapacitet för informationsöverföring och maximal genomsnittlig skördad energi för kraftöverföring, som kännetecknas av gränsen för en så kallad "hastighetsenergi" region. Dessutom, för fallet när kanaltillståndsinformationen också är känd på sändaren, undersöker vi den gemensamma optimeringen av sändare effektstyrning och mottagare strömdelning. Det föreslagna DPS-systemet jämförs med det befintliga tidsbytessystemet (R-E-regionen) och en övre gräns för prestanda genom att man bortser från den praktiska mottagarens begränsningar. Slutligen utökar vi resultatet för DPS till SIMO-systemet (single-input multiple-output) där mottagaren är utrustad med flera antenner. I synnerhet undersöker vi ett system med maktdelning med låg komplexitet, nämligen antennbyte, som i praktiken kan genomföras för att uppnå kompromisser med nära optimal hastighet och energi jämfört med det optimala DPS.
Överföringseffekten är uppdelad i två effektströmmar med en förinställd effektdelningsfaktor ρ REF.
7,151,441
Wireless Information and Power Transfer: A Dynamic Power Splitting Approach
{'venue': 'IEEE Transactions on Communications', 'journal': 'IEEE Transactions on Communications', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
2,741
En stor mängd information finns i recensioner skrivna av användare. Denna informationskälla har ignorerats av de flesta av de nuvarande rekommendationssystemen, samtidigt som den potentiellt kan lindra gleshetsproblemet och förbättra kvaliteten på rekommendationerna. I denna uppsats presenterar vi en djup modell för att lära objektegenskaper och användarbeteenden gemensamt från granskningstext. Den föreslagna modellen, kallad Deep Cooperative Neural Networks (DeepCoNN), består av två parallella neurala nätverk kopplade i de sista skikten. Ett av nätverken fokuserar på att lära användare beteenden utnyttja recensioner skrivna av användaren, och den andra lär objekt egenskaper från recensioner skrivna för objektet. Ett delat lager introduceras på toppen för att koppla ihop dessa två nätverk. Det delade skiktet möjliggör latenta faktorer inlärda för användare och objekt att interagera med varandra på ett sätt som liknar factorization maskinteknik. Experimentella resultat visar att DeepCoNN avsevärt överträffar alla referensrecommender-system på en mängd olika datauppsättningar.
Zheng m.fl. REF använde två parallella CNN för att modellera användare och objektfunktioner från granskningstexter.
5,180,076
Joint Deep Modeling of Users and Items Using Reviews for Recommendation
{'venue': "WSDM '17", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
2,742
Den mobila tjänsten är en allmänt använd operatör för mobila applikationer. I och med att antalet mobila tjänster ökar, när det gäller rekommendationer och urval av tjänster, blir de icke-funktionella egenskaperna (även kallade tjänsternas kvalitet, QoS) allt viktigare. I många fall är dock antalet mobila tjänster som en användare åberopar ganska begränsat, vilket leder till det stora antalet saknade QoS-värden. Under de senaste åren har många förutsägelsealgoritmer, såsom algoritmer som utvidgats från samarbetsfiltrering (CF), föreslagits för att förutsäga QoS-värden. Men idéerna om de flesta befintliga algoritmer lånas från recommender system community, inte specifikt för mobila tjänster. I detta dokument föreslår vi först en datafiltreringsutökad SlopeOne-modell (filtreringsbaserad CF), som bygger på egenskaperna hos en mobil tjänst och beaktar förhållandet till platsen. Med hjälp av datafiltreringstekniken i FB-CF och matrisfaktorisering (MF) föreslår detta papper en annan modell FB-MF (filtreringsbaserad MF). Vi bygger också en ensemblemodell som kombinerar prognosresultaten från FB-CF-modellen och FB-MF-modellen. Vi utför tillräckliga experiment, och de experimentella resultaten visar att våra modeller överträffar alla jämförda metoder och uppnår goda resultat i hög data sparty scenario.
Yin m.fl. REF föreslår en samarbetsbaserad QoS-prediktionsmetod för mobila tjänster genom att kombinera datafiltrering och SlopeOne-modellen.
41,139,207
Collaborative QoS Prediction for Mobile Service with Data Filtering and SlopeOne Model
{'venue': 'Mobile Information Systems', 'journal': 'Mobile Information Systems', 'mag_field_of_study': ['Computer Science']}
2,743
Vi designar, implementerar och utvärderar en teknik för att identifiera källkodsnätets gränssnittskort (NIC) för en IEEE 802.11 ram genom passiv radiofrekvensanalys. Denna teknik, kallad PARADIS, utnyttjar minimala brister i sändare hårdvara som förvärvas vid tillverkning och finns även i annars identiska NIC. Dessa brister är sändare-specifika och manifesterar sig som artefakter av de utsända signalerna. I PARADIS mäter vi olika artefakter av enskilda trådlösa ramar inom moduleringsdomänen, tillämpar lämpliga verktyg för maskininlärning för att uppnå betydligt högre grad av NIC-identifieringsnoggrannhet än tidigare mest kända system. Vi demonstrerar experimentellt PARADIS effektivitet genom att differentiera mellan mer än 130 identiska 802.11 NIC med noggrannhet som överstiger 99 %. Våra resultat visar också att noggrannheten hos PARADIS är motståndskraftig mot omgivningsbuller och fluktuationer i den trådlösa kanalen. Även om vårt genomförande uteslutande handlar om IEEE 802.11, är själva metoden allmän och kommer att fungera med alla system för digital modulering. - Vad är det för fel på dig?
Brik m.fl. REF utformar och implementerar en teknik för att identifiera den trådlösa 802.11 enheten genom passiv radiofrekvensanalys, som utnyttjar hårdvarubristerna hos nätverksgränssnittskort.
8,960,221
Wireless device identification with radiometric signatures
{'venue': "MobiCom '08", 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,744
Förståelse av procedurtexten, t.ex. ett stycke som beskriver fotosyntesen, kräver modelleringsåtgärder och de statliga förändringar de ger upphov till, så att frågor om enheter vid olika tidpunkter kan besvaras. Även om flera nya system har visat imponerande framsteg i denna uppgift, deras förutsägelser kan vara globalt inkonsekvent eller mycket osannolikt. I detta dokument visar vi hur de förväntade effekterna av åtgärder i samband med ett stycke kan förbättras på två sätt: 1) genom att införliva globala, allmängiltiga begränsningar (t.ex. en icke-existerande enhet kan inte förstöras), och 2) genom att partisk läsning med preferenser från storskaliga korpora (t.ex. träd sällan flyttar). Till skillnad från tidigare metoder behandlar vi problemet som en neural strukturerad förutsägelse uppgift, vilket tillåter hårda och mjuka begränsningar för att styra modellen bort från osannolika förutsägelser. Vi visar att den nya modellen avsevärt överträffar tidigare system på ett referensdataset för procedurmässig textförståelse (+8% relativ vinst), och att den också undviker några av de meningslösa förutsägelser som tidigare system gör.
REF föreslog att man skulle använda allmängiltig kunskap som hårda/mjuka begränsningar för att förvränga neuralmodellens förutsägelse om en processuell textförståelseuppgift.
52,136,770
Reasoning about Actions and State Changes by Injecting Commonsense Knowledge
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']}
2,745
Abstrakt. I semi-streaming modellen, en algoritm får en ström av kanter av en graf i godtycklig ordning och använder ett minne av storlek O(n polylog n), där n är antalet hörn av en graf. I detta arbete presenterar vi semi-streaming algoritmer som utför en eller två passerar över ingångsströmmen för maximal matchning utan begränsningar på inmatningskurvan, och för viktiga specialfall av bipartit grafer som vi kallar Maximum Bipartite Matching. Den Greedy matchande algoritmen utför ett pass över ingång och utgångar en 1/2 approximation. Huruvida det finns en bättre one-pass algoritm har varit en öppen fråga sedan utseendet av den första tidningen om streaming algoritmer för matchande problem 2005 [Feigenbaum et al., SODA 2005]. Vi gör följande framsteg i detta problem: I en-pass-inställningen visar vi att det finns en deterministisk semi-streaming algoritm för maximal Bipartit Matchning med förväntad approximationsfaktor 1/2 + 0,005, förutsatt att kanterna anländer en efter en i (uniform) slumpmässig ordning. Vi utökar denna algoritm till allmänna grafer, och vi får en 1/2 + 0,003 approximation för maximal matchning. I två-pass-inställningen, behöver vi inte den slumpmässiga ankomstordning antagande (kanten ström är i godtycklig ordning). Vi presenterar en enkel randomiserad tvåpass semistreaming algoritm för maximal Bipartite Matching med förväntad approximation faktor 1/2 + 0,019. Dessutom diskuterar vi en mer involverad deterministisk semi-pass semi-streaming algoritm för maximal Bipartite Matchning med approximation faktor 1/2 + 0,019 och en generalisering av denna algoritm till allmänna grafer med approximation faktor 1/2 + 0,0071.
Dock är en bättre algoritm känd under antagandet av slumpmässiga kanter ankomster av REF, som uppnår en 1/2+ approximation för en konstant > 0.
6,195,590
Maximum Matching in Semi-Streaming with Few Passes
{'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']}
2,746
En av fördelarna med språkidentifiering som är särskilt relevant för code-switching (CS) forskning är att det möjliggör insikt i hur språken blandas (dvs. graden av integration av språken). Syftet med detta dokument är att kvantifiera och visualisera arten av integrationen av språk i CS-dokument med hjälp av enkla språkoberoende mått som kan antas av lingvister. I vårt bidrag gör vi (a) ett språkligt argument för att klassificera CS-typer efter hur språken är integrerade; (b) beskriva vårt språkidentifieringssystem; (c) införa ett Integration-index (I-index) härlett från HMM övergångssannolikheter; (d) använda metoder för att visualisera integration via en språksignatur (eller byta profil); och (e) illustrera nyttan av våra enkla mått för lingvister som tillämpas på spansk-engelska texter av olika byte profiler.
Guzmán m.fl. REF har liknande mål, med fokus på att producera metoder för att visualisera språkintegration via en språksignatur eller profil.
11,416,374
Simple Tools for Exploring Variation in Code-switching for Linguists.
{'venue': 'CodeSwitch@EMNLP', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,747
Maximal avståndsskiljbara (MDS) koder är optimala felkorrigerande koder i den meningen att de ger maximal feltolerans för ett givet antal paritetsnoder. Antag att en MDS-kod med k information noder och r = n − k paritet noder används för att koda data i ett distribuerat lagringssystem. Det är känt att om h ut ur n noderna är otillgängliga och d överlevande (hjälpare) noder används för att återställa förlorade data, då måste vi ladda ner minst h/(d + h − k) fraktion av data som lagras i var och en av hjälpnoder (Dimakis et al., 2010 och. Om denna nedre gräns uppnås för reparation av h raderade noder från någon d hjälparnoder, säger vi att MDS-koden har (h, d)-optimal reparation egendom. Vi studerar högkvalitativa MDS-matriskoder med den optimala reparationsfastigheten (även känd som minimala lagringsregenererande koder, eller MSR-koder). Explicit konstruktioner av sådana koder i litteraturen är endast tillgängliga för de fall där det finns högst tre paritet noder, och dessa befintliga konstruktioner kan bara optimalt reparera en enda nod fel genom att komma åt alla överlevande noder. I detta papper, med tanke på alla r och n, presenterar vi två explicita konstruktioner av MDS array koder med (h, d)-optimal reparation egendom för alla h ≤ r och k ≤ d ≤ n − h samtidigt. ≥ sn, där s = lcm(1, 2,..., r). Kodning, avkodning, reparation av misslyckade noder, och uppdatering av dessa koder alla har låg komplexitet. Koder i den andra familjen har den optimala tillgångsegendomen och kan konstrueras över alla basfält F så länge som på F ≥ n + 1. Dessutom har båda kodfamiljer den optimala feltåligheten vid reparation av misslyckade noder. Vi konstruerar också flera andra närstående familjer av MDS-koder med den optimala reparationsfastigheten. Koder i den första familjen kan konstrueras över alla basfält F så länge som
De första explicita konstruktioner för exakt reparation MSR-koder med bandbredd adaptivity och ändlig subpacketization nivå infördes i REF.
369,669
Explicit Constructions of High-Rate MDS Array Codes With Optimal Repair Bandwidth
{'venue': 'IEEE Transactions on Information Theory', 'journal': 'IEEE Transactions on Information Theory', 'mag_field_of_study': ['Computer Science', 'Mathematics']}
2,748
Vi anser att problemet med att montera en n x n avståndsmatris D av ett träd metrisk T. Låt E vara avståndet till närmaste träd metrisk under L, norm, det vill säga E = minT{II T7D \loo). F' t irs vi P ogillar en O(n2) algoritm för att hitta en additiv träd T sådan att ]I T, D ljoo 5 3~. För det andra visar vi att det är NP-hard att hitta ett träd T sådan att I] T, D IId0 < ZE. I detta dokument presenteras den första algoritmen för detta problem med en prestandagaranti. En av de vanligaste metoderna för att samla in numeriska data är att anpassa data till ett träd mettic, som definieras av ett vägt träd som spänner över metriska punkter, avståndet mellan två punkter är summan av vikterna av kanterna på vägen mellan dem. Det är inte förvånande att detta problem, det så kallade Numedical Taxonomi problem, har fått en hel del uppmärksamhet (se [2] och [7] för omfattande undersökningar) med arbete daterar så långt tillbaka som i början av århundradet [l].
I REF, ges en pairwise avstånd matris D över p noder ungefärlig genom ett träd metrisk med den inducerade avståndet matris T.
15,560,373
On the approximability of numerical taxonomy (fitting distances by tree metrics)
{'venue': "SODA '96", 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']}
2,749
Abstract-Wireless sensor nätverk (WSNs) ger betydande fördelar jämfört med traditionell kommunikation i dagens tillämpningar, såsom miljöövervakning, säkerhet i hemlandet, och sjukvård. Hårda och komplexa miljöer utgör dock stora utmaningar när det gäller WSN-kommunikationens tillförlitlighet. För att uppnå tillförlitlig trådlös kommunikation inom WSN är det viktigt att ha ett tillförlitligt routingprotokoll och att ha ett sätt att utvärdera tillförlitligheten hos olika routingprotokoll. I detta papper modellerar vi först tillförlitligheten hos två olika typer av sensornoder: 1) energiskördande sensornoder och 2) batteridrivna sensornoder. Vi presenterar sedan trådlösa länksäkerhetsmodeller för varje typ av sensornoder, där effekter av olika parametrar, såsom batteritid, skuggning, buller och platsosäkerhet, beaktas för att analysera den trådlösa länkens tillförlitlighet. Baserat på sensornoden och modellerna för trådlös länksäkerhet jämför vi prestandan hos olika routingalgoritmer när det gäller end-to-end-banas tillförlitlighet och antal humle. Därefter föreslås en dynamisk dirigeringsmetod för att uppnå den mest tillförlitliga end-to-end-banan i WSN. För att underlätta en rättvis och heltäckande jämförelse mellan olika routingalgoritmer föreslås dessutom en kostnadsfunktionsmetod som integrerar end-to-end-banans tillförlitlighet och antal humle, vilket ger en indikator på kvaliteten på tjänsterna för tillämpningar som körs på WSN. Index Terms-Wireless sensor nätverk, batteridriven sensor nod, energi skörd sensor nod, länkfel modell, routing algoritm, kommunikation tillförlitlighet.
I REF analyserar författarna mätvärden, såsom end-to-end väg tillförlitlighet och antalet humle.
43,236,561
Reliability-Oriented Single-Path Routing Protocols in Wireless Sensor Networks
{'venue': 'IEEE Sensors Journal', 'journal': 'IEEE Sensors Journal', 'mag_field_of_study': ['Engineering']}
2,750
Abstract-We present the Networked InfoMechanical System for Planar Translation, som är en ny kabeldriven robot med två graders frihet (2-DOF) med självkalibrering och driftkorrigering online. Detta system är avsett för aktiverade sensortillämpningar i vattenmiljöer. Den aktiverings redundans som är ett resultat av översättning i planet som drivs av fyra kablar resulterar i en oändlig uppsättning spänningsfördelningar, vilket kräver beräkning i realtid av optimal spänningsfördelning. I detta syfte har vi genomfört en mycket effektiv, iterativ linjär programmeringslösning, som kräver ett mycket litet antal iterationer för att konvergera till det optimala värdet. Dessutom har två nya självkalibreringsmetoder utvecklats som utnyttjar robotens aktiverings redundans. Den första använder en inkrementell deplacement, eller jittermetod, medan den andra använder variationer i kabelspänningar för att bestämma end-effector placering. Vi föreslår också en ny minimalalgoritm för driftdetektering, som gör det möjligt för roboten att upptäcka långsiktig drift. I kombination med självkalibreringsmöjligheter möjliggör denna driftövervakningsalgoritm långsiktig autonom drift. För att verifiera våra algoritmers prestanda har vi utfört omfattande experiment i simulering och på ett verkligt system.
En kabeldriven robot med självkalibrering för vattenanalysapplikationer föreslås i REF.
16,028,458
NIMS-PL: A Cable-Driven Robot With Self-Calibration Capabilities
{'venue': 'IEEE Transactions on Robotics', 'journal': 'IEEE Transactions on Robotics', 'mag_field_of_study': ['Computer Science']}
2,751
Automatiskt lexiskt förvärv har varit ett aktivt forskningsområde inom beräkningslingvistik i över två decennier, men den automatiska identifieringen av nya ordsenser har uppmärksammats först mycket nyligen. Tidigare arbete på detta område har begränsats av tillgången till lämpliga utvärderingsresurser. I detta dokument presenterar vi den största corpus-baserade datauppsättningen av diakroniska meningsskillnader hittills, vilket vi tror kommer att uppmuntra till ytterligare arbete på detta område. Vi beskriver sedan flera tillägg till en toppmodern ämnesmodelleringsmetod för att identifiera nya ordsenser. Denna anpassade metod visar överlägsen prestanda på vår datauppsättning av två olika corpus par jämfört med den ursprungliga metoden för båda: a) typer som har fått ett nytt sinne över tiden; och b) de symboliska instanserna av sådana nya sinnen. Ordens betydelse förändras med tiden, och i synnerhet etablerade ord får nya sinnen. Till exempel, användningar av droppe, vägg, och spränga upp i följande meningar motsvarar relativt nya sinnen av dessa ord som verkar vara ganska vanligt i text relaterad till populärkultur, men är inte listade i många ordböcker; till exempel, de alla saknas från WordNet 3.0 (Fellbaum, 1998). Beräkningslexikon är en viktig komponent i system för en mängd olika uppgifter i naturligt språkbehandling (NLP). Framgången för sådana system beror därför på kvaliteten på de lexikon de använder, och (semi-)automatiska tekniker för att identifiera nya ord-senser kan gynna tillämpad NLP genom att hjälpa till att hålla lexikon uppdaterade. Vid revidering av ordböcker måste lexikografer identifiera nya ord-senser, förutom nya ord själva; metoder som identifierar nya ord-senser kan därför också bidra till att hålla ordböcker aktuella. I detta dokument, på grund av behovet av lexikon underhåll, fokuserar vi på relativt nya ord-senser. Specifikt anser vi identifieringen av ordsenser som inte intygas i en referenskorpus, som anses representera standardanvändning, men som intygas i en fokus corpus av nyare texter. Lau m.fl. (2012) införde uppgiften att identifiera nya sinnen. De presenterade en metod för att identifiera nya ord-senser - som beskrivs här i Avsnitt 4 - och utvärderade denna metod på en mycket liten datauppsättning bestående av bara fem lemmas med en ny innebörd i en enda corpus par.
Cook m.fl. har gjort ansträngningar. REF att förbereda den största corpus-baserade datauppsättningen av diakroniska senseskillnader.
5,942,812
Novel Word-sense Identification
{'venue': 'COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,752
Att hitta alla förekomster av ett kvistmönster som anges av ett urval bygger på flera element i ett XML-dokument är en kärnoperation för effektiv utvärdering av XML-frågor. Holistiska kvist gå algoritmer föreslogs nyligen som en optimal lösning när kvist mönstret endast involverar förfaderdecendent relationer. I detta dokument tar vi upp problemet med effektiv behandling av holistiska kvistar i alla/delvis indexerade XML-dokument. I synnerhet föreslår vi en algoritm som använder tillgängliga index på elementuppsättningar. Även om det kan visas analytiskt att den föreslagna algoritmen är lika effektiv som den befintliga state-of-the-art algoritmer i termer av värsta fall I/O och CPU kostnad, experimentella resultat på olika datauppsättningar indikerar att den föreslagna indexbaserade algoritmen presterar betydligt bättre än de befintliga, särskilt när binära strukturella går med i kvist mönstret har varierande gå valbarheter.
Referens Ref är det enda andra papper som verkligen tar upp problemet med att välja vilket index markör att flytta nästa i en holistisk kvist gå.
11,411,776
Holistic Twig Joins on Indexed XML Documents
{'venue': 'VLDB', 'journal': None, 'mag_field_of_study': ['Computer Science']}
2,753