src
stringlengths 100
134k
| tgt
stringlengths 10
2.25k
| paper_id
int64 141
216M
| title
stringlengths 9
254
| discipline
stringlengths 67
582
| __index_level_0__
int64 0
83.3k
|
---|---|---|---|---|---|
De senaste framstegen inom MEMS, inbyggda system och trådlös kommunikationsteknik gör förverkligandet och spridningen av nätverksanslutna trådlösa mikrosensorer till en konkret uppgift. För att trådlösa mikrosensornätverk ska lyckas är mikrosensorernas förmåga att "kollektivt utföra avkänning och beräkning". I den här artikeln studerar vi en av de grundläggande utmaningarna i sensornätverk, node localization. Den samverkande multilateration som presenteras här, gör det möjligt ad-hoc utplacerade sensorn noder att korrekt uppskatta sina platser genom att använda kända beacon platser som är flera hops bort och avståndsmätningar till angränsande noder. För att förhindra felackumulering i nätverket beräknas nodplatser genom att sätta upp och lösa ett globalt icke-linjärt optimeringsproblem. Lösningen presenteras i två beräkningsmodeller, centraliserad och helt distribuerad approximation av den centraliserade modellen. Våra simuleringsresultat visar att med hjälp av den helt distribuerade modellen kan resursbegränsade sensornoder kollektivt lösa ett stort icke-linjärt optimeringsproblem som ingen av noderna kan lösa individuellt. Detta tillvägagångssätt resulterar i betydande besparingar i beräkning och kommunikation, som gör det möjligt finkornig lokalisering att köra på en låg kostnad sensor nod vi har utvecklat. | REF presenterar den samverkande multilaterationen för att möjliggöra ad-hoc-utplacerade sensornoder att korrekt uppskatta sina platser genom att använda kända beacon platser som är flera hops away och avståndsmätningar till angränsande noder. | 1,796,185 | The bits and flops of the n-hop multilateration primitive for node localization problems | {'venue': "WSNA '02", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,206 |
Sammanfattning av denna webbsida: OpenStreetMap (OSM) är ett nytt område inom beräkningsvetenskap. Det finns flera outforskade frågor i kvalitetsbedömningen av OSM. För det första använder forskarna olika etablerade bedömningsmetoder genom att jämföra OSM med auktoritativa dataset. Dessa metoder är dock olämpliga för att bedöma OSM-datakvaliteten om auktoritativa data inte är tillgängliga. I ett sådant scenario kan de inneboende kvalitetsindikatorerna användas för att bedöma kvaliteten. För det andra finns det ingen ram för bedömning av uppgifter som är specifik för olika geografiska informationssystem (GIS-områden). I den aktuella studien presenteras en förlängning av verktygslådan Quantum GIS (QGIS) genom att använda befintliga funktioner och skriva nya skript för att hantera rumsliga data. Detta skulle göra det möjligt för forskare att bedöma rumsliga datas fullständighet med hjälp av inbyggda indikatorer. I studien föreslogs också ett heuristiskt tillvägagångssätt för att testa OSM-datas farbarhet på väg. De utvecklade modellerna tillämpas på OSM-data från Punjab (Indien). Resultaten tyder på att OSM-projektet i Punjab (Indien) går framåt i en långsam fred, och bidragslämnarnas motivation krävs för att förbättra uppgifternas lämplighet. Slutsatsen är att de skript som utvecklats för att ge en intuitiv metod för att bedöma OSM-data baserat på kvalitetsindikatorer lätt kan användas för att utvärdera lämpligheten av att använda data i alla regioner. | En annan uppsättning inbyggda kvalitetsindikatorer görs tillgängliga av Sehra et al. REF som har genomfört en utökning av en verktygslåda för QGIS-behandling för att bedöma OSM-datas fullständighet och farbarhet på väg. | 9,974,195 | Assessing OpenStreetMap Data Using Intrinsic Quality Indicators: An Extension to the QGIS Processing Toolbox | {'venue': 'Future Internet', 'journal': 'Future Internet', 'mag_field_of_study': ['Computer Science']} | 81,207 |
Kontinuerliga ord representationer, utbildade på stora omärkta corpora är användbara för många naturliga språk bearbetning uppgifter. Populär modeller som lär sig sådana representationer ignorerar morfologin av ord, genom att tilldela en distinkt vektor till varje ord. Detta är en begränsning, särskilt för språk med stora ordförråd och många sällsynta ord. I det här dokumentet föreslår vi ett nytt tillvägagångssätt baserat på hoppa övergrammodellen, där varje ord representeras som en påse med karaktär n-gram. En vektor representation är associerad till varje tecken n-gram; ord som representeras som summan av dessa representationer. Vår metod är snabb, tillåter att träna modeller på stora corpora snabbt och tillåter oss att beräkna ord representationer för ord som inte fanns i träningsdata. Vi utvärderar våra ordrepresentationer på nio olika språk, både om ordlikviditet och analoga uppgifter. Genom att jämföra med nyligen föreslagna morfologiska ordrepresentationer visar vi att våra vektorer uppnår toppmoderna resultat på dessa uppgifter. | REF förlängde hoppa-gram modell genom att tilldela inbäddning vektorer till varje tecken n-gram och representerade varje ord som summan av sina n-gram. | 207,556,454 | Enriching Word Vectors with Subword Information | {'venue': 'Transactions of the Association for Computational Linguistics', 'journal': 'Transactions of the Association for Computational Linguistics', 'mag_field_of_study': ['Computer Science']} | 81,208 |
Översvämningsmetoden, som används av många mobila ad-hoc routing protokoll, är en process där en rutt begäran paket (RREQ) sänds från en källa nod till andra noder i nätverket. Detta resulterar ofta i onödiga vidaresändningar, vilket orsakar paketkollisioner och överbelastning i nätverket, ett fenomen som kallas utsändningsstorm. Denna artikel presenterar för det första effekten av ett annat meddelande vidarebefordring sannolikhet på RREQ och för det andra en RREQ meddelande vidarebefordring schema som genomförs på Ad-hoc On-Demand distans Vector Routing (AODV) routing protokoll, en Bayesian sannolikhet baserad AODV utökad version baserad på en modifierad version av Bayesian sannolikhet (AODV_EXT_BP) som minskar routing overheads, genom att beräkna sannolikheten med avseende på grannens densitet samt den bakre sannolikheten. Prestandan för AODV_EXT_BP jämförs med prestandan för utökad version av AODV (AODV_EXT), AODV, Destination Sequenced Distance Vector, dynamisk källkod routing och Optimized Link State Routing protokoll och simuleringsresultaten visar att AODV_EXT_BP protokollet uppnår bättre resultat i alla sektorer. | I REF söks minskning av AODV routing protokollet overhead. | 38,220,192 | A new RREQ message forwarding technique based on Bayesian probability theory | {'venue': None, 'journal': 'EURASIP Journal on Wireless Communications and Networking', 'mag_field_of_study': ['Computer Science']} | 81,209 |
Avlastning av mobilräkning (MECO) avlastar intensiv mobil beräkning till moln belägna vid kanterna på cellulära nätverk. MECO är därmed tänkt som en lovande teknik för att förlänga batteriets livslängd och förbättra mobilernas beräkningskapacitet. I detta dokument studerar vi resursallokering för ett fleranvändar-MECO-system baserat på tidsdelningsmultipel access (TDMA) och ortogonal frekvensdivision multiple access (OFDMA). För det första, för TDMA MECO-systemet med oändlig eller ändlig molnberäkningskapacitet, är den optimala resurstilldelningen formulerad som ett konvext optimeringsproblem för att minimera den viktade summan mobil energiförbrukning under begränsningen på beräkning latency. Den optimala politiken har visat sig ha en tröskelbaserad struktur med avseende på en härledd avlastningsprioriterad funktion, som ger användarna prioritet beroende på deras kanalvinster och lokala energiförbrukning. Till följd av detta utför användare med prioriteringar över och under ett visst tröskelvärde fullständig respektive minimal avlastning. För molnet med ändlig kapacitet föreslås dessutom en suboptimal resursallokeringsalgoritm för att minska beräknings komplexiteten för beräkning av tröskelvärdet. Därefter anser vi att ODDMA MECO-systemet, för vilket den optimala resurstilldelningen formuleras som ett blandat integer-problem. För att lösa detta utmanande problem och karakterisera dess policystruktur föreslås en suboptimal algoritm med låg komplexitet genom att ODDMA-problemet omvandlas till dess TDMA-motsvarighet. Motsvarande resursfördelning erhålls genom att definiera en genomsnittlig avlastningsprioriterad funktion och visas ha nära optimal prestanda vid simulering. | MULTIUSER MECO REF modellerar avlastningsproblem som ett konvext optimeringsproblem, där den objektiva funktionen är att minimera energiförbrukningen. | 14,764,353 | Energy-Efficient Resource Allocation for Mobile-Edge Computation Offloading | {'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 81,210 |
Djupa konvolutionella neurala nätverk (CNN) är oumbärliga för toppmoderna datorseende algoritmer. Men de är fortfarande sällan utplacerade på batteridrivna mobila enheter, såsom smartphones och bärbara prylar, där visionalgoritmer kan möjliggöra många revolutionerande verkliga applikationer. Den viktigaste begränsande faktorn är den höga energiförbrukningen vid CNN-bearbetning på grund av dess höga beräkningskomplexitet. Även om det finns många tidigare insatser som försöker minska CNN-modellens storlek eller mängden beräkning, finner vi att de inte nödvändigtvis resulterar i lägre energiförbrukning. Dessa mål fungerar därför inte som ett bra mått för uppskattningen av energikostnaderna. För att minska klyftan mellan CNN-design och optimering av energiförbrukningen föreslår vi en energibesparande beskärningsalgoritm för CNN som direkt använder CNN:s energiförbrukning för att styra beskärningsprocessen. Energiskattningsmetoden använder parametrar som extrapolerats från faktiska maskinvarumätningar. Den föreslagna layerby-layer beskärningsalgoritmen beskärs också mer aggressivt än tidigare föreslagna beskärningsmetoder genom att minimera felet i utdatafunktionskartorna istället för filtervikterna. För varje lager beskärs vikterna först och finjusteras sedan lokalt med en sluten, minstkvadratlösning för att snabbt återställa noggrannheten. När alla lager är beskurna, hela nätverket är globalt finjusterade med hjälp av backpropagation. Med den föreslagna beskärningsmetoden, är energiförbrukningen av AlexNet och GoogLeNet minskas med 3,7× respektive 1,6×, med mindre än 1% topp-5 noggrannhet förlust. Vi visar också att minska antalet målklasser i AlexNet kraftigt minskar antalet vikter, men har en begränsad inverkan på energiförbrukningen. | Yang m.fl. använda hårdvarumätningar för energi-aware beskärning av parametrar REF. | 2,779,809 | Designing Energy-Efficient Convolutional Neural Networks Using Energy-Aware Pruning | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 81,211 |
Vi presenterar ett nytt tillvägagångssätt för modellering och återgivning av befintliga arkitektoniska scener från en gles uppsättning stillbilder. Vår modelleringsmetod, som kombinerar både geometribaserade och bildbaserade tekniker, har två komponenter. Den första komponenten är en fotogrammetrisk modelleringsmetod som underlättar återhämtningen av den fotograferade scenens grundläggande geometri. Vår fotogrammetrisk modellering är effektiv, bekväm och robust eftersom den utnyttjar de begränsningar som är karakteristiska för arkitektoniska scener. Den andra komponenten är en modellbaserad stereoalgoritm, som återvinner hur den verkliga scenen avviker från den grundläggande modellen. Genom att använda sig av modellen återvinner vår stereoteknik robust exakt djup från stora bildpar. Följaktligen kan vår strategi modellera stora arkitektoniska miljöer med mycket färre fotografier än nuvarande bildbaserade modelleringsmetoder. För att producera renderingar presenterar vi visningsberoende texturkartläggning, en metod för att sammanställa flera vyer av en scen som bättre simulerar geometriska detaljer på grundläggande modeller. Vårt tillvägagångssätt kan användas för att återställa modeller för användning i antingen geometribaserade eller bildbaserade renderingssystem. Vi presenterar resultat som visar vår strategi förmåga att skapa realistiska återgivningar av arkitektoniska scener från perspektiv långt från de ursprungliga fotografierna. | I original VDTM använde Debevec en förenklad 3D-modell av den verkliga scenmiljön REF. | 2,609,415 | Modeling and rendering architecture from photographs: a hybrid geometry- and image-based approach | {'venue': "SIGGRAPH '96", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,212 |
Sammanfattning av denna webbsida: Delvis som ett resultat av den snabba tillväxten i kinesisk högre utbildning har forskarutbildningen blivit en kritisk fråga för högskolor och universitet. Som svar på detta är ett av de politiska initiativ som antagits av den kinesiska regeringen att högre utbildningsanstalter lägger tonvikten på utbildning i entreprenörskap. Under 2002 lanserade undervisningsministeriet ett pilotprogram för att genomföra entreprenörskapsutbildning vid nio prestigefyllda högskolor i Kina. Sedan dess har många högskolor och universitet antagit denna innovation inom utbildning. Denna studie försöker undersöka entreprenörskapsutbildning som en innovativ lösning på de utmaningar som den högre utbildningen i Kina står inför. Den introducerar först bakgrunden för att främja entreprenörskap utbildning i Kina, analyserar entreprenörskap utbildningsprogram och aktiviteter vid tre utvalda universitet, bedömer tillståndet i entreprenörskap utbildning både ur ett studentperspektiv och även genom en jämförelse med utvecklingen i USA, och avslutar med rekommendationer för ytterligare utveckling av entreprenörskap utbildning i Kinas högskolor och universitet. | REF utvärderade företagarutbildningen från en studentnivå i Kina och jämförde den med USA. | 154,716,708 | A Review of Entrepreneurship Education for College Students in China | {'venue': None, 'journal': 'Administrative Sciences', 'mag_field_of_study': ['Economics']} | 81,213 |
Ett antal nya verk har föreslagit uppmärksamhetsmodeller för visuellt frågesvar (VQA) som genererar rumsliga kartor som belyser bildregioner som är relevanta för att besvara frågan. I detta dokument hävdar vi att det förutom att modellera "där man kan titta" eller visuell uppmärksamhet är lika viktigt att modellera "vilka ord man ska lyssna på" eller ifrågasätta uppmärksamheten. Vi presenterar en ny co-attention modell för VQA som tillsammans resonerar om bild och ifrågasätter uppmärksamhet. Dessutom, vår modell skäl till frågan (och därmed bilden via co-attention mekanism) på ett hierarkiskt sätt via en ny 1-dimensionell konvolution neurala nätverk (CNN) modell. Vår slutliga modell överträffar alla rapporterade metoder och förbättrar den senaste tekniken på VQA-datauppsättningen från 60,4 % till 62,1 %, och från 61,6 % till 65,4 % på COCO-QA-datauppsättningen 1. 1 Källkoden kan laddas ner från https://github.com/jiasenlu/HieCoAttenVQA | I REF presenteras en hierarkisk co-attention-modell som är gemensam för både bilden och frågan. | 868,693 | Hierarchical Question-Image Co-Attention for Visual Question Answering | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 81,214 |
I en blick, kan vi uppfatta om en hög av rätter kommer att toppa, en gren kommer att stödja ett barns vikt, en livsmedelspåse är dåligt packad och riskerar att riva eller krossa dess innehåll, eller ett verktyg är fast fäst vid ett bord eller fri att lyftas. Sådana snabba fysiska slutsatser är centrala för hur människor interagerar med världen och med varandra, men deras beräkningsunderlag är dåligt förstådda. Vi föreslår en modell baserad på en "intuitiv fysik motor", en kognitiv mekanism som liknar datormotorer som simulerar rik fysik i videospel och grafik, men som använder ungefärliga, probabilistiska simuleringar för att göra robusta och snabba slutsatser i komplexa naturliga scener där viktig information är obemärkt. Denna enda modell passar data från fem olika psykofysiska uppgifter, fångar flera illusioner och förutfattade meningar, och förklarar centrala aspekter av mänskliga mentala modeller och sunt förnuft resonemang som är avgörande för hur människor förstår sin vardag. T o see är, berömda, "att veta vad som är var genom att leta" (ref. 1 s. 3). Men att se är också att veta vad som kommer att hända och vad som kan göras och att upptäcka inte bara objekt och deras platser, utan också deras fysiska egenskaper, relationer och överkomligheter och deras sannolika förflutna och framtid betingade på hur vi kan agera. Begrunda hur föremål i en verkstadsscen ( Bild. 1 A och B) stödja varandra och hur de reagerar på olika tillämpade krafter. Vi ser att bordet stöder verktyg och andra objekt på sin översta yta: Om tabellen togs bort skulle dessa objekt falla. Om bordet lyftes från ena sidan, skulle de glida mot den andra sidan och släppa av. Bordet stöder också ett däck lutande mot benet, men otryggt: Om stötar något, däcket kan falla. Objekt hängande från krokar på väggen kan svänga om dessa stöd eller lätt lyftas av; i kontrast, krokarna själva är styvt fästa. Denna fysiska scen förståelse förbinder perception med högre kognition: grundande abstrakta begrepp i erfarenhet, prata om världen i språk, förverkliga mål genom åtgärder, och upptäcka situationer som kräver särskild vård (Fig. 1C)........................................................................................................... Det är avgörande för intelligensens ursprung: Forskare inom utvecklingspsykologi, språk, djurkännedom och artificiell intelligens (2-6) anser förmågan att avsiktligt manipulera fysiska system, såsom att bygga en stabil hög av block, som ett mest grundläggande tecken på mänskligt sunt förnuft (Fig. Detta anslag är avsett att täcka utgifter för tjänstemän och tillfälligt anställda som arbetar inom politikområdet Migration och inrikes frågor. Det ger även upphov till några av våra mest visceralt övertygande spel och konstformer (Fig. 1 E och F............................................................................................... Trots centraliteten i dessa fysiska slutsatser förblir de beräkningar som ligger till grund för dem i sinnet och hjärnan okända. Tidiga studier av intuitiv fysik fokuserade på mönster av fel i explicit resonemang om enkla enkroppssystem och ansågs förvånande eftersom de föreslog att mänskliga intuitioner är i grunden oförenliga med Newtonian mekanik (7). Efterföljande arbete (8, 9) har reviderat denna tolkning, vilket visar att människors fysiska intuitioner ofta är mycket exakta enligt Newtonska normer när de grundar sig i konkreta dynamiska uppfattnings- och handlingssammanhang, och påpekar att även i de tidigare studierna gav majoriteten av ämnena typiskt korrekta svar (10). Flera nya modeller har hävdat att både framgångar och förutfattade meningar i människors perceptuella bedömningar om enkla en- och tvåkroppsinteraktioner (t.ex. att bedöma de relativa massorna av två kolliderande punktobjekt) kan förklaras som rationella probabilistiska slutsatser i ett "noisy Newton"-ramverk, förutsatt att Newtons lagar plus bullriga observationer (11) (12) (13) (14). Men allt detta arbete behandlar endast mycket enkla, idealiserade fall, mycket närmare exemplen på inledande fysik klasser än de fysiska sammanhang människor möter i den verkliga världen. Vårt mål här är att utveckla och testa en beräkningsram för intuitiv fysisk inferens som är lämplig för den vardagliga scenförståelsens utmaningar och förmåner: resonemang om ett stort antal objekt, endast ofullständigt observerade och interagerande på komplexa, icke-linjära sätt, med betoning på grova, ungefärliga, kortsiktiga förutsägelser om vad som kommer att hända härnäst. Vårt förhållningssätt motiveras av ett förslag som först formulerats av Kenneth Craik (15), att hjärnan bygger mentala modeller som stöder slutledning av mentala simuleringar analogt med hur ingenjörer använder simuleringar för förutsägelse och manipulation av komplexa fysiska system (t.ex. analys av stabilitet och fellägen i en brodesign före konstruktion). Dessa körbara mentala modeller har åberopats för att förklara aspekter av höga fysiska och mekaniska resonemang (16, 17) och implementeras beräkningsmässigt i klassiska artificiell intelligens system (18) (19) (20). Dessa system har dock inte försökt att engagera sig i den fysiska scenförståelsen: Deras fokus på kvalitativa eller propositionella representationer, snarare än kvantitativa aspekter och osäkerheter i objektens geometri, rörelser och kraftdynamik, är bättre lämpad för att förklara symboliska resonemang på hög nivå och problemlösning. För att förstå fysik i samband med scenuppfattning och handling krävs ett mer kvantitativt och probabilistiskt förhållningssätt till formaliserande mentala modeller. Här introducerar vi ett sådant ramverk, som utnyttjar de senaste framstegen inom grafik och simuleringsverktyg, samt Bayesiansk kognitiv modellering (21), för att förklara hur människor förstår den fysiska strukturen i verkliga scener. Vi antar att mänskliga bedömningar drivs av en "intuitiv fysik motor" (IPE), liknar datorfysik motorer som används för kvantitativ men ungefärlig simulering av stel kroppsdynamik och kollisioner, mjuk kropp och flytande dynamik i datorgrafik, och interaktiva videospel. Den IPE utför förutsägelse genom simulering och införlivar osäkerhet om scenen genom att behandla dess simulering körs som statistiska prover. Vi fokuserar på hur IPE stöder slutsatser om konfigurationer av många stela objekt som utsätts för gravitation och friktion, med varierande antal, storlekar och massor, som de typiska i barnlekrum, kontorsbord eller verkstad, i Bild. Detta beslut träder i kraft den tjugonde dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. I en serie experiment visar vi att IPE kan göra många kvantitativa bedömningar som förvånansvärt överensstämmer med dem av probabilistiska fysiksimuleringar, men också att det skiljer sig från marksanning fysik på avgörande sätt. Dessa skillnader gör IPE mer robust och användbar i vardagen kognition, men också benägna att vissa begränsningar och illusioner (som i Bild. Detta anslag är avsett att täcka utgifter för tjänstemän och tillfälligt anställda som arbetar med politikområdet Hälsa och konsumentskydd. Arkitektur för IPE. Vi föreslår en kandidatarkitektur för IPE som kan samverka flexibelt med både lägre perceptuomotoriska system och kognitiva system på högre nivå för planering, handling, resonemang och språk ( Bild. 2A............................................................................................................ Kärnan är en objektbaserad representation av en 3D scenanalog till de geometriska modeller som ligger till grund för datorstödda designprogram (Fig. 1B) -och de fysiska krafter som styr scenens dynamik: hur dess tillstånd förändras över tiden (Fig. 2A............................................................................................................ Denna representation kodar kvantitativt ett stort antal statiska och dynamiska variabler som behövs för att fånga rörelser och interaktioner hos många objekt. Detta kan omfatta objektens geometrier, arrangemang, massor, elastiskheter, styvheter, ytegenskaper och hastigheter samt effekterna av krafter som verkar på föremål på grund av gravitation, friktion, kollisioner och andra potentiellt omärkbara källor. IPE representerar således världen med en rimlig grad av fysisk trohet. Men tre viktiga konstruktionselement gör att den skiljer sig från en idealisk fysiker strategi och mer liknar en ingenjörs. För det första bygger IPE på simulering: I stället för att manipulera symboliska ekvationer för att få analytiska lösningar representerar det mekaniken procedurmässigt och genererar förutsagda tillstånd baserade på initiala genom att rekursivt tillämpa elementära fysiska regler över korta tidsintervall. För det andra är IPE probabilistisk snarare än deterministisk: Den kör stokastiska (Monte Carlo) simuleringar (22) som representerar osäkerhet om scenens tillstånd och kraftdynamik och därmed robust till den bullriga och ofullständiga information som tillhandahålls av perception. För det tredje är IPE i sig ungefärligt: I sin mekanik regler och representationer av objekt, krafter och sannolikheter, det handlar precision och veridikalitet för hastighet, generalitet, och förmågan att göra förutsägelser som är tillräckligt bra för vardagliga aktiviteter. För att göra detta förslag konkret och testbart måste vi också specificera vilken typ av approximationer det rör sig om och hur grova eller finkorniga de är. Här har IPE sannolikt avvikit från ingenjörspraktik: Människors dagliga interaktioner med sin omgivning har ofta mycket snävare tidsbegränsningar och mer avslappnade feltoleranser, vilket leder våra hjärnor att gynna hastighet och allmänhet över graden av precision som behövs i tekniska problem. Vår första IPE-modell använder sig således av de enklaste allmänna approximeringsverktyg som vi känner till. Vi använde Open Dynamics Engine (ODE) (www.ode.org) som en mekanism för ungefärliga rigid-kroppsdynamikssimuleringar och den mest naiva Monte Carlo-metoden av Black-box forward-simulering (22) som en mekanism för att representera och sprida ungefärliga sannolikheter genom dessa fysiska dynamiker. ODE representerar objektens geometrier som polyhedra och deras massfördelning med tröghets tensorer, och dess simuleringar upprätthåller inte uttryckligen bevarandet av energi eller momentum, utan endast implicit via grova förfaranden för upptäckt och upplösning av händelser. Vår modell kör simulatorn på flera oberoende dragningar från observatörens sannolikhetsfördelning över scener och krafter för att bilda en ungefärlig bakre fördelning över framtida tillstånd över tiden. Även inom det område av hastighetsnoggrannhet kompromisser som vår ursprungliga IPE-modell stöder, förväntar vi oss att människor kommer att tenderar att anta de billigaste approximationer som möjligt (se SI Appendix: Caimations). IPE kan dramatiskt förenkla objektens geometri, masstäthetsfördelning och fysiska interaktioner, i förhållande till vad ODE tillåter; och i stället för att köra många Monte Carlo simuleringar, IPE kan koda sannolikheter mycket grovt genom att använda endast ett eller några prover (som folk gör i enklare beslutsinställningar) (23). Vårt centrala påstående är att ungefärlig probabilistisk simulering spelar en nyckelroll i människans förmåga att förstå den fysiska scenen och kan tydligt förklara hur människor gör rika slutsatser i en mängd olika vardagliga miljöer, inklusive många som inte tidigare har studerats formellt. Med tanke på en lämplig geometrisk modell (Fig. 1B) av verkstadsscenen i Bild. 1A, IPE kan beräkna versioner av många av de intuitiva slutsatser om den scen som beskrivs ovan. Med tanke på en geometrisk modell av scenen i Bild. 1C, Det kan förklara inte bara hur vi drar slutsatsen att de staplade rätter är otrygga, men också hur vi kan svara på många andra frågor: Vilka objekt skulle falla först? Hur kan de falla i vilken riktning, eller hur långt? Vilka andra föremål kan de orsaka att falla? Varje dag scenarier kan uppvisa stor variation i objektens egenskaper (t.ex., deras vikt, form, friktion, etc.) och de extrinsiska krafter som skulle kunna tillämpas (t.ex. från en liten stöt till ett jarring slag), och vår IPE-modell kan fånga hur människors förutsägelser är känsliga för dessa faktorer-inklusive sätt som går bortom välbekant erfarenhet. På bild. 1C, till exempel, kan vi dra slutsatsen att en gjutjärn skillet placeras på disken skulle vara mycket mer Eftersom det inte representerar osäkerhet, det kan inte fånga människors domar för ett antal av våra stimuli, såsom den röd-gränsade tornet i B. (Observera att dessa fall kan vara sällsynta i naturliga scener, där konfigurationer tenderar att vara tydligare stabil eller instabil och IPE skulle förväntas korrelera bättre med grundsanning än det gör på vår stimuli.) 18328 www.pnas.org/cgi/doi/10. 1073/pnas.1306572110 Battaglia et al. Destabiliserande än en pappersplatta eller att placera dessa staplade rätter nära kanten av ett bord skulle vara mycket mindre klokt om det fanns barn som sprang omkring än om rummet var tomt. Sådana intuitioner kommer naturligt och kräver (lyckligtvis) inte att vi upplever var och en av dessa situationer för att kunna förstå dem. Tillsammans utgör dessa typer av slutsatser ett svar på den mer allmänna frågan: "Vad kommer att hända?", att människor kan svara över otaliga scener och som kan avläsas från IPE: s simuleringar. Psykofysiska experiment. I förhållande till de flesta tidigare forskningar om intuitiv fysik, var våra experiment utformade för att vara mer representativa för vardagliga fysiska scenförståelse utmaningar, liknande dem som visas i Fig. 1 och diskuteras ovan. Dessa uppgifter har komplexa konfigurationer av objekt och kräver flera typer av bedömningar i olika utgångsformer och graderade (snarare än helt enkelt all-eller-ingen, ja-eller-nej) förutsägelser, men är fortfarande begränsade tillräckligt för att möjliggöra kontrollerade kvantitativa psykofysiska studier. Vår mest grundläggande uppgift (Exp. 1) sonderade människors bedömningar av stabilitet genom att presentera dem med torn av 10 block arrangerade i slumpmässigt staplade konfigurationer (Fig. 2B) och ber dem att döma (på 1-7 skala) "Kommer detta torn att falla?" under tyngdkraftens inflytande. Efter att ha svarat fick observatörerna visuell återkoppling som visade gravitationens inverkan på tornet, dvs. om och hur tornblocken skulle falla under en simulering av sanningsfysik på marken. Det kritiska testet i vår IPE-redovisning är inte om den kan förklara varje detalj av hur människor svarar i en sådan uppgift, utan om den kvantitativt kan förklara rikedomen i människors intuitioner om vad som kommer att hända över en mängd olika uppgifter. Därför senare experiment manipulerade element av Exp. 1 att undersöka om modellen kan förklara människors förmåga att göra olika förutsägelser om en given scen (Exps. 2 och 4), deras känslighet för underliggande fysiska attribut såsom massa (Exps. 3 och 4)), och deras förmåga att generalisera till ett mycket bredare och mer komplext utbud av scener (Exp. 5) När det gäller läkemedel som inte är avsedda att användas tillsammans med andra läkemedel (se avsnitt 4. 5, 4. 5 och 4. Att tillämpa vår IPE-modell på dessa uppgifter kräver val om hur man formaliserar varje uppgifts ingångar och utgångar-hur varje stimulans ger upphov till ett urval av initiala objekttillstånd och kraftdynamik för simulatorn och hur effekterna av simulerad fysik på detta prov används för att göra uppgiftens bedömning-samt val om detaljerna i simuleringen körs. Även om "Kommer det att falla?" Uppgiften handlade främst om visuella ingångar och språkliga utdata, senare uppgifter (Exps. 2-5) undersökte flexibiliteten i IPE:s gränssnitt mot andra kognitiva system genom att lägga till språkliga ingångar, symboliska visuella signaler och sensorimotoriska utgångar. För att samma centrala IPE-modell ska kunna testas i alla experiment, gjorde vi följande förenklade antaganden för att sammanfatta dessa andra gränssnitt. Vi sätter IPE: s ingång att vara ett prov från en distribution över scenkonfigurationer, objektegenskaper, och krafter baserade på marksanning, men moduleras av en liten uppsättning numeriska parametrar som fångar sätt på vilka dessa ingångar inte är fullt observerbara och kan variera som en funktion av uppgift instruktioner. Den första parametern, σ, fångar osäkerhet i observatörens representation av scenens ursprungliga geometri i stort sett, som SD för en Bayesiansk observatörs bakre fördelning för varje objekts placering i 3D-utrymme, beroende på 2D-stimulansbilder. Den andra parametern, ska, återspeglar omfattningen av eventuella latenta krafter som observatören anser kan tillämpas (t.ex. en bris, en vibration eller en bula) på objekten i scenen, förutom de krafter som alltid är kända för att vara närvarande (t.ex. gravitation, friktion och kollisioner). Den tredje parametern, μ, fångar fysiska egenskaper som varierar mellan objekt men inte är direkt observerbara-specifikt, den relativa massan av olika objekt-men andra egenskaper såsom elasticitet eller ytjämnhet kan också ingå. Med tanke på ett sådant ingångsprov simulerade vår IPE-modell den fysiska dynamiken för att producera ett urval av slutliga scenkonfigurationer. I vissa fall rörde sig föremålen på grund av gravitationskrafter eller yttre krafter eller till följd av sekundära kollisioner, medan de i andra fall förblev i sitt ursprungliga tillstånd. Modellens utdata består av aggregat av enkla rumsliga, numeriska eller logiska grunder som tillämpas på simuleringskörningarna, beroende på uppgift och bedömning (SI-bilaga: IPE-modell). Till exempel, för Kommer det att falla? Fråga, vi tog IPE: s utgång för att vara den genomsnittliga andelen block som föll över simuleringskörningarna. Varje manipulation i Exps. 1–5 testade IPE-modellen i allt mer komplexa scenarier, som modellen rymmer genom att justera dess manipulationskänsliga ingångsparametrar eller utgångsparametrar; alla manipulationsrelevanta modellkomponenter är fastsatta till tidigare monterade värden. Vi jämförde också modellen med varianter som inte är känsliga för dessa manipulationer, för att bedöma hur fullständigt IPE representerar dessa fysiska, scen- och uppgiftsfunktioner. Slutligen utforskade vi flera sätt på vilka det mänskliga IPE skulle kunna anta ännu enklare ungefärliga representationer. Utgångspunkt. 1: Kommer den att falla? Utgångspunkt. 1 mätte varje försökspersons ðn = 13. Kommer det att falla? domar om 60 olika torn scener, upprepade sex gånger över separata block av försök (se SI Material och metoder, Bild. S1, och tabell S1 ). Bilda. 2C visar korrelationen mellan modellens och människors genomsnittliga bedömningar (ρ = 0:921⁄20:88; 0:94, där 1⁄2l; u anger lägre/övre 95% konfidensintervall) under de bästa indataparametrarna: σ = 0:2, eller 20% av längden på ett blocks kortare sida, och 0:2, vilket motsvarar mycket små tillämpade externa krafter, på skalan av en ljuskran. I närheten av värden av σ och ∂ hade också höga korrelationer eftersom tillstånd och kraft osäkerhet påverkade modellens förutsägelser på liknande sätt (Fig. S3 ).............................................................................................................. μ parametern sattes till 1 eftersom alla objekt hade identiska fysiska egenskaper. Vi analyserade försökspersonernas svar för förbättringar över försöksblock och fann inga effekter av vare sig mängden feedback eller mängden övning (Fig. S7 och SI Bilaga: Analys av lärande). Vi kopierade också konstruktionen av Exp. 1 om en ny grupp av försökspersoner ðn = 10 till som inte fick någon feedback och fann att deras genomsnittliga svar var i hög grad korrelerade med dem i det ursprungliga feedbackvillkoret ðρ = 0:951⁄20:95; 0:95 en bekräftelse på att all feedbackdriven inlärning spelade som mest en minimal roll. För att bedöma sannolikhetens roll i IPE-simuleringarna jämförde vi också människors bedömningar med en deterministisk sanningsfysikmodell (samma simuleringar som användes för att ge feedback efter behandlingen). Denna grundsanningsmodell motsvarar en variant av IPE-modellen där σ = 0 och 0 = 0 (dvs. varje simulering körs med initialtillstånd som är identiska med de sanna objektens tillstånd och använder inga krafter förutom gravitation, friktion och kollisioner). Uppgiften var utmanande för ämnen: Deras genomsnittliga noggrannhet var 66 % (dvs. procentandelen av deras tröskelsvar som motsvarade marksanningens modell), och deras korrelation med marksanningens förutsägelser var betydligt lägre (ρ = 0:641⁄20:46; 0:79, P < 0:001; Bild. 2D) än med IPE-modellen. Detta visar hur viktigt det är att inkludera stat och kraftosäkerhet i modellens simuleringar och förklarar illusioner som de förvånansvärt balanserade stenarna i Bild. 1F : Grunden sanning scen konfigurationen är i själva verket balanserad, men så delikat att de flesta liknande konfigurationer (och därmed de flesta av IPE: s probabilistiska simuleringar) är obalanserade och faller under gravitationen. Vi inkluderade en liknande illusorisk stimulans i experimentet, ett fint balanserat torn (Fig. 2B, röd gräns) som faktiskt står upp under marken sanning fysik men att IPE modellens probabilistiska simuleringar förutsäga är nästan säkert att falla. Som förutspåddes av IPE modellen, men inte marksanning varianten, människor bedömde detta att vara en av de mest instabila tornen i hela stimulans uppsättningen (Fig. 2 C och D, röd cirkel). Är det möjligt att människors bedömningar inte innebar någon mental simulering alls, probabilistisk eller på annat sätt? Vi testade också en alternativ redogörelse i en anda av exemplarbaserade modeller och enkla heuristiker som har föreslagits i tidigare studier av fysiska bedömningar (8-11): att människor istället kan basera sina bedömningar uteslutande på inlärda kombinationer av geometriska egenskaper i den ursprungliga scenkonfigurationen (t.ex. antal, positioner och höjder på objekten; se tabell S2 ) utan uttrycklig hänvisning till fysisk dynamik. Denna "feature-baserade" konto konsekvent klarade sämre på att förutsäga människors bedömningar än IPE-modellen-ibland dramatiskt sämre (Fig. S4) och ett kontrollerat uppföljningsförsök (Exp. S1) (SI-bilaga: Mallfria konton) där tornen alla var av samma höjd, liksom i Exps. 2-5 beskrivet nedan. Detta innebär inte att geometriska egenskaper inte spelar någon roll för den fysiska scenförståelsen; i SI-bilagan: Tillnärmningar beskriver vi inställningar där de kan. Våra resultat visar dock att de inte är lönsamma som ett generellt alternativ till IPE-modellen. För att testa IPE-modellens förmåga att förklara olika bedömningar i olika former, visade vi ämnen ðn = 10 på liknande scener som i Exp. 1, men istället bad dem att bedöma i vilken riktning tornet skulle falla (Fig. 3A och Fig. Ursprunglig hänvisning till den nationella lagstiftningen: S2............................................................................................................. IPE-modellens utgångspredikat för detta "I vilken riktning?" Förfrågan definierades som vinkeln för den genomsnittliga slutliga positionen för de fallna blocken; ingångsparametrar (σ = 0:2, och = 0:2) och alla andra detaljer var inställda på de som användes i modellering Exp. 1. Vad är det för fel på dig? Modellförutsägelserna var mycket exakta totalt sett: Objektens genomsnittliga riktningsbedömningar låg inom ± 45° av modellens för 89 % av tornets stimuli (Fig. 3B)............................................................... Som i Exp. 1, fånga osäkerhet var avgörande: Den cirkulära korrelationen med människors bedömningar var betydligt högre för IPE-modellen ðρ circ = 0:801⁄20:71; 0:87 till än för mark-sanningen (σ = 0, ∂ = 0) modell ( Bild. 3C; ρ circ = 0:611⁄20:46; 0:75, P < 0:001). Dessa resultat visar hur en enda uppsättning probabilistiska simuleringar från IPE kan redogöra för kvalitativt olika typer av bedömningar om en scen bara genom att tillämpa lämpliga utdata predikat. Exp.g.a. fall. 3 och 4: Variera objekt massar. För att testa känsligheten hos människors förutsägelser om objektets fysiska egenskaper och IPE-modellens förmåga att förklara denna känslighet, Exps. 3 och 4 använda mönster som liknar Exps. 1 respektive 2, men med block som antingen var tunga eller lätta (10:1 massförhållande, indikeras visuellt av olika block färger; Bild. 3 D och G). Vi skapade par av stimuli ("state par") som delade identiska geometriska konfigurationer, men som skilde sig från vilka block tilldelades att vara tunga och lätta (Fig. 3 D och G) och därmed i huruvida, och hur, blocken bör förväntas falla. Återigen sattes IPE-modellens ingångsparametrar och utgångsvärden på samma sätt som de som användes i Exps. 1 och 2, förutom att massparametern, μ, kan variera för att återspegla människors förståelse av förhållandet mellan tunga och lätta block massa. Vid bästa passform värde från Exp. 3, μ = 8, modell passar för Exp. 3 (Kommer det att falla? dom; bild. 3E, ρ = 0:801⁄20:72; 0:86) och Exp. 4 (I vilken riktning? dom; bild. 3H, ρ circ = 0:781⁄20:67; 0:87) var jämförbara med dem i Exps. 1 respektive 2, den verkliga massa ratio ðμ = 10 ska ge nästan identiska förutsägelser och passar. Däremot gav användningen av den okänsliga ðμ = 1 på modellen betydligt sämre passformer för båda Exp. 3 (Fig. 3F, ρ = 0:631⁄20:50; 0:73, P < 0:001) och Exp. 4 (Fig. 3I, ρ circ = 0:411⁄20:27; 0:57, P < 0:001). Skillnader i bedömningar om torn inom varje stat par covar också betydligt för människor och IPE-modellen i båda experimenten (Exp. 3, ρ = 0:731⁄20:62; 0:81; Exp. 4, ρ circ = 0:501⁄20:18; 0:75), medan dessa korrelationer för de okänsliga modellerna var 0 per definition. Tillsammans, dessa resultat visar att människor kan införliva i sina förutsägelser en viktig latent fysisk egenskap som varierar mellan objekt (och indikeras endast genom kovariation med en ytlig färg kö), att de gör det på ett nästan optimalt sätt, och att samma IPE-modell kan utnyttja de rikare aspekterna av dess scenrepresentationer för att förklara dessa slutsatser på en liknande nivå av kvantitativ noggrannhet som för enklare uppgifter Exps. 1 och 2 där alla objekt var identiska. Utgångspunkt. 5: Variera objektformer, fysiska hinder och tillämpade krafter. Utgångspunkt. 5 var utformad för att vara en omfattande och sträng test av IPE-modellen, utvärdera hur väl det kunde förklara människors bedömningar av en mer ny uppgift i mycket mer komplexa och varierande inställningar-scener med olika storlekar, former, nummer, och konfigurationer av objekt, med varierande fysiska begränsningar på objekt rörelse på grund av bifogade hinder och med ytterligare osäkerhet om de yttre krafter som kunde störa scenen. Varje scen avbildade ett bord där en samling block arrangerades (Fig. 4 A och B), varav hälften var röda och den andra halvan var gula. Försökspersonerna ombads att föreställa sig att bordet stöts tillräckligt hårt för att slå en eller flera av blocken på golvet och bedöma vilken färg block skulle vara mer sannolikt att falla av, med hjälp av en 1-7 skala av förtroende spänner "definitivt gul" till "definitivt röd". De 60 olika scenerna skapades genom att man korsade 12 olika blockkonfigurationer som varierade blockens antal och former samt antal, höjder och positioner i de staplar där de arrangerades med fem olika tabeller, en med en plan yta och fyra andra med två korta hinder fast fästa vid olika kanter som interagerade med föremålens rörelser på olika sätt (Fig. 4A)............................................................... Två villkor skilde sig åt i vilken information försökspersoner fick om den yttre bula: I det "cued" tillståndet, en blå pil indikerade en specifik riktning för vilka försökspersoner bör föreställa sig en bula; i det "oavslutade" tillståndet, ingen pil visades och försökspersonerna var tvungna att föreställa sig effekterna av en bula från någon möjlig riktning (Fig. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. I det köade tillståndet visades varje scen med två olika körriktningar ("cue-wise par"). I 10 inledande försök var försökspersonerna bekanta med uppgiften och effekterna av en slumpmässig bula stark nog att slå av åtminstone ett block, med hjälp av enklare scener där den röd-gula domen var uppenbar och effekten av bulan (tillämpad för 200 ms) visades efter varje dom. Analog respons visades också efter var femte försöksstudie. IPE-modellen var identisk med den i Exps. 1 och 2 ðσ = 0,2; μ = 1, utom för två skillnader som är lämpliga för denna uppgift. För att inkorporera instruktioner om hur bordet stöts, ökades magnituden av inbillade yttre krafter till en rad värden som var karakteristiska för de knölar som visades under förtrogenhetsperioden. Modellen simulerade yttre krafter under en rad olika magnituder, varierande i deras effekter från att orsaka bara några block för att falla från bordet att orsaka de flesta att falla av. För det obotliga tillståndet simulerade modellen alla kurvriktningar, medan den för kurvan simulerade bara stötar med riktningar inom 45° av kurvvinkeln (Fig. 4 C och D). Modellens utgångspredikat definierades som andelen röda kontra totala block som föll från tabellen, i genomsnitt över simuleringar. Modellförutsägelser var starkt korrelerade med människors bedömningar i både uncued och cued bump villkor (Fig. 4E, ρ = 0:891⁄20:82; 0:93 och bild. 4G, ρ = 0:861⁄20:80; 0:90, respektive). Passar var både kvalitativt och kvantitativt bättre än för modellvarianter som inte tog hänsyn till hindren (Figs. 4F, ρ = 0:681⁄20:51; 0:81, P < 0:002; Bild. 4H, ρ = 0:641⁄20:47; 0:77, P < 0:001), kurvorna (Fig. 4I, ρ = 0:821⁄20:75; 0:87, P < 0:2), eller antingen faktor (Fig. 4J, ρ = 0:581⁄20:41; 0:72, P < 0:001), vilket tyder på att båda faktorerna spelade en roll i IPE-modellens framgång. Modellen kan också förutsäga effekterna av olika hinder och stötar på människors bedömningar, med korrelationer av ρ = 0:881⁄20:81; 0:93 mellan människor och modellens hindervisa skillnader i det obotliga tillståndet och ρ = 0:641⁄20:46; 0:77 mellan deras kövisa skillnader i det aktuella tillståndet. Att IPE-modellen förutspådde bedömningar för dessa variabla och komplexa scenarier på så höga nivåer, jämförbara med de enklare experimenten ovan, är det starkaste beviset för att vår modell fångar människors kapacitet för rika mentala simuleringar av den fysiska världen. Tillnärmningar. Medan IPE-modellen som testats ovan försöker representera scenstruktur, fysisk dynamik och sannolikheter troget, med tanke på begränsningarna i en enkel simuleringsmotor och Monte Carlo inference-schema, är den mänskliga IPE sannolikt begränsad av ytterligare resursbegränsningar och kan anta ännu grövre approximationer. Till exempel, i stället för att använda många simuleringsprover för att representera en fullständig bakre prediktiv fördelning, människor kan basera sina förutsägelser på endast mycket få prover. Vi uppskattade antalet prover som bidrar till en försökspersons bedömning genom att jämföra variansen i försökspersonernas svar på variansen i modellens svar, under antagandet att eftersom IPE samlar fler prover kommer dess försök-för-prövning varians att minska, och fann att människors bedömningar var förenliga med att ha baserats på ungefär tre till sju stokastiska simuleringsprover (SI Bilaga: Caimating Probabilitys and Fig. S6 A-E)............................................................................................. Vi jämförde också IPE-modellvarianter som var begränsade till dessa små provstorlekar med de stora provmodeller som testades ovan och fann att även dessa små provstorlekar var tillräckliga för att väl uppskatta de prediktiva sannolikhetsfördelningen i våra uppgifter (Fig. S6 F-J).............................................................. I andra analyser fann vi att människor kan falla tillbaka på icke-simulationsbaserad heuristik när simuleringar skulle kräva för mycket tid och precision för att vara användbara (SI Appendix: Catimating Physics) och att fördomar i hur människor förutsäga rörelser av icke konvexa objekt (10, 24) kan förklaras av en IPE som uppskattar objektets okända massfördelningar billigt, med hjälp av förenklade geometriska tidigare. Även om preliminära, dessa resultat tyder på att över en rad scener och uppgifter, även ett litet antal grova probabilistiska simuleringar över korta intervall kan stödja effektiva fysiska slutsatser och förutsäga väl människors bedömningar. Vi föreslog att människors fysiska scenförståelse kan förklaras av en simuleringsbaserad IPE som vi formaliserade och testade i ett brett spektrum av experiment. Denna IPE-modell stod väl för olika fysiska bedömningar i komplexa, nya scener, även i närvaro av varierande objektegenskaper såsom massa och osäkra yttre krafter som kunde störa scenen. Varianter av IPE-modellen som inte var känsliga för dessa fysiska skillnader passar konsekvent mindre bra, liksom kombinationer av geometriska egenskaper för särskilda ändamål som inte modellerade fysik och måste skräddarsys för varje experiment (Fig. S4 och SI Bilaga: Modellfria konton), ytterligare stödja fallet att mänskliga intuitioner drivs av rika fysiska simuleringar. Att dessa simuleringar är probabilistiska stöddes starkt av de systematiska avvikelserna i människors bedömningar från fysiska simuleringar av grundsanning (den fysiska simuleringen σ = 0; på = 0-modellen), liksom förekomsten av vissa stabilitets illusioner (Fig. 1F och Bild. 2 B-D), som alla naturligtvis förklaras av införlivandet av osäkerhet. Andra illusioner och felmönster (Exp. S2 och Fig. S5 ) peka på andra sätt på vilka dessa simuleringar approximerar den fysiska verkligheten endast grovt, men effektivt nog för de flesta vardagliga handlingsplanering ändamål. Probabilistisk approximativ simulering erbjuder därmed en kraftfull kvantitativ modell av hur människor förstår den dagliga fysiska världen. Detta förslag är i stort sett förenligt med andra nyligen framlagda förslag om att intuitiva fysiska bedömningar kan ses som en form av probabilistisk slutsats om Newtonmekanikens principer (den bullriga Newtonhypotesen) (11) (12) (13) (14). Tidigare bullriga Newton-modeller har begränsats till att beskriva få bedömningar i enkla scenarier (t.ex. ett eller två punktliknande objekt som rör sig i en eller två dimensioner). Vårt arbete skiljer sig främst i sitt fokus på simuleringsspecifikt rika, 3D-objektbaserade simuleringar – som det sätt på vilket fysisk kunskap representeras och probabilistisk inferens utförs. Vår modell kan beskriva många bedömningar om komplexa naturscener, både bekanta och nya, och erbjuder en rimlig algoritmisk grund för hur människor kan göra dessa bedömningar. Hur skulle annars människors fysiska scenförståelse kunna fungera, om inte genom modellbaserad simulering? Mycket ny forskning inom datorseende är baserad på modellfria, datadrivna metoder, som är starkt beroende av att lära av tidigare erfarenhet, antingen genom att memorera mycket stora märkta uppsättningar av exemplars eller genom utbildning kombinationer av kompakta bildfunktioner för att förutsäga bedömningar av intresse. Vi argumenterar inte mot en roll för minne eller inlärda funktioner i fysisk scen förståelse, men våra resultat tyder på att kombinationer av de mest framträdande funktioner i våra scener är otillräckliga för att fånga människors bedömningar (SI Bilaga: ModelFree Accounts och Bild. S4 )............................................................................................................... Mer allmänt verkar ett rent modellfritt konto osannolikt av flera skäl: Det skulle behöva vara tillräckligt flexibelt för att hantera ett brett spektrum av verkliga scener och slutsatser, men ändå tillräckligt kompakt för att kunna lära sig av människors ändliga erfarenhet. Det skulle också kräva ytterligare kontrollmekanismer för att avgöra vilka funktioner och bedömningsstrategier som är lämpliga för varje separat sammanhang, och det skulle ifrågasättas att förklara hur människor utför nya uppgifter i obekanta scener eller hur deras fysiska förståelse kan samverka med deras rika språk, resonemang, fantasi och planering fakulteter. Modellbaserat resonemang är däremot mer flexibelt och allmänt syfte och kräver inget omfattande uppgiftsspecifikt lärande. Vi känner inte till någon annan metod som är en rimlig konkurrent för att göra fysiska slutsatser och förutsäga Vad kommer att hända? i vardagliga scenarier-låta en som kvantitativt kan matcha IPE-modellens överensstämmelse med människors bedömningar över hela vårt sortiment av experiment. Vi uppmuntrar dock alternativ som kan konkurrera med vårt konto och som har gjort våra stimuli och data fritt tillgängliga online för det ändamålet. Generaliteten hos en simuleringsbaserad IPE går långt utöver de inställningar som studeras här. En mer realistisk visuell front kan läggas till för att fånga människors perceptuella osäkerhet (på grund av synvinkel, belysning, eller bildocklusioner; SI Bilaga: Bayesian Vision System och Bild. S8 ) och arbetsminne och uppmärksamhetsbegränsningar (25). I det pågående arbetet finner vi att samma IPE-modell kan förklara hur människor lär sig om objektens latenta egenskaper (t.ex. massa och friktion) genom att observera deras dynamik, hur människor drar slutsatser om fasthållandeförhållanden mellan objekt i en scen och hur människor planerar åtgärder för att uppnå önskade fysiska resultat. Dess underliggande kunskap om fysik kan också utvidgas för att göra slutsatser om dynamiken i andra entitetstyper (nonrigid objekt, icke-fasta ämnen, och vätskor) som inte hanteras av ODE, men kan omedelbareras i mer sofistikerade simuleringsmotorer som Bullet eller Blender. Mer allmänt öppnar vårt arbete upp unika riktningar för att koppla människors förståelse av fysiska scener till andra aspekter av kognition. Probabilistiska simuleringar kan bidra till att förklara hur fysisk kunskap påverkar upplevda scenlayouter (26-28), rörelseplanering (29), orsakssamband (11, 12), språksemantik och syntax (t.ex. "kraftdynamik") (4) och spädbarns förväntningar på objekt (2, 30). Mest allmänt, probabilistisk simulering erbjuder ett sätt att integrera symboliskt resonemang och statistisk inference-två klassiskt konkurrerande metoder för att formalisera sunt förnuft tänkande. Resultatet är en ram som både är mer kvantitativ och mer mottaglig för rigorösa psykofysiska experiment än tidigare berättelser om mänskliga mentala modeller och som också bättre kan förklara hur människor griper och interagerar med de fysiska miljöer de vistas i. ERKÄNNANDEN. Vi tackar | Detta kan göras i en fysikmotor, såsom Open Dynamics Engine (ODE), för att utvärdera strukturell stabilitet REF. | 1,596,551 | Simulation as an engine of physical scene understanding | {'venue': 'Proceedings of the National Academy of Sciences of the United States of America', 'journal': 'Proceedings of the National Academy of Sciences of the United States of America', 'mag_field_of_study': ['Physics', 'Medicine']} | 81,215 |
ABSTRACT Smarta städer håller på att bli verklighet. Olika aspekter av moderna städer automatiseras och integreras med informations- och kommunikationsteknik för att uppnå högre funktionalitet, optimerat resursutnyttjande och förvaltning samt förbättrad livskvalitet för invånarna. Smarta städer är starkt beroende av att använda olika programvaror, hårdvara och kommunikationsteknik för att förbättra verksamheten inom områden som hälso- och sjukvård, transporter, energi, utbildning, logistik och många andra, samtidigt som kostnaderna och resursförbrukningen minskar. En av de lovande teknikerna för att stödja sådana insatser är "Cloud of Things" (CoT). CoT tillhandahåller en plattform för att koppla ihop cyberdelarna av en smart stad som utförs på molnet med de fysiska delarna av den smarta staden, inklusive invånare, fordon, elnät, byggnader, vattennät, sjukhus och andra resurser. En annan användbar teknik är Fog Computing, som utökar det traditionella Cloud Computing paradigmet till kanten av nätverket för att möjliggöra lokaliserad och realtidsstöd för driftförstärkta smarta stadstjänster. Men korrekt integration och effektivt utnyttjande av CoT och Fog Computing är inte en lätt uppgift. I detta dokument diskuteras hur den tjänsteorienterade middleware (som) strategi kan bidra till att lösa några av utmaningarna med att utveckla och driva smarta stadstjänster med hjälp av CoT och Fog Computing. Vi föreslår en SOM kallad SmartCityWare för effektiv integration och utnyttjande av CoT och Fog Computing. SmartCityWare abstracts tjänster och komponenter som är involverade i smarta stadsapplikationer som tjänster tillgängliga via den serviceorienterade modellen. Detta förbättrar integrationen och möjliggör flexibel integration och utnyttjande av de olika tjänster som behövs i en smart stadsapplikation. Dessutom diskuterar vi implementering och experimentella frågor kring SmartCityWare och demonstrerar dess användning genom exempel på smarta stadstillämpningar. | I REF föreslås en Service Orienterad Middleware (som) modell för integration och användning av dimma och moln av saker (CoTs). | 30,958,581 | SmartCityWare: A Service-Oriented Middleware for Cloud and Fog Enabled Smart City Services | {'venue': 'IEEE Access', 'journal': 'IEEE Access', 'mag_field_of_study': ['Computer Science']} | 81,217 |
Populariteten i innehåll i sociala medier är ojämnt fördelad, och vissa artiklar får en oproportionerlig andel uppmärksamhet från användarna. Att förutsäga vilka nya poster som kommer att bli populära är av avgörande betydelse för både företag som är värdar för sociala medier och deras användare. Exakta förutsägelser i rätt tid skulle göra det möjligt för företagen att maximera intäkterna genom differentierad prissättning för tillgång till innehåll eller annonsplacering. Förutsägelser skulle också ge konsumenterna ett viktigt verktyg för att filtrera den ständigt växande mängden innehåll. Att förutsäga innehållets popularitet i sociala medier är dock en utmaning på grund av de komplexa interaktionerna mellan innehållskvalitet, hur webbplatsen för sociala medier väljer att lyfta fram innehåll och påverka bland användare. Även om dessa faktorer gör det svårt att förutsäga popularitet a priori, visar vi att stokastiska modeller av användarens beteende på dessa webbplatser gör det möjligt att förutsäga popularitet baserat på tidiga användarreaktioner till nytt innehåll. Genom att inkludera aspekter av webbplatsen design, sådana modeller förbättra på förutsägelser baserade på helt enkelt extrapolering från de tidiga rösterna. Vi bekräftar detta påstående på den sociala nyhetsportalen Digg med hjälp av en tidigare utvecklad modell för social röstning baserad på Diggs användargränssnitt. | Lerman m.fl. använde en stokastisk modell för att förutsäga hur populär en ny postad berättelse kommer att baseras på de tidiga reaktioner Digg användare REF. | 2,514,359 | Using a model of social dynamics to predict popularity of news | {'venue': "WWW '10", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,218 |
Vi presenterar ett bild hämtningssystem drivs av fri-hand skissade frågor föreställande form. Vi introducerar Gradient Field HoG (GF-HOG) som en avbildningsinvariant bilddeskriptor, som inkapslar lokal rumslig struktur i skissen och underlättar effektiv kodboksbaserad hämtning. Vi visar förbättrad hämtning noggrannhet över 3 ledande deskriptorer (Self Likhet, SIFT, HoG) över två datauppsättningar (Flickr160, ETHZ utökad objekt), och förklarar hur GF-HOG kan kombineras med RANSAC för att lokalisera skissade objekt inom relevanta bilder. Vi demonstrerar även en prototypskissdriven fotomontageapplikation baserad på vårt system. | Hu m.fl. REF införde Gradient Field HoG (GF-HOG) för beskrivning av bilder och införlivade GF-HOG-deskriptorerna i ett BoW-system för att förbättra hämtningsprestandan. | 2,961,839 | Gradient field descriptor for sketch based retrieval and localization | {'venue': '2010 IEEE International Conference on Image Processing', 'journal': '2010 IEEE International Conference on Image Processing', 'mag_field_of_study': ['Computer Science']} | 81,219 |
Abstract-Som moderna fordon och kommunikationsteknik avancerade apace, människor börjar tro att Intelligent Transport System (ITS) skulle vara möjligt inom ett decennium. ITS introducerar informationsteknik i transportinfrastrukturen och syftar till att förbättra trafiksäkerheten och trafiksäkerheten. Säkerheten är dock fortfarande en viktig fråga för fordonskommunikationssystemen. Detta kan åtgärdas genom säkrad gruppsändning. Därför betraktas säkra nyckelhanteringssystem som en kritisk teknik för nätsäkerhet. I detta dokument föreslår vi en ram för säker nyckelhantering inom det heterogena nätet. Säkerhetsförvaltarna spelar en viktig roll i ramverket genom att fånga informationen om fordonets avgång, inkapsla block för att transportera nycklar och sedan utföra omstanning till fordon inom samma säkerhetsdomän. Den första delen av detta ramverk är en ny nätverkstopologi baserad på en decentraliserad blockkedjestruktur. Blockkedjekonceptet föreslås förenkla den distribuerade nyckelhanteringen inom heterogena VCS-områden. I den andra delen av ramverket används den dynamiska perioden för insamling av transaktioner för att ytterligare minska den viktigaste överföringstiden under överlämnandet av fordon. Omfattande simuleringar och analyser visar effektiviteten och ändamålsenligheten i det föreslagna ramverket, där blockkedjestrukturen fungerar bättre i termer av nyckelöverföringstid än strukturen med en central chef, medan det dynamiska systemet gör det möjligt för SMs att flexibelt passa olika trafiknivåer. Index Terms-Blockchain, dynamisk nyckelhantering, överlämnande, Intelligent Transportation System (ITS), fordonskommunikationssystem (VCS). | För att underlätta processen för nyckeldistribution för heterogena fordonsnätverk har det föreslagits att säkerhetshanteraren bistår nyckelhanteringen REF. | 207,019,055 | Blockchain-Based Dynamic Key Management for Heterogeneous Intelligent Transportation Systems | {'venue': 'IEEE Internet of Things Journal', 'journal': 'IEEE Internet of Things Journal', 'mag_field_of_study': ['Computer Science']} | 81,220 |
Abstract-På grund av fördelarna med djupt lärande, i detta papper, en legaliserad djup funktion extraktion (FE) metod presenteras för hyperspektral bild (HSI) klassificering med hjälp av en konvolutional neurala nätverk (CNN). Det föreslagna tillvägagångssättet använder flera konvolutions- och poolskikt för att utvinna djupa drag från HSI, som är icke-linjära, diskriminerande och invarianta. Dessa funktioner är användbara för bildklassificering och måldetektering. | I REF föreslogs en rad regulariserade metoder för utvinning av djupa funktioner med hjälp av flera konvolutions- och poolningsskikt, som uppnådde den senaste prestandan. | 2,078,144 | Deep Feature Extraction and Classification of Hyperspectral Images Based on Convolutional Neural Networks | {'venue': 'IEEE Transactions on Geoscience and Remote Sensing', 'journal': 'IEEE Transactions on Geoscience and Remote Sensing', 'mag_field_of_study': ['Computer Science']} | 81,221 |
Automatiskt lexiskt förvärv har varit ett aktivt forskningsområde inom beräkningslingvistik i över två decennier, men den automatiska identifieringen av nya ordsenser har uppmärksammats först mycket nyligen. Tidigare arbete på detta område har begränsats av tillgången till lämpliga utvärderingsresurser. I detta dokument presenterar vi den största corpus-baserade datauppsättningen av diakroniska meningsskillnader hittills, vilket vi tror kommer att uppmuntra till ytterligare arbete på detta område. Vi beskriver sedan flera tillägg till en toppmodern ämnesmodelleringsmetod för att identifiera nya ordsenser. Denna anpassade metod visar överlägsen prestanda på vår datauppsättning av två olika corpus par jämfört med den ursprungliga metoden för båda: a) typer som har fått ett nytt sinne över tiden; och b) de symboliska instanserna av sådana nya sinnen. Ordens betydelse förändras med tiden, och i synnerhet etablerade ord får nya sinnen. Till exempel, användningar av droppe, vägg, och spränga upp i följande meningar motsvarar relativt nya sinnen av dessa ord som verkar vara ganska vanligt i text relaterad till populärkultur, men är inte listade i många ordböcker; till exempel, de alla saknas från WordNet 3.0 (Fellbaum, 1998). Beräkningslexikon är en viktig komponent i system för en mängd olika uppgifter i naturligt språkbehandling (NLP). Framgången för sådana system beror därför på kvaliteten på de lexikon de använder, och (semi-)automatiska tekniker för att identifiera nya ord-senser kan gynna tillämpad NLP genom att hjälpa till att hålla lexikon uppdaterade. Vid revidering av ordböcker måste lexikografer identifiera nya ord-senser, förutom nya ord själva; metoder som identifierar nya ord-senser kan därför också bidra till att hålla ordböcker aktuella. I detta dokument, på grund av behovet av lexikon underhåll, fokuserar vi på relativt nya ord-senser. Specifikt anser vi identifieringen av ordsenser som inte intygas i en referenskorpus, som anses representera standardanvändning, men som intygas i en fokus corpus av nyare texter. Lau m.fl. (2012) införde uppgiften att identifiera nya sinnen. De presenterade en metod för att identifiera nya ord-senser - som beskrivs här i Avsnitt 4 - och utvärderade denna metod på en mycket liten datauppsättning bestående av bara fem lemmas med en ny innebörd i en enda corpus par. | Till exempel, REF manuellt identifiera 13 målord som genomgår betyder förändring i en fokus corpus med avseende på en referens corpus (båda nyhetstext). | 5,942,812 | Novel Word-sense Identification | {'venue': 'COLING', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,222 |
Abstrakt. I detta dokument beskriver vi IRS-II (Internet Reasoning Service) en ram och implementerad infrastruktur, vars främsta mål är att stödja publicering, lokalisering, sammansättning och utförande av heterogena webbtjänster, förstärkt med semantiska beskrivningar av deras funktioner. IRS-II har tre huvudklasser av funktioner som skiljer den från andra arbeten på semantiska webbtjänster. För det första stöder den enklickspublicering av fristående programvara: IRS-II skapar automatiskt lämpliga omslag, givet pekare till den fristående koden. För det andra skiljer man uttryckligen mellan uppgifter (vad man ska göra) och metoder (hur man ska utföra uppgifter) och stöder därmed kapacitetsdriven tjänsteanknytning, flexibla kartläggningar mellan tjänster och problemspecifikationer samt dynamiskt, kunskapsbaserat tjänsteurval. Slutligen, IRS-II-tjänster är webbtjänst kompatibla - standard webbtjänster kan trivialt publiceras via IRS-II och alla IRS-II-tjänster automatiskt visas som en standard webbtjänst till andra webbtjänstinfrastrukturer. I dokumentet illustrerar vi IRS-II:s huvudsakliga funktioner genom ett scenario med en distribuerad ansökan inom hälso- och sjukvårdsområdet. | Ett annat ramverk som utvecklats för att beskriva och utföra semantisk webbtjänst är IRS-II REF (Internet Reasoning Service). | 6,538,728 | IRS-II: A Framework and Infrastructure for Semantic Web Services | {'venue': 'International Semantic Web Conference', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,223 |
Abstract-Den klassificering av sekvenser kräver en kombination av information från olika tidpunkter. I detta dokument beaktas upptäckten av ansiktsuttryck. Experiment om upptäckt av vissa ansiktsmuskelaktiveringar i videor visar att det inte alltid krävs att modellera sekvenserna helt, men att närvaron av specifika ramar (begreppsramen) kan vara tillräcklig för en tillförlitlig upptäckt av vissa ansiktsuttryck klasser. För att kunna upptäcka dessa konceptramar räcker det ofta med en standardklassificering, även om en mer avancerad klustermetod i vissa fall fungerar bättre. | I ett nyligen publicerat dokument REF Tax et al. utforskade frågan om det alltid är nödvändigt att fullständigt modellera hela sekvensen, eller om förekomsten av specifika ramar, som kallas "begreppsramar", kan vara tillräcklig för tillförlitlig upptäckt av ansiktsuttryck. | 12,940 | The Detection of Concept Frames Using Clustering Multi-instance Learning | {'venue': '2010 20th International Conference on Pattern Recognition', 'journal': '2010 20th International Conference on Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 81,224 |
Abstract-Trust är en viktig aspekt av mobila adhoc nätverk (MANETS). Det gör det möjligt för entiteter att hantera osäkerhet och okontrollerbarhet som orsakas av andras fria vilja. Tillit beräkningar och hantering är mycket utmanande frågor i MANETS på grund av beräkning komplexitet begränsningar, och oberoende rörelse av komponenter noder. Detta förhindrar direkt tillämpning av tekniker som lämpar sig för andra nätverk. I MANETS kan en opålitlig nod orsaka betydande skador och negativt påverka kvaliteten och tillförlitligheten hos data. Att analysera en knutpunkts förtroendenivå har därför en positiv inverkan på det förtroende med vilket ett företag genomför transaktioner med den knutpunkten. I detta arbete presenterar vi en detaljerad undersökning om olika förtroende computing metoder som är inriktade på MANETS. Vi lyfter fram sammanfattningen och jämförelserna av dessa tillvägagångssätt. Dessutom analyserar vi olika arbeten på trustdynamik inklusive trustutbredning, förutsägelse och aggregeringsalgoritmer, nätverksdynamikens påverkan på trustdynamiken och förtroendets inverkan på säkerhetstjänsterna. | Govindan och Mohapatra REF beskriver förtroendeberäkningar och förtroendedynamik som trustutbredning, aggregering och förutsägelse. | 1,333,339 | Trust Computations and Trust Dynamics in Mobile Adhoc Networks: A Survey | {'venue': 'IEEE Communications Surveys & Tutorials', 'journal': 'IEEE Communications Surveys & Tutorials', 'mag_field_of_study': ['Computer Science']} | 81,225 |
Vi föreslår en ny djupinlärning arkitektur för regresserande skillnader från ett rättat par stereobilder. Vi utnyttjar kunskapen om problemets geometri för att bilda en kostnadsvolym med hjälp av djupa funktionsrepresentationer. Vi lär oss att införliva kontextuell information med hjälp av 3D-konvolutioner över denna volym. Disparitetsvärden regresseras från kostnadsvolymen med hjälp av en föreslagen differentierad mjuk argmin operation, vilket gör att vi kan träna vår metod end-to-end till sub-pixel noggrannhet utan någon ytterligare efterbehandling eller legalisering. Vi utvärderar vår metod på dataseten Scene Flow och KITTI och på KITI sätter vi ett nytt toppmodernt riktmärke, samtidigt som det är betydligt snabbare än konkurrerande metoder. | REF utnyttjar geometrisk kunskap för att bygga upp en kostnadsvolym från djupa funktionsrepresentationer. | 2,658,860 | End-to-End Learning of Geometry and Context for Deep Stereo Regression | {'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 81,226 |
Abstract En förbättrad DV-HOP localization algoritm föreslås baserat på den traditionella DV-HOP localization algoritm i tidningen. Det kommer att bli ett stort fel att använda den närmaste ankarnoden genomsnittliga humleavstånd istället för den genomsnittliga humleavståndet för alla ankarnoder som deltar i lokaliseringen i den traditionella DV-HOP lokalisering algoritm. Den förbättrade algoritmen inför därför tröskel M, den använder viktade genomsnittliga humleavstånd för ankarnoder inom M humle för att beräkna det genomsnittliga humleavståndet för okända noder. Dessutom korrigeras positioneringsresultaten i den förbättrade algoritmen. Simuleringsresultaten visar att den nya lokaliseringsalgoritmen effektivt förbättrar positioneringsnoggrannheten jämfört med den traditionella DV-HOP lokaliseringsalgoritmen, det är en effektiv lokaliseringsalgoritm i de trådlösa sensornätverken. | En tröskel införs i REF, som använder viktade genomsnittliga humleavstånd för ankare inom humle, inte alla ankare i nätverk av ursprungliga DV-hop-system för att beräkna genomsnittliga humleavstånd för okända noder, och lokaliseringsresultaten korrigeras av detta DV-hopbaserade system. | 4,696,741 | An improvement of DV-Hop localization algorithm for wireless sensor networks | {'venue': None, 'journal': 'Telecommunication Systems', 'mag_field_of_study': ['Computer Science']} | 81,227 |
Sammanfattning av denna webbsida: Grid computing är en högpresterande datormiljö för att lösa större krav på beräkning. Grid computing innehåller resurshantering, schemaläggning av uppgifter, säkerhetsproblem, informationshantering och så vidare. Schemaläggning av uppgifter är en grundläggande fråga när det gäller att uppnå hög prestanda i nätdatasystem. Men det är en stor utmaning för effektiv planering algoritm design och genomförande. I detta dokument, en heuristisk metod baserad på partikel svärm optimering algoritm antas för att lösa problem med uppgift schemaläggning i rutnät miljö. Varje partikel representeras av en möjlig lösning, och positionsvektorn omvandlas från den kontinuerliga variabeln till den diskreta variabeln. Detta tillvägagångssätt syftar till att generera ett optimalt schema för att få så kort tid som möjligt att slutföra uppgifterna. Resultaten av simulerade experiment visar att partikelsvärmens optimeringsalgoritm kan få det bättre schemat än den genetiska algoritmen. | REF har antagit ett heuristiskt tillvägagångssätt baserat på optimering av partikelsvärmen för att lösa problem med schemaläggning av uppgifter i en rutnätsmiljö. | 15,895,005 | A Task Scheduling Algorithm Based on PSO for Grid Computing | {'venue': None, 'journal': 'International Journal of Computational Intelligence Research', 'mag_field_of_study': ['Computer Science']} | 81,228 |
Djupa neurala nätverk (DNN) har uppnått genombrott i applikationer med stor provstorlek. När man står inför hög dimension, låg provstorlek (HDLSS) data, såsom fenotyp förutsägelse problem med hjälp av genetiska data i bioinformatik, DNN lider av översittande och högvarians gradienter. I detta dokument föreslår vi en DNN-modell som är skräddarsydd för HDLSS-data, kallad Deep Neural Pursuit (DNP). DNP väljer en delmängd av funktioner med hög dimension för att lindra övermontering och tar genomsnittet över flera dropouts för att beräkna lutningar med låg varians. Som den första DNN-metoden som tillämpas på HDLSS-data, har DNP fördelarna med hög icke-linjäritet, robusthet till hög dimensionalitet, förmåga att lära sig från ett litet antal prover, stabilitet i valet av funktioner, och end-to-end utbildning. Vi demonstrerar dessa fördelar med DNP via empiriska resultat på både syntetiska och verkliga biologiska datauppsättningar. | Särskilt, backpropagation gradienter i neurala nätverk är av hög varians på HDLSS data, vilket följaktligen orsakar modellen overfit REF. | 27,752,592 | Deep Neural Networks for High Dimension, Low Sample Size Data | {'venue': 'IJCAI', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,229 |
I många kliniska beslutsstödsystem används en tvålagers kunskapsbasmodell (sjukdomssymtom) av regelresonemang. Denna modell uttrycker ofta inte kunskap särskilt väl eftersom den helt enkelt leder till sjukdom genom förekomsten av vissa symtom. I denna studie föreslår vi en treskikts kunskapsbasmodell (sjukdomssymtom-egendom) för att utnyttja mer användbar information i slutledning. Systemet iteratively beräknar sannolikheten för patienter som kan lida av sjukdomar baserade på en multisymtom naiv Bayes algoritm, där specificiteten av dessa sjukdomssymtom viktas av uppskattningen av graden av bidrag till diagnosen sjukdomen. Det minskar avsevärt beroendena mellan attribut för att tillämpa den naiva Bayes algoritm mer korrekt. Därefter slutfördes inlärningsprocessen online för parameteroptimering av inferencemotorn. Äntligen utvärderades vårt beslutsstödsystem med hjälp av trelagersmodellen formellt av två erfarna läkare. Genom jämförelser mellan prognosresultat och kliniska resultat kan vårt system ge effektiva kliniska rekommendationer till läkare. Dessutom fann vi att treskiktsmodellen kan förbättra noggrannheten hos förutsägelser jämfört med tvåskiktsmodellen. Mot bakgrund av några av begränsningarna i denna studie identifierar och diskuterar vi också flera områden som behöver förbättras. | Jiang m.fl. I REF föreslogs en treskiktsbaserad kunskapsbaserad modell (sjukdomsymptom-egendom) för att diagnostisera en sjukdom, vilket avsevärt minskar beroendet mellan attribut och förbättrar exaktheten av förutsägelser. | 33,996,381 | The Research of Clinical Decision Support System Based on Three-Layer Knowledge Base Model | {'venue': 'Journal of healthcare engineering', 'journal': 'Journal of healthcare engineering', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 81,230 |
Abstract-Internet upplever en betydande ökning av videotrafiken. Med tanke på de begränsade nätverksbandbredd resurser, hur man ger Internet-användare med bra videouppspelning kvalitet-av-tjänst (QoS) är ett viktigt problem. För videoklipp konkurrerande bandbredd, föreslår vi en strategi för Content-Aware distorsion-Fair (CAF) video leveranssystem, som är medveten om egenskaperna hos videoramar och säkerställer maximal-min distorsion-fair delning mellan videoflöden. CAF utnyttjar innehållsmedvetenheten för att prioritera paketdroppar vid överbelastning. CAF skiljer sig från bandbredd rättvis delning, mål end-to-end video uppspelning kvalitet rättvisa bland användare. Den föreslagna CAF-metoden kräver inte modellering av källans värdesnedvridning, vilket är svårt att uppskatta. Istället utnyttjar den temporal förutsägelse struktur videosekvenser tillsammans med en ram släppa distorsion metrisk för att styra resurstilldelningar och koordinationer. Experimentella resultat visar att det föreslagna tillvägagångssättet fungerar med begränsade omkostnader i beräkning och kommunikation, och ger bättre QoS, särskilt när nätet är överbelastat. | I REF föreslås ett system för att leverera videoströmmar baserade på videoramarnas egenskaper. | 6,287,739 | Content-Aware Distortion-Fair Video Streaming in Congested Networks | {'venue': 'IEEE Transactions on Multimedia', 'journal': 'IEEE Transactions on Multimedia', 'mag_field_of_study': ['Computer Science']} | 81,231 |
Abstract-In programvaruindustrier, individer på olika nivåer från kund till ingenjör tillämpa olika mekanismer för att upptäcka vilken klass en viss bugg bör tilldelas. Ibland medan en enkel sökning på Internet kan vara till hjälp, används i många andra fall mycket arbete för att analysera felrapporten för att klassificera felet. Så det finns ett stort behov av en strukturerad gruvalgoritm - där med tanke på en kraschlogg, skulle den befintliga feldatabasen kunna brytas för att ta reda på vilken klass felet ska tilldelas. Detta skulle innebära gruvmönster och tillämpning av olika klassificeringsalgoritmer. Detta dokument fokuserar på funktionsextraktion, bullerminskning i data och klassificering av nätverksbuggar med probabilistisk Naïve Bayes strategi. Olika händelsemodeller som Bernoulli och Multinomial tillämpas på de extraherade funktionerna. När nya osedda fel ges som indata till algoritmerna görs prestandajämförelsen mellan olika algoritmer på grundval av noggrannhets- och återkallandeparametrar. | Dommati m.fl. Ref har fokuserat på funktionsextraktion, bullerminskning i data och klassificering av nätverksbuggar med en probabilistisk Naïve Bayes-strategi. | 18,480,655 | Bug Classification: Feature Extraction and Comparison of Event Model using Na\"ive Bayes Approach | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 81,232 |
Abstrakt. När HPC-gemenskapen försöker nå exaskala prestanda, makt kommer att vara en av de mest kritiska begränsade resurser. Att uppnå praktisk exaskala beräkning kommer därför att förlita sig på att optimera prestanda som är föremål för en effektbegränsning. Denna ytterligare komplikation bör dock inte öka bördan för programutvecklare; optimering av run-time miljö med begränsad kraft kommer i första hand att vara jobbet för högpresterande system programvara. Detta dokument introducerar dirigent, ett run-time system som intelligent distribuerar tillgänglig kraft till noder och kärnor för att förbättra prestanda. De viktigaste teknikerna som används är utforskning av konfigurationsutrymme och adaptiv effektbalansering. Konfigurationsprospektering väljer dynamiskt den optimala trådkonvergensnivån och DVFS-tillståndet med en hårdvaruförstärkt kraftbindning. Adaptive power balance bestämmer effektivt var kritiska vägar sannolikt kommer att uppstå så att mer kraft fördelas till dessa vägar. Större kraft, i sin tur, tillåter ökad trådkonvergens nivåer, DVFS stater, eller båda. Vi beskriver dessa tekniker i detalj och visar att, jämfört med den state-of-the-art tekniken att använda statiskt förutbestämda, per-node power caps, Conductor leder till en bästa-fall prestandaförbättring på upp till 30%, och genomsnittlig förbättring på 19,1%. Den amerikanska regeringen, liksom europeiska och asiatiska organ, har satt som mål att nå exaskala dator på mindre än 10 år. Men om vi skulle bygga en exaskalamaskin av dagens hårdvara, skulle den förbruka en halv gigawatt kraft [21, 13] och i praktiken kräva ett särskilt kraftverk. I verkligheten finns det en praktisk makt bunden, som är mycket hårdare, och en sådan bunden allmänt används av både forskning samt industriella högpresterande dator (HPC) gemenskapen är 20 megawatt [2]. Det är uppenbart att framtida HPC-system kommer att ha en effektbegränsning för hela systemet som kommer att filtrera ner till kraftbegränsningar på jobbnivå. Målet på jobbnivå kommer att vara att optimera prestandan under förutsättning att en föreskriven effekt är bunden. HPC-användare har tillräckligt att hantera med att säkerställa korrekthet och upprätthålla tillräcklig prestanda, så uppgiften att upprätthålla den jobbnivå makt bör lämnas till | Samma grupp introducerade också Conductor REF, ett dynamiskt körtidssystem som styr kraft till den kritiska vägen i beräkningen för att minimera den totala körtiden under ett effekttak. | 11,885,943 | A Run-Time System for Power-Constrained HPC Applications | {'venue': 'ISC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,233 |
I detta dokument föreslår vi en robust objektspårningsalgoritm med hjälp av en samarbetsmodell. Eftersom den största utmaningen för objektspårning är att ta hänsyn till drastiska utseendeförändringar föreslår vi en robust utseendemodell som utnyttjar både holistiska mallar och lokala representationer. Vi utvecklar en sparsitetsbaserad discriminative classifier (SD-C) och en sparsitetsbaserad generativ modell (SGM). I S-DC-modulen introducerar vi en effektiv metod för att beräkna det konfidensintervall som tilldelar förgrunden fler vikter än bakgrunden. I SGM modulen föreslår vi en ny histogram-baserad metod som tar den rumsliga informationen för varje patch i beaktande med en ocklusion handing schema. Uppdateringssystemet tar dessutom hänsyn till både de senaste iakttagelserna och den ursprungliga mallen, vilket gör det möjligt för spåraren att hantera utseendeförändringar på ett effektivt sätt och lindra driftproblemen. Många experiment på olika utmanande videor visar att den föreslagna spåraren presterar gynnsamt mot flera toppmoderna algoritmer. | Zhong m.fl. REF utvecklar en hybrid tracking metod, där en sparsity-baserad discriminative clasfier (SDC) och en sparsity-baserad generative modell (SGM) kaskad för mätning av målplats. | 15,725,489 | Robust object tracking via sparsity-based collaborative model | {'venue': '2012 IEEE Conference on Computer Vision and Pattern Recognition', 'journal': '2012 IEEE Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 81,234 |
Abstract-analys av rörelsemönster är en effektiv metod för anomali upptäckt och beteendeförutsägelse. Nuvarande metoder för analys av rörelsemönster beror på kända scener, där objekt rör sig på fördefinierade sätt. Det är mycket önskvärt att automatiskt konstruera objektrörelsemönster som återspeglar kunskapen om scenen. I detta dokument presenterar vi ett system för automatiskt lärande rörelsemönster för anomali upptäckt och beteendeförutsägelse baserat på en föreslagen algoritm för robust spårning av flera objekt. I spårningsalgoritmen samlas förgrundspixlar med hjälp av en snabbt exakt fuzzy K-means-algoritm. Växande och förutsägelse av kluster centroider av förgrunds pixlar se till att varje kluster centroid är associerad med ett rörligt objekt i scenen. I algoritmen för att lära sig rörelsemönster samlas banor hierarkiskt med hjälp av rumslig och temporal information och sedan representeras varje rörelsemönster med en kedja av Gaussiska distributioner. Baserat på de inlärda statistiska rörelsemönstren används statistiska metoder för att upptäcka anomalier och förutsäga beteenden. Vårt system testas med hjälp av bildsekvenser förvärvade, respektive från en fullsatt verklig trafik scen och en modell trafik scen. Experimentella resultat visar robustheten av spårningsalgoritmen, effektiviteten av algoritmen för att lära sig rörelsemönster, och uppmuntrande prestanda av algoritmer för anomali upptäckt och beteendeförutsägelse. | För att spåra flera objekt, Hu et al. REF föreslog ett system som automatiskt lär sig rörelsemönster av rörliga objekt och använder en fuzzy k-means-baserad spårningsalgoritm. | 7,839,639 | A system for learning statistical motion patterns | {'venue': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'journal': 'IEEE Transactions on Pattern Analysis and Machine Intelligence', 'mag_field_of_study': ['Computer Science', 'Medicine']} | 81,235 |
Vi utökar förmågan hos neurala nätverk genom att koppla dem till externa minnesresurser, som de kan interagera med genom uppmärksamhetsprocesser. Det kombinerade systemet är jämförbart med en Turing Machine eller Von Neumann arkitektur men är differentiable end-toend, vilket gör det möjligt att effektivt tränas med lutning nedstigning. Preliminära resultat visar att Neural Turing Machines kan härleda enkla algoritmer som kopiering, sortering och associativ återkallelse från in- och utgång exempel. | REF introducerade en Neural Turing Machine (NTM), en differentierad extern minnesarkitektur, och visade att den kan lära sig algoritmer som kopiering och omvänd. | 15,299,054 | Neural Turing Machines | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 81,236 |
Topppresterande djuparkitekturer är utbildade på massiva mängder märkta data. I avsaknad av märkta data för en viss uppgift, ger domänanpassning ofta ett attraktivt alternativ med tanke på att märkta data av liknande natur men från en annan domän (t.ex. Syntetiska bilder) finns tillgängliga. Här föreslår vi en ny strategi för domänanpassning i djupa arkitekturer som kan tränas på stora mängder märkta data från källdomänen och stora mängder omärkta data från måldomänen (inga märkta måldomändata behövs). I takt med att utbildningen fortskrider främjar metoden framväxten av "djupa" funktioner som är i) diskriminerande för den huvudsakliga inlärningsuppgiften på källdomänen och ii) invarianta när det gäller övergången mellan domänerna. Vi visar att detta anpassningsbeteende kan uppnås i nästan alla feed-forward-modeller genom att utöka det med få standardlager och ett enkelt nytt gradientreverseringslager. Den resulterande utökade arkitekturen kan tränas med hjälp av standard backpropagation. Sammantaget kan hela strategin genomföras med liten ansträngning med hjälp av något av de djuplärande paketen. | I REF föreslår Ganin och Lempitsky ett tillvägagångssätt för domänanpassning för att lära sig diskriminerande funktioner från en märkt källkodsdomän. | 6,755,881 | Unsupervised Domain Adaptation by Backpropagation | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 81,237 |
Recursively-konstruerade kopplingar har tidigare använts för att blanda på träd. Vi visar hur man utvidgar denna teknik till icke-trädliknande grafer som t.ex. gitter. Med hjälp av denna metod får vi följande generella resultat. Antag att G är en triangelfri graf och att för vissa Δ ≥ 3 är den maximala G-graden högst Δ. Vi visar att spinnsystemet som består av q-färger av G har en stark rumslig blandning, förutsatt att q > αΔ − γ, där α på 1,76322 är lösningen till α = e, och γ = på 0.47031. Observera att vi inte har någon ytterligare nedre gräns på q eller Δ. Detta är viktigt för oss eftersom vårt huvudsakliga mål är att ha resultat som är tillämpliga på gitter som studeras i statistisk fysik såsom heltal lattice Z d och triangulär lattice. För dessa grafer (i själva verket för alla grafer där avståndet-k grannskapet av en vertex växer sub-exponentiellt i k), innebär stark rumslig blandning att det finns en unik oändlig volym Gibbs åtgärd. Det vill säga, det finns en makroskopisk jämvikt snarare än många. Vårt allmänna resultat ger till exempel en "handproof" av stark rumslig blandning för 7-färger av triangelfria 4-regelbundna grafer. (Datorstödda bevis på detta resultat tillhandahölls av Salas och Sokal (för rektangulär lattice) och av Bubley, Dyer, Greenhill och Jerrum.) Det ger också ett hand bevis på stark rumslig blandning för 5-färger av triangelfria 3-regelbundna grafer. (Ett datorstödd bevis för det speciella fallet med det hexagonala gallret tillhandahölls tidigare av Salas och Sokal.) Mot slutet av pappret visar vi hur vi kan förbättra vår allmänna teknik genom att ta hänsyn till lattisens geometri. Tanken är att konstruera rekursiv koppling från ett system av upprepningar snarare än från en enda upprepning. Vi använder geometrin av lattice för att härleda systemet av upprepningar. Detta ger oss en analys med en horisont av mer än en induktionsnivå, vilket leder till förbättrade resultat. Vi illustrerar denna idé genom att bevisa stark rumslig blandning för q = 10 på lattice Z 3. Slutligen tillämpar vi idén på den triangulära latticen och lägger till beräkningsstöd. Detta ger oss ett (maskinstödd) bevis på stark rumslig blandning för 10-färger av den triangulära lattice. (Ett sådant bevis för 11 färger gavs av Salas och Sokal.) För fullständighet, visar vi också att vår starka rumsliga blandning bevis innebär snabb blandning av Glauber dynamik för provtagning ordentliga färger av grannskap-amenable grafer. (Det är känt att stark rumslig blandning ofta innebär snabb blandning, men befintliga bevis verkar skrivas för Z d.) Således våra starka rumsliga blandningsresultat ger snabb blandning korollärer för grannskap-amenable grafer såsom lattices. | Resultaten av 9-färger av den triangulära lattice som vi presenterar i detta dokument bygger på det 10-färg bevis som ges av Goldberg, Martin och Paterson i REF. | 12,157,996 | Strong spatial mixing with fewer colours for lattice graphs | {'venue': 'Proc. 45th IEEE Symp. on Foundations of Computer Science', 'journal': None, 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 81,238 |
Abstract-Vi undersöker användningen av partisk provtagning enligt densiteten hos de data som sätts in för att påskynda driften av allmänna data mining uppgifter, såsom kluster och avvikande upptäckt i stora flerdimensionella datamängder. Vid täthetsdifferentierad provtagning beror sannolikheten för att en given punkt ska ingå i provet på den lokala densiteten i datamängden. Vi föreslår en allmän teknik för densitetsbaserad provtagning som kan faktor i användarkrav för att prov för egenskaper av intresse och kan ställas in för specifika data mining uppgifter. Detta möjliggör stor flexibilitet och förbättrad noggrannhet av resultaten över enkel slumpmässig provtagning. Vi beskriver vårt förhållningssätt i detalj, vi utvärderar det analytiskt och visar hur det kan optimeras för ungefärlig klusterbildning och avvikande upptäckt. Slutligen presenterar vi en grundlig experimentell utvärdering av den föreslagna metoden, med tillämpning av densitetsbaserad provtagning på verkliga och syntetiska datamängder, och med användning av kluster- och avvikande detektionsalgoritmer, vilket belyser nyttan av vårt tillvägagångssätt. | Kollios m.fl. REF undersöker användningen av partisk provtagning i enlighet med densiteten hos de data som sätts in för att påskynda driften av allmänna datautvinningsuppgifter, inklusive klusterbildning, på stora flerdimensionella datamängder. | 2,612,317 | Efficient Biased Sampling for Approximate Clustering and Outlier Detection in Large Datasets | {'venue': 'IEEE TRANSACTIONS ON KNOWLEDGE AND DATA ENGINEERING', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,239 |
Abstract-Model-Driven Engineering (MDE) kan betraktas som rätt verktyg för att minska komplexiteten i utvecklingen av Wireless Sensor Network (WSN) genom dess principer för abstraktion, separation av problem, återanvändning och automatisering. I detta dokument presenterar vi resultaten av en systematisk kartläggningsstudie som vi utfört för att ge en organiserad bild av befintliga MDE-strategier för att utforma WSN. Totalt analyserades 780 studier, bland dem valde vi 16 dokument som primära studier som var relevanta för granskning. Vi sätter upp en jämförelseram för dessa studier, och klassificerar dem utifrån en uppsättning gemensamma parametrar. Huvudsyftet med vår forskning är att ge en överblick över state-of-the-art av MDE-strategier tillägnad WSN design, och slutligen, diskutera nya utmaningar som måste beaktas i framtida MDE-strategier för teknik WSNs. | MDD har redan erkänts som rätt verktyg för att ta itu med komplexiteten i trådlösa Sensor Networks utveckling utnyttjar abstraktion, återanvändning, separation av problem och automation REF. | 18,264,323 | A Study on MDE Approaches for Engineering Wireless Sensor Networks | {'venue': '2014 40th EUROMICRO Conference on Software Engineering and Advanced Applications', 'journal': '2014 40th EUROMICRO Conference on Software Engineering and Advanced Applications', 'mag_field_of_study': ['Computer Science']} | 81,240 |
Detta dokument ger nya dualities vara-linjära nätkoder. Vi visar att de konstruerade multween entropy funktioner och nätkoder. Dessa ticast problem är linjärt lösbara om och endast om h är en dualitet resultat ger ett alternativt bevis på insufentropy funktion för slumpmässiga variabler som genereras av vecficiency linjära (och abeliska) nätverkskoder, och tor utrymmen. En motsvarande begränsande form av denna dualitet visar också nyttan av icke-Shannon ojämlikheter tillhandahålls. Slutligen, genom att lätta på kravet att dra åt yttre gränser på nätkodningskapacitet domänen h vara undergrupper av slumpmässiga variabler, vi obregioner. i teorem 3 en dualitet mellan polymatroider och den linjära programmeringen bunden. Dessa dualiteter löser I. INLEDNING det öppna problemet från [14], där ett specialfall av Theorem 1 visades för fyra variabler. Ett grundläggande problem i nätkodning är att un-Dessa dualitet resultat ger flera omedelbara corollarder stå kapacitet regionen och de klasser av koder som ies. Framför allt tillhandahåller vi ett alternativt bevis för att [4,15] uppnå kapacitet. I den enda session multicast scenario, för bristen på linjära (och abelianska) nätverk kodar problemet är väl förstådd. I synnerhet, Capac-för multi-source problem, och visa nyttighet regionen kännetecknas av max-flöde / min-cut gränser för icke-Shannon ojämlikheter för att strama yttre gränser på och linjära nätkoder är tillräckligt för att uppnå maximal nät kodning kapacitet regioner. genomströmning [1, 4]. Betydande praktiska och teoretiska komplikationer | Chan och Grant Ref visade en dualitet mellan entropifunktioner och hastighetsregioner i nätverk och gav ett alternativt bevis för att linjära delkoder över ändliga fält inte nödvändigtvis uppnår kapaciteten. | 157,591 | Dualities between Entropy Functions and Network Codes | {'venue': '2008 Fourth Workshop on Network Coding, Theory and Applications', 'journal': '2008 Fourth Workshop on Network Coding, Theory and Applications', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 81,241 |
I detta dokument föreslås en ny ram för bootstrappning med hjälp av projektion av flerspråkig information. Vi visar att denna ram är särskilt effektiv för en utmanande NLP-uppgift som ligger i slutet av en rörledning och därmed lider av de fel som sprids från tidigare bearbetning och har låg prestanda baslinje. Med hjälp av kinesiska händelsen extraktion som en fallstudie och bitexts som en ny källa till information, presenterar vi tre bootstrapping tekniker. Vi drar först slutsatsen att den vanliga enspråkiga bootstrappningen inte är så effektiv. Sedan utnyttjar vi en andra metod som potentiellt drar nytta av den extra information som fångas av en engelsk händelse extraktionssystem och projiceras till kinesiska. Ett sådant crosslingualt system ger betydande resultat. Slutligen visar vi att kombinationen av enspråkig och tvärspråkig information i bootstrappa ytterligare kan förbättra prestandan. I slutändan fick detta nya ramverk en relativ förbättring på 10,1 % i fråga om utlösningsmärkning (F-åtgärd) och 9,5 % i fråga om argumentmärkning. | I det andra syftet föreslog REF en ram för gemensam utbildning mellan två språk, där man använder kinesisk händelseextrahering som fallstudie och tvåspråkiga texter som en ny informationskälla. | 7,085,001 | Can One Language Bootstrap the Other: A Case Study on Event Extraction | {'venue': 'Proceedings of the NAACL HLT 2009 Workshop on Semi-supervised Learning for Natural Language Processing', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,242 |
Att studera naturligt språk, och särskilt hur människor beskriver världen runt omkring dem, kan hjälpa oss att bättre förstå den visuella världen. Den kan i sin tur också hjälpa oss att skapa ett naturligt språk som beskriver den här världen på ett mänskligt sätt. Vi presenterar en enkel men effektiv metod för att automatiskt komponera bildbeskrivningar givet datorseende baserade ingångar och med hjälp av web-scale n-grams. Till skillnad från de flesta tidigare verk som sammanfattar eller hämtar befintlig text som är relevant för en bild, komponerar vår metod meningar helt från grunden. Experimentella resultat visar att det är genomförbart att generera enkla textbeskrivningar som är relevanta för det specifika innehållet i en bild, samtidigt som kreativitet i beskrivningen - göra för mer mänskliga-liknande kommentarer än tidigare metoder. | Löjtnant m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m för m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m m. REF komponerar bildbeskrivningar med hjälp av datorsynbaserade indata såsom upptäckta objekt och platser med hjälp av webscale ngrams. | 10,702,193 | Composing Simple Image Descriptions using Web-scale N-grams | {'venue': 'Proceedings of the Fifteenth Conference on Computational Natural Language Learning', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,243 |
Att förstå relationerna mellan miljö, beteende och hälsa är en central fråga för folkhälsoforskare. Även om ett antal nyligen genomförda studier har undersökt användningen av sociala medier för att spåra infektionssjukdomar som influensa, har föga arbete gjorts för att avgöra om andra hälsoproblem kan härledas. I detta dokument presenterar vi en storskalig studie av 27 hälsorelaterad statistik, inklusive fetma, sjukförsäkring, tillgång till hälsosamma livsmedel och födelsetal för tonåringar. Vi utför en språklig analys av Twitter-aktiviteten i de 100 mest folkrika länen i USA, och finner en betydande korrelation med 6 av de 27 hälsostatistiken. Jämfört med traditionella modeller baserade enbart på demografiska variabler, finner vi att förstärkande modeller med Twitter-baserad information förbättrar prediktiv noggrannhet för 20 av 27 statistik, vilket tyder på att denna nya metod kan komplettera befintliga metoder. | Culotta REF använder väldefinierade lexikon som LIWC och vissa demografiska variabler om användare för att förutsäga länsomfattande hälsostatistik (t.ex. fetma och diabetes) av de 100 mest folkrika länen i USA. | 15,229,319 | Estimating county health statistics with twitter | {'venue': "CHI '14", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,244 |
Att matcha människor över icke-överlappande kameravyer, så kallad personåteridentifiering, är en utmaning på grund av bristen på rumsliga och tidsmässiga begränsningar och stora visuella förändringar som orsakas av variationer i siktvinkel, belysning, bakgrundsförlamning och ocklusion. För att ta itu med dessa utmaningar syftar de flesta tidigare tillvägagångssätt till att extrahera visuella egenskaper som är både distinkta och stabila under utseende förändringar. De flesta visuella egenskaper och deras kombinationer under realistiska förhållanden är dock varken stabila eller särskiljande och bör därför inte användas urskillningslöst. I detta dokument föreslår vi att personen återidentifieras som ett problem med distansundervisningen, som syftar till att lära sig det optimala avståndet som kan maximera matchningsnoggrannheten oavsett val av representation. I detta syfte introducerar vi en ny modell för Probabilistic Relative Distance Comparison (PRDC), som skiljer sig från de flesta befintliga metoder för distansundervisning, i stället för att minimera variation inom klassen samtidigt som den maximerar variation inom klassen, det syftar till att maximera sannolikheten för ett par äkta match med ett mindre avstånd än ett fel matchpar. Detta gör vår modell mer tolerant mot utseendeförändringar och mindre mottaglig för modellövermontering. Omfattande experiment utförs för att visa att 1) genom att formulera personens omidentifieringsproblem som ett problem för distansundervisning, kan märkbar förbättring av matchningsnoggrannheten uppnås mot konventionella personers omidentifieringsmetoder, vilket är särskilt viktigt när utbildningsprovet är litet, och 2) vårt PRDC överträffar inte bara befintliga metoder för distansundervisning utan också alternativa inlärningsmetoder som bygger på att öka och lära sig att rangordna. | Zhang m.fl. REF omvandlade problemet med personidentifiering till ett problem med distansundervisning, och en modell för matchning av fotgängare som bygger på probabilistiska relativa avstånd föreslås. | 13,619,630 | Person re-identification by probabilistic relative distance comparison | {'venue': 'CVPR 2011', 'journal': 'CVPR 2011', 'mag_field_of_study': ['Computer Science']} | 81,245 |
När det gäller statistiskt relationsbaserat lärande är kopplingsförutsägelseproblemet avgörande för att automatiskt förstå strukturen hos stora kunskapsbaser. Liksom i tidigare studier föreslår vi att lösa detta problem genom latent faktorisering. Men här använder vi oss av komplexa värdefulla inbäddningar. Sammansättningen av komplexa inbäddningar kan hantera en stor variation av binära relationer, bland dem symmetriska och antisymmetriska relationer. Jämfört med toppmoderna modeller som Neural Tensor Network och Holographic Embeddings, är vår strategi baserad på komplexa inbäddningar utan tvekan enklare, eftersom den bara använder den Hermitian dot produkten, den komplexa motsvarigheten till standard dot produkten mellan verkliga vektorer. Vårt tillvägagångssätt är skalbart till stora datauppsättningar eftersom det förblir linjärt i både rum och tid, samtidigt som vi konsekvent överträffar alternativa tillvägagångssätt på referensvärden för standardlänkprognoser. | REF använde komplexa värdeinslag för att förstå strukturinformationen. | 15,150,247 | Complex Embeddings for Simple Link Prediction | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 81,246 |
Vi presenterar persona-baserade modeller för att hantera frågan om högtalarkonsistens i neural responsgenerering. En högtalarmodell kodar personas i distribuerade inbäddningar som fångar individuella egenskaper såsom bakgrundsinformation och talstil. En dyadisk högtalare modell fångar egenskaper interaktioner mellan två interlokutorer. Våra modeller ger kvalitativa prestandaförbättringar i både perplexitet och BLEU-poäng jämfört med baslinje-sekvens-till-sekvens-modeller, med liknande förbättringar i högtalarkonsistens mätt med mänskliga domare. | I REF kom författarna fram till en persona-baserad modeller för att hantera frågan om högtalarkonsistens i neural response generation. | 2,955,580 | A Persona-Based Neural Conversation Model | {'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,247 |
Abstract-Heterogenous nätverk (HetNet) utbyggnad anses vara en de facto lösning för att möta den ständigt ökande efterfrågan på mobil trafik. Överdriven elanvändning i sådana nät är dock en kritisk fråga, särskilt för mobiloperatörer. Att karakterisera HetNets grundläggande energieffektivitet (EE) prestanda är därför viktigt för utformningen av gröna trådlösa system. I detta papper tar vi itu med EE optimeringsproblem för nedlänk två-tier HetNets som består av en enda makro-cell och flera pico-celler. Med tanke på en heterogen realtids- och icke-realtidstrafik beaktas gemensamt policyer för överföring av strålformning och kraftfördelning för att optimera systemets energieffektivitet. Problemet med resursallokering av EE är ett blandat kombinations- och icke-konvext optimeringsproblem, vilket är mycket svårt att lösa. För att minska den computational komplexiteten, vi sönderdela det ursprungliga problemet med flera ojämlikhet begränsningar i flera optimeringsproblem med enstaka ojämlikhet begränsning. När det gäller det senare problemet föreslås en algoritm för resursalgoritm i två skikt baserad på EE:s egenskap av kvasikonkavitet. Simuleringsresultat bekräftar de teoretiska resultaten och visar att den föreslagna resursfördelningsalgoritmen effektivt kan närma sig den optimala EE. Index Terms-Green Radio (GR), energieffektivitet (EE), heterogena nätverk (HetNet), resursfördelning. | Arbetet i REF tog upp problemet med energieffektivitetsoptimering för nedlänk av heterogena nät i två nivåer, där problemet med energiallokering bryts ned i flera optimeringsproblem med enskilda ojämlikhetsbegränsningar. | 4,356,337 | Resource Allocation for Energy Efficiency Optimization in Heterogeneous Networks | {'venue': 'IEEE Journal on Selected Areas in Communications', 'journal': 'IEEE Journal on Selected Areas in Communications', 'mag_field_of_study': ['Computer Science']} | 81,248 |
Deep Neural Networks (DNN) är kraftfulla modeller som har uppnått utmärkta resultat på svåra inlärningsuppgifter. Även om DNN fungerar bra när stora märkta träningsset finns tillgängliga, kan de inte användas för att kartlägga sekvenser till sekvenser. I detta dokument presenterar vi en allmän end-to-end strategi för sekvensinlärning som gör minimala antaganden om sekvensstrukturen. Vår metod använder en flerskiktad Long Short-Term Memory (LSTM) för att kartlägga indatasekvensen till en vektor av en fast dimensionalitet, och sedan ytterligare en djup LSTM för att avkoda målsekvensen från vektorn. Vårt huvudsakliga resultat är att på en engelsk till fransk översättning uppgift från WMT-14 dataset, de översättningar som produceras av LSTM uppnå en BLEU-poäng på 34.8 på hela testet, där LSTM: s BLEU-poäng straffades på out-of-vokabulary ord. Dessutom hade LSTM inga svårigheter med långa meningar. Som jämförelse uppnår ett frasbaserat SMT-system en BLEU-poäng på 33,3 på samma datauppsättning. När vi använde LSTM för att omvärdera de 1000 hypoteser som producerades av det tidigare nämnda SMT-systemet, ökar BLEU-poängen till 36,5, vilket är nära den senaste tekniken. LSTM lärde sig också förnuftiga uttryck och meningsrepresentationer som är känsliga för ordordning och är relativt invarianta för den aktiva och passiva rösten. Slutligen fann vi att vända ordningen av orden i alla käll meningar (men inte mål meningar) förbättrade LSTM: s prestanda markant, eftersom det införde så många kortsiktiga beroenden mellan källan och mål mening som gjorde optimeringsproblemet lättare. | För närvarande är en populär modell för textgenerering sekvens-till-sekvens modell REF. | 7,961,699 | Sequence to Sequence Learning with Neural Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 81,249 |
Det senaste arbetet har visat att man genom att använda en noggrant utformad ordbok i stället för en fördefinierad ordbok kan förbättra sparsamheten genom att gemensamt representera en grupp signaler. Detta har motiverat härledningen av inlärningsmetoder för att utforma ett lexikon som leder till den glesaste representationen för en given uppsättning signaler. I vissa tillämpningar kan intressesignalerna ha ytterligare struktur, så att de kan approximeras väl genom en förening av ett litet antal subrymder (t.ex. ansiktsigenkänning och rörelsesegmentering). Detta innebär att det finns ett lexikon som möjliggör block-spars representationer av ingångssignalerna när dess atomer är ordentligt sorterade i block. I detta dokument föreslår vi en algoritm för att lära sig en blocksparsifierande ordbok av en given uppsättning signaler. Vi kräver inte förkunskaper om förenandet av signaler i grupper (subrymder). Istället utvecklar vi en metod som automatiskt detekterar den underliggande blockstrukturen med tanke på den maximala storleken på dessa grupper. Detta uppnås genom att iterativt växla mellan uppdatering av blockstrukturen i ordboken och uppdatering av ordboken atomer för att bättre passa data. Våra experiment visar att den föreslagna algoritmen för block-sparse-data avsevärt förbättrar ordlistans återhämtningsförmåga och sänker representationsfelet jämfört med ordlistans inlärningsmetoder som inte använder blockstruktur. Index Terms-Block gleshet, ordbok design, sparsam kodning. | För att lyfta upp vissa svårigheter upptäcker REF istället blockstorlek och plats genom att iterativt växla mellan att uppdatera blockstrukturen i ordboken och uppdatera ordboken atomer för att bättre passa data. | 8,612,746 | Dictionary Optimization for Block-Sparse Representations | {'venue': 'IEEE Transactions on Signal Processing', 'journal': 'IEEE Transactions on Signal Processing', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 81,250 |
Fusion av tröghets- och visuell data används i stor utsträckning för att förbättra ett objekts pose uppskattning. Denna typ av fusion används dock sällan för att uppskatta ytterligare okända i det visuella ramverket. I detta dokument presenterar och jämför vi två olika metoder för att uppskatta den okända skalparametern i ett monokulärt SLAM-ramverk. Direkt kopplad till skalan är uppskattningen av objektets absoluta hastighet och position i 3D. Den första metoden är en spline monteringsuppgift anpassad från Jung och Taylor och den andra är en utökad Kalman filter. Båda metoderna har simulerats offline på godtyckliga kameravägar för att analysera deras beteende och kvaliteten på den resulterande skaluppskattningen. Vi inbäddade sedan en online multirate utökad Kalman filter i Parallel Tracking och Mapping (PTAM) algoritm av Klein och Murray tillsammans med en tröghetssensor. I denna tröghets/monokulära SLAM ram visar vi en realtid, robust och snabb konvergering skala uppskattning. Vårt tillvägagångssätt beror inte på kända mönster i syndelen eller en komplex tidssynkronisering mellan den visuella och tröghetssensorn. Den forskning som leder fram till dessa resultat har fått finansiering från Europeiska gemenskapens sjunde ramprogram (FP7/2007(FP7/2013) enligt bidragsavtal nr 231855 (sFly). Gabriel Nützi är för närvarande masterstudent vid ETH | Den absoluta skalan återvinns genom ett Kalmanfilter REF. | 2,294,036 | Fusion of IMU and Vision for Absolute Scale Estimation in Monocular SLAM | {'venue': None, 'journal': 'Journal of Intelligent & Robotic Systems', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 81,251 |
Vi introducerar en metod för att använda djupa neurala nätverk för att avskriva kostnaden för inferens i modeller från familjen som induceras av universella probabilistiska programmeringsspråk, upprätta en ram som kombinerar styrkor av probabilistiska programmering och djupt lärande metoder. Vi kallar det vi gör "sammanställning av inferens" eftersom vår metod omvandlar en definitionsspecifik specifikation av ett inferensproblem i form av ett probabilistiskt program skrivet i ett universellt programmeringsspråk till ett utbildat neuralt nätverk betecknat i ett neuralt nätverksspecifikationsspråk. När vid testtid detta neurala nätverk matas observationsdata och utförs, det utför ungefärlig inference i den ursprungliga modellen som anges av det probabilistiska programmet. Vårt utbildningsmål och inlärningsprocedur är utformade så att det utbildade neurala nätverket kan användas som ett förslag distribution i en sekventiell betydelse provtagning inference motor. Vi illustrerar vår metod för blandningsmodeller och Captcha lösning och visar betydande hastigheter i effektiviteten av inferens. | Le, Beydin och Wood REF använder neurala nätverk för att stödja inferens i probabilistiska program, särskilt för att bidra till att skapa bra förslag för sekventiell betydelse provtagning. | 1,047,988 | Inference Compilation and Universal Probabilistic Programming | {'venue': 'In Proceedings of the 20th International Conference on Artificial Intelligence and Statistics (AISTATS 2017), 54:1338--1348. Proceedings of Machine Learning Research. Fort Lauderdale, FL, USA: PMLR', 'journal': None, 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 81,252 |
Vi presenterar Internet Key Service (IKS), en distribuerad arkitektur för autentiserad distribution av allmänna nycklar, lager på Secure DNS (DNSSEC). Kunder använder DNSSEC för att säkert upptäcka identiteterna hos de relevanta IKS-servrarna, och skicka förfrågningar om nyckeluppslagning eller hantering direkt till dessa servrar med hjälp av ett protokoll för särskilda ändamål. Kunder autentiserar nycklar hämtade från IKS-servrar med hjälp av viktiga åtaganden publicerade i DNSSEC. IKS hämtar sin behörighet från den myndighet DNS domäner har över Internet-namn. IKS-arkitekturen är löst kopplad med DNS för att minimera overhead på DNS-servrar. Vi presenterar också RIKS, en prototyp IKS genomförande. | Jones och Al. föreslog Internet Key Service (IKS), som är en distribuerad arkitektur för autentiserad distribution av öppna nycklar, skiktad på DNSSEC REF. | 17,050,844 | Layering public key distribution over secure DNS using authenticated delegation | {'venue': "21st Annual Computer Security Applications Conference (ACSAC'05)", 'journal': "21st Annual Computer Security Applications Conference (ACSAC'05)", 'mag_field_of_study': ['Computer Science']} | 81,253 |
Abstract-This paper beskriver en frukträkning pipeline baserad på djupt lärande som korrekt räknar frukt i ostrukturerade miljöer. Det är svårt att få tag på tillförlitliga fruktvärden på grund av variationer i utseendet på grund av ljusförändringar och ocklusioner från bladverk och angränsande frukter. Vi föreslår ett nytt tillvägagångssätt som använder djupt lärande för att kartlägga från indatabilder till totala fruktvärden. Rörledningen använder en anpassad crowdsourcing plattform för att snabbt märka stora datamängder. En blob detektor baserad på ett helt konvolutionsnätverk extraherar kandidatregioner i bilderna. En beräkningsalgoritm baserad på ett andra konvolutionsnätverk beräknar sedan antalet frukter i varje region. Slutligen, en linjär regression modell kartor som frukten räknar uppskattar till en slutlig frukt räkna. Vi analyserar prestandan av rörledningen på två distinkta datauppsättningar av apelsiner i dagsljus, och gröna äpplen på natten, att använda mänskliga genererade etiketter som marksanning. Vi visar också att rörledningen har en kort träningstid och presterar bra med en begränsad datamängd. Vår metod generaliserar över båda datamängderna och kan prestera bra även på mycket ockluderade frukter som är utmanande för människor att kommentera. | Chen och Al. Använd hela Convolutional Network (FCN) för att segmentera bilden i kandidatregioner och CNN för att räkna frukten inom varje region REF. | 5,352,148 | Counting Apples and Oranges With Deep Learning: A Data-Driven Approach | {'venue': 'IEEE Robotics and Automation Letters', 'journal': 'IEEE Robotics and Automation Letters', 'mag_field_of_study': ['Computer Science']} | 81,254 |
Vi introducerar strukturerade förutsägelser energinät (SPEN), en flexibel ram för strukturerade förutsägelser. En djup arkitektur används för att definiera en energifunktion av kandidatetiketter, och sedan förutsägelser produceras genom att använda backpropagation för att iterativt optimera energin med avseende på etiketterna. Denna djupa arkitektur fångar beroenden mellan etiketter som skulle leda till svåråtkomliga grafiska modeller, och utför strukturinlärning genom att automatiskt lära sig diskriminerande egenskaper hos den strukturerade produktionen. En naturlig tillämpning av vår teknik är multi-märkning klassifikation, vilket traditionellt har krävt strikta förutfattade antaganden om samspelet mellan etiketter för att säkerställa tractionabel inlärning och förutsägelse. Vi kan tillämpa SPENs på flermärkta problem med betydligt större etikettuppsättningar än tidigare tillämpningar av strukturerade förutsägelser, samtidigt som vi modellerar högorderinteraktioner med minimala strukturella antaganden. På det hela taget ger djupt lärande anmärkningsvärda verktyg för inlärningsegenskaper i indata till ett förutsägelseproblem, och detta arbete utvidgar dessa tekniker till inlärningsegenskaper i strukturerade resultat. Våra experiment ger imponerande prestanda på en mängd olika benchmarking-klassificeringsuppgifter, visar att vår teknik kan användas för att ge tolkningsbar strukturinlärning och belysa grundläggande kompromisser mellan feedforward och iterativ strukturerad förutsägelse. | Nyligen arbete har övervägt att tillämpa neurala nätverk till strukturerad förutsägelse; till exempel strukturerade förutsägelse energinätverk (SPENS) REF. | 6,366,436 | Structured Prediction Energy Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 81,255 |
Detta papper introducerar en algoritm som exakt uppskattar djupkartor med hjälp av en linslet ljusfältskamera. Den föreslagna algoritmen uppskattar multi-view stereokorrespondenser med sub-pixel noggrannhet med hjälp av kostnadsvolymen. Grunden för att bygga upp korrekta kostnader är trefaldig. För det första, sub-aperture bilder förskjuts med hjälp av fas skift teorem. För det andra är lutningskostnaderna adaptivt aggregerade med hjälp av ljusfältets vinkelkoordinater. För det tredje används dragkorrespondenserna mellan de underbländande bilderna som ytterligare begränsningar. Med kostnadsvolymen förökar sig den multimärkta optimeringen och korrigerar djupkartan i de svaga strukturregionerna. Slutligen är den lokala djupkartan iterativt förfinad genom att passa den lokala kvadratiska funktionen för att uppskatta en icke-diskret djup karta. Eftersom mikrolinsbilder innehåller oväntade förvrängningar föreslås också en metod som korrigerar detta fel. Effektiviteten hos den föreslagna algoritmen visas genom utmanande verkliga exempel och inklusive jämförelser med prestandan hos avancerade djupuppskattningsalgoritmer. | Till exempel Jeon et al. REF korrigerade del-aperture bilder och uppskattade multivy stereokorrespondenser med sub-pixel noggrannhet med hjälp av kostnadsvolym beräknad på summan av absoluta färg- och gradientskillnader. | 10,945,735 | Accurate depth map estimation from a lenslet light field camera | {'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 81,256 |
Med den senaste tidens ökande popularitet och storlek av sociala medier, finns det ett växande behov av system som kan extrahera användbar information från denna mängd data. Vi tar itu med problemet med att upptäcka nya händelser från en ström av Twitter-inlägg. För att göra händelsedetektering möjlig på webscale corpora presenterar vi en algoritm baserad på locality-känslig hashing som kan övervinna begränsningarna i traditionella metoder, samtidigt som konkurrenskraftiga resultat upprätthålls. I synnerhet visar en jämförelse med ett toppmodernt system om den första historiens upptäckt uppgift att vi uppnår över en storleksordning snabbare i bearbetningstiden, samtidigt som vi behåller jämförbara prestanda. Händelsedetektionsexperiment på en samling av 160 miljoner Twitter-inlägg visar att kändisdöden är de snabbast spridda nyheterna på Twitter. | Arbetet i REF presenterar en algoritm baserad på LSH för att förbättra prestandan hos händelsedetekteringssystemet. | 2,146,994 | Streaming First Story Detection with application to Twitter | {'venue': 'Human Language Technologies: The 2010 Annual Conference of the North American Chapter of the Association for Computational Linguistics', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,257 |
Generera svar med naturligt språk mening är mycket viktigt i verkliga frågor svarssystem, som behöver få ett rätt svar samt en sammanhängande naturlig svar. I detta dokument föreslår vi ett end-to-end-svarssystem som kallas CoreQA i sekvens-till-sekvens-inlärning, som innehåller kopierings- och insamlingsmekanismer för att generera naturliga svar inom ramen för en kodare-avkodare. I COREQA förutspås de semantiska enheterna (ord, fraser och enheter) i ett naturligt svar dynamiskt från vokabulären, kopieras från den givna frågan och/eller hämtas från motsvarande kunskapsbas gemensamt. Vår empiriska studie om både syntetiska och verkliga datauppsättningar visar CoreQA:s effektivitet, som kan generera korrekta, sammanhängande och naturliga svar på frågor om kunskap. | Han och Al. REF införlivar kopiering och inhämtande av kunskap från kunskapsbas lagrad i KVPN för att generera naturliga svar inom en kodare-dekoder ram. | 43,225,062 | Generating Natural Answers by Incorporating Copying and Retrieving Mechanisms in Sequence-to-Sequence Learning | {'venue': 'ACL', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,258 |
Abstract Sparse representationsbaserad klassificering har lett till intressanta bildigenkänningsresultat, medan ordboken som används för gles kodning spelar en nyckelroll i den. I detta dokument presenteras en ny metod för ordbokslärande (DL) för att förbättra prestandan i mönsterklassificeringen. Baserat på Fisher-kriteriet lär man sig ett strukturerat lexikon, vars lexikonatomer har överensstämmelse med klassbeteckningarna, så att rekonstruktionsfelet efter sparsam kodning kan användas för mönsterklassificering. Samtidigt införs kriteriet om fiskediskriminering på kodningskoefficienterna så att de har liten spridning inom klassen men stor spridning mellan klasserna. Ett nytt klassificeringssystem i samband med den föreslagna metoden för fiskediskriminering DL (FDDL) presenteras sedan av De senaste åren har bevittnat den snabba utvecklingen av teori och algoritmer för sparse representation (eller kodning) [30] och dess framgångsrika tillämpningar i bildrenovering [1] [2] [3] och komprimerad avkänning [4]. Den senaste tidens sparsamma representationsteknik har också lett till lovande resultat i bildklassificeringen, t.ex. Ansiktsigenkänning (FR) [5-7, 10, 31], siffer- och texturklassificering [8] [9] [11] [12], etc. Framgången med sparsam representation baserad klassificering beror på det faktum att en högdimensionell bild kan representeras eller kodas av några representativa prover från samma klass i ett lågdimensionellt grenrör, och den senaste utvecklingen av l 0 -norm och l 1 -norm minimering tekniker [28]. I den sparsamma representationsbaserade klassificeringen finns det två faser: kodning och klassificering. För det första kodas frågesignalen/bild tillsammans över en lexikon över atomer med vissa gleshetsbegränsningar, och klassificeringen utförs sedan baserat på kodningskoefficienterna och lexikonet. Ordlistan för gles kodning kan vara fördefinierad. Till exempel Wright et al. [5] använde direkt utbildningsprover från alla klasser som lexikon för att koda frågeansiktsbilden, och klassificerade frågeansiktsbilden genom att utvärdera vilken klass som leder till minsta möjliga återuppbyggnadsfel. Även om detta s.k. sparse representationsbaserade klassifikationssystem (SRC) visar intressanta resultat i FR, kanske det lexikon som används i det inte är tillräckligt effektivt för att representera frågebilderna på grund av den osäkra och bullriga informationen i de ursprungliga utbildningsbilderna. Antalet atomer i ett sådant lexikon kan också vara mycket stort, vilket ökar kodning komplexiteten. Dessutom kunde man genom att använda de ursprungliga utbildningsproven som lexikon inte till fullo utnyttja den diskriminativa information som fanns gömd i utbildningsproven. Å andra sidan, att använda analytiskt utformade off-the-shelf baser som lexikon (t.ex. [8] använder Haar wavelets och Gabor wavelets som lexikon) kan vara universella för alla typer av bilder men kommer inte att vara tillräckligt effektiv för specifika typer av bilder såsom ansikte, siffror och textur bilder. Faktum är att alla ovannämnda problem med fördefinierad ordbok kan åtgärdas, åtminstone i viss utsträckning, genom att man på ett korrekt sätt lär sig en icke-parametrisk ordbok från de ursprungliga utbildningsproven. Dictionary learning (DL) syftar till att från träningsproverna lära sig det utrymme där den givna signalen kan vara väl representerad eller kodad för bearbetning. Många DL-metoder har föreslagits för bildbehandling [1, 3, 17] och klassificering [9] [10] [11] [11] [12] [13] [14] [15] [16]. En representativ DL-metod för bildbehandling är KSVD-algoritmen [17], som lär sig en överfullständig ordbok från en träningsdatauppsättning av naturliga bildfixar. KSVD lämpar sig dock inte för klassificeringsuppgifter eftersom det endast kräver att det lärda lexikonet troget kan representera utbildningsproven. Baserat på KSVD, Mairal et al. [14] lade till en diskriminerande restriktion i DL-modellen för att få diskrimineringsförmåga, och använde det lärda lexikonet för textursegmentering och scenanalys. Denna metod är dock inte konvex och den utforskar inte diskrimineringsförmågan hos glesa kodningskoefficienter. Senare, Mairal et al. [9] föreslog en discriminativ DL-metod genom att utbilda en klassificering av kodningskoefficienterna och verifierade metoden för sifferigenkänning och texturklassificering. använde ett osammanhängande uttryck för att göra de ordböcker som hör samman med olika klasser så oberoende som möjligt. Dessa metoder använder det rekonstruktionsfel som är förknippat med varje klass som den diskriminerande informationen för klassificering, men de tvingar inte fram diskriminerande information i de glesa kodningskoefficienterna. I detta dokument föreslår vi en ny discriminativ DL-ram som använder sig av kriteriet Fisher Diskriminering för att lära sig ett strukturerat lexikon (dvs. Ordbokens atomer överensstämmer med klassetiketterna så att det rekonstruktionsfel som är förknippat med varje klass kan användas för klassificering). Samtidigt åläggs kriteriet om fiskediskriminering de koefficienter som krävs för att göra dem diskriminerande. För detta ändamål, i DL-processen gör vi att de glesa kodningskoefficienterna har små inomklass scatter men stora mellan klass scatter, och samtidigt gör vi att varje klassspecifik underordlista i hela det strukturerade lexikonet har god representationsförmåga till träningsproverna från den tillhörande klassen men dålig representationsförmåga för andra klasser. Med den föreslagna metoden för fiskediskriminering baserad på DL (FDDL) kommer både återuppbyggnadsfelet och kodningskoefficienten att vara diskriminerande, och därför föreslås ett nytt klassificeringssystem för att utnyttja sådan information. FDDL-metoden används för ansikts-, siffer- och könsigenkänning för att utvärdera dess prestanda. Jämfört med SRC-metoden [5], inte bara högre klassificering noggrannhet får FDDL, men också en mindre ordbok kan läras (t.ex. i Extended Yale B databasen, den lärda ordboken av FDDL med endast 8 atomer per klass kan fortfarande uppnå bättre FR prestanda än SRC med 20 atomer per klass). Jämfört med andra toppmoderna metoder har FDDL konkurrenskraft i olika mönsterigenkänningsuppgifter. Resten av detta dokument är organiserat enligt följande. I avsnitt 2 införs kortfattat SRC-systemet [5]. I avsnitt 3 presenteras den föreslagna FDDL-modellen. I avsnitt 4 beskrivs optimeringsförfarandet för FDDL. I avsnitt 5 presenteras den FDDL-baserade klassificeringen. Avsnitt 6 utför experiment, och Avsnitt 7 avslutar dokumentet. Wright och Al. [5] där γ är en skalarkonstant. Detta anslag är avsett att täcka utgifter för tjänstemän och tillfälligt anställda som arbetar inom politikområdet Migration och inrikes frågor samt administrativa utgifter för tjänstemän och tillfälligt anställda som arbetar inom politikområdet Migration och inrikes frågor. Gör klassificering via För att förbättra prestandan hos tidigare DL-metoder föreslår vi här en ny | Yang m.fl. I REF föreslogs en metod för att lära sig fiskediskriminering (FisherDL) baserad på Fisher-kriteriet för att lära sig ett strukturerat lexikon. | 15,617,830 | Fisher Discrimination Dictionary Learning for sparse representation | {'venue': '2011 International Conference on Computer Vision', 'journal': '2011 International Conference on Computer Vision', 'mag_field_of_study': ['Computer Science']} | 81,259 |
Abstrakt. Arbetsbelastningsplacering på servrar har traditionellt drivits av främst prestandamål. I detta arbete undersöker vi design, implementering och utvärdering av en power-aware applikationsplaceringscontroller i samband med en miljö med heterogena virtualiserade serverkluster. Placeringskomponenten i applikationshanteringen middleware tar hänsyn till energi- och migreringskostnaderna utöver prestandavinsten samtidigt som applikationsbehållaren placeras på de fysiska servrarna. Bidraget från detta arbete är tvåfaldigt: för det första presenterar vi flera sätt att fånga upp problemet med kostnadsmedveten applikationsplacering som kan tillämpas på olika inställningar. För varje formulering ger vi detaljer om vilken typ av information som krävs för att lösa problemen, modellantagandena och hur praktiska antagandena är på riktiga servrar. I den andra delen av vår studie presenterar vi pMapper arkitektur och placering algoritmer för att lösa en praktisk formulering av problemet: minimering kraft som omfattas av ett fast prestandakrav. Vi presenterar omfattande teoretiska och experimentella bevis för att fastställa effekten av pMapper. | Verma m.fl. REF beskrev ett ramverk för effektmedveten applikationsplacering där placeringen av virtuella maskiner vid varje tidpunkt optimeras för att minimera strömförbrukningen och maximera prestandan på vissa nivåer. | 7,674,151 | pMapper: power and migration cost aware application placement in virtualized systems | {'venue': 'Middleware', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,260 |
Abstract-This paper tar hänsyn till påverkan av externa bullerkällor, inklusive störande sändare, på ett diffusivt molekylärt kommunikationssystem, där påverkan mäts som antalet bullermolekyler som förväntas observeras vid en passiv mottagare. En enhetlig modell för buller, fleranvändarinterferens och intersymbolinterferens presenteras, där störningar under vissa omständigheter kan approximeras som en bullerkälla som kontinuerligt avger. Modellen inkluderar närvaro av advektion och molekylnedbrytning. Tidsvarierande och asymptotisk påverkan erhålls för en rad specialfall, varav en del underlättar slutna lösningar. Simuleringsresultat visar noggrannheten hos de uttryck som härleds för påverkan av en kontinuerligt avgivande bullerkälla, och visar hur approximering av gammal intersymbolinterferens som en bullerkälla kan förenkla beräkningen av den förväntade bitfelsannolikheten för en vägd summa detektor. | Dessutom föreslogs en enhetlig modell som omfattar effekterna av externa bullerkällor och intersymbolisk interferens (ISI) för diffusive MC i REF. | 15,415,319 | A Unifying Model for External Noise Sources and ISI in Diffusive Molecular Communication | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 81,261 |
Abstract Sentiment analys, även kallad opinionsbrytning, är en form av informationsutvinning från text av växande forskning och kommersiellt intresse. I denna artikel presenterar vi våra maskininlärningsexperiment med avseende på känsloanalys i blogg, recension och forumtexter som finns på World Wide Web och som är skrivna på engelska, nederländska och franska. Vi tränar från en uppsättning exempel meningar eller uttalanden som manuellt kommenteras som positiva, negativa eller neutrala med avseende på en viss enhet. Vi är intresserade av de känslor som människor uttrycker när det gäller vissa konsumtionsprodukter. Vi lär oss och utvärderar flera klassificeringsmodeller som kan konfigureras i en kaskadpipeline. Vi måste ta itu med flera problem, som är den bullriga karaktären hos inmatningstexterna, tillskrivningen av stämningen till en viss enhet och den lilla storleken på träningssetet. Vi lyckas identifiera positiva, negativa och neutrala känslor för den enhet som övervägs med ca. 83% noggrannhet för engelska texter baserat på unigram funktioner förstärkt med språkliga funktioner. De exakta resultaten av behandlingen av de nederländska och franska texterna är ca. 70 respektive 68 % på grund av den större variationen av språkliga uttryck som oftare avviker från standardspråk, vilket kräver mer utbildningsmönster. Dessutom ger våra experiment oss insikter i överförbarheten av de lärda modellerna över domäner och språk. En väsentlig del av artikeln undersöker betydelsen av aktiva inlärningstekniker för att minska antalet exempel som ska kommenteras manuellt. | REF genomför maskininlärning känsla analys med hjälp av flerspråkiga webbtexter. | 15,287,173 | A machine learning approach to sentiment analysis in multilingual Web texts | {'venue': 'Information Retrieval', 'journal': 'Information Retrieval', 'mag_field_of_study': ['Computer Science']} | 81,262 |
Vi visar att uppsättningen av alla ow-äldar i en sekvens av ramar som avbildar en stel scen finns i en lågdimensionell linjär subrymd. Baserat på denna observation, utvecklar vi en metod för samtidig uppskattning av optiska-ow över flera ramar, som använder dessa subrymd begränsningar. De multi-frame subrymd begränsningar är starka begränsningar, och ersätta vanliga heuristiska begränsningar, såsom rumslig eller temporal jämnhet. Subrymdsbegränsningarna är geometriskt meningsfulla, och kränks inte vid djup diskontinuiteter, eller när kamerans rörelse förändras abrupt. Dessutom visar vi att subrymdsbegränsningarna för ow-älvor gäller för en mängd olika bildmodeller, scenmodeller och rörelsemodeller. Det framlagda tillvägagångssättet för begränsad uppskattning av flera ramar är därför allmänt. Vår strategi kräver dock inte förkunskaper om den underliggande världen eller kameramodellen. Även linjära subrymdsbegränsningar har använts framgångsrikt i det förflutna för att återvinna 3D-information t.ex., 18, Det har antagits att 2D-korrespondenser ges. Korrespondensuppskattning är dock ett grundläggande problem i rörelseanalysen. I detta dokument använder vi subrymdsbegränsningar med flera ramar för att begränsa själva processen med 2D-korrespondensuppskattning, och inte för 3D-återhämtning. | För stela scener använde Irani subrymdsbegränsningar på den kombinerade flödesobservationsmatrisen i flerramsflödet REF. | 5,586,199 | Multi-frame optical flow estimation using subspace constraints | {'venue': 'Proceedings of the Seventh IEEE International Conference on Computer Vision', 'journal': 'Proceedings of the Seventh IEEE International Conference on Computer Vision', 'mag_field_of_study': ['Computer Science']} | 81,263 |
Abstrakt. Vi presenterar en ny metod för blind rörelsedeblurring som använder ett neuralt nätverk tränas för att beräkna uppskattningar av skarpa bildfläckar från observationer som är suddiga av en okänd rörelsekärna. I stället för att regressera direkt till patch intensitet, lär sig detta nätverk att förutsäga de komplexa Fourier koefficienter för ett dekonvolutionsfilter som ska appliceras på inmatning patchen för återställning. För slutledning tillämpar vi nätverket oberoende på alla överlappande fläckar i den observerade bilden, och genomsnitt dess utgångar för att bilda en första uppskattning av den skarpa bilden. Vi uppskattar sedan uttryckligen en enda global oskärpa kärna genom att relatera denna uppskattning till den observerade bilden, och slutligen utföra icke-blind dekonvolution med denna kärna. Vår metod uppvisar noggrannhet och robusthet nära toppmoderna iterativa metoder, samtidigt som den är mycket snabbare när den parallelliseras på GPU-hårdvara. | Chakrabarti REF tar itu med en enhetlig deblurring i frekvensdomänen genom att förutsäga Fourier koefficienter för patchwise dekonvolution filter. | 14,605,354 | A Neural Approach to Blind Motion Deblurring | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 81,264 |
Övertäckta kanaler med hög bandbredd innebär betydande risker för känslig och skyddad information inom företagsnätverken. Domännamnstunnlar (DNS) ger ett sätt att i hemlighet infiltrera och exfiltrera stora mängder information som passerar nätverksgränserna. Detta papper utforskar möjligheten att upptäcka DNS tunnlar genom att analysera unigram, bigram, och trigram karaktär frekvenser domäner i DNS frågor och svar. Det visas empiriskt hur domäner följer Ziffs lag i ett mönster som liknar naturliga språk, medan tunneltrafik har mer jämnt fördelade karaktärsfrekvenser. Detta tillvägagångssätt gör det möjligt att upptäcka tunnlar över flera områden, medan tidigare metoder vanligtvis koncentrerar sig på övervakning av punkt-till-punkt-system. Anomalier upptäcks snabbt när tunneltrafik jämförs med teckenfrekvensen fingeravtryck av legitim domäntrafik. | Född och Gustafson REF använder karaktärsfrekvensanalys för att upptäcka DNS-tunnlar. | 10,788,846 | Detecting DNS Tunnels Using Character Frequency Analysis | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 81,265 |
De dominerande sekvenstransduktionsmodellerna är baserade på komplexa återkommande eller konvolutionella neurala nätverk som inkluderar en kodare och en dekoder. De bäst presterande modellerna kopplar också samman kodaren och dekodern genom en uppmärksamhetsmekanism. Vi föreslår en ny enkel nätverksarkitektur, Transformer, baserad enbart på uppmärksamhetsmekanismer, dispensering med upprepningar och konvolutioner helt och hållet. Experiment på två maskinöversättningsuppgifter visar att dessa modeller är överlägsna i kvalitet samtidigt som de är mer parallelliserbara och kräver betydligt mindre tid att träna. Vår modell uppnår 28,4 BLEU på WMT 2014 engelska till tyska översättning uppgift, förbättra över de befintliga bästa resultaten, inklusive ensembler, med över 2 BLEU. På WMT 2014 engelska-till-franska översättning uppgift, vår modell etablerar en ny enda modell state-of-the-art BLEU poäng på 41.0 efter utbildning i 3,5 dagar på åtta GPUs, en liten bråkdel av utbildningskostnaderna för de bästa modellerna från litteraturen. Vi visar att Transformer generaliserar väl till andra uppgifter genom att tillämpa det framgångsrikt till engelska valkrets tolkar både med stora och begränsade utbildningsdata. | Vi undersöker dock dess effekt på Transformer-modellen REF, som ger toppmoderna resultat på flera översättningsriktmärken. | 13,756,489 | Attention Is All You Need | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 81,266 |
Sammanfattning Vi studerar visuell uppmärksamhet genom att upptäcka ett framträdande objekt i en ingångsbild. Vi formulerar framträdande objektdetektion som ett bildsegmenteringsproblem, där vi separerar det framträdande objektet från bildens bakgrund. Vi föreslår en uppsättning nya funktioner inklusive multi-scale kontrast, centersurround histogram, och färg spatial distribution för att beskriva ett framträdande objekt lokalt, regionalt och globalt. Ett villkorligt Random Field är lärt sig att effektivt kombinera dessa funktioner för framträdande objektdetektion. Vi byggde också en stor bilddatabas med tiotusentals noggrant märkta bilder av flera användare. Till vår kännedom är det den första stora bilddatabasen för kvantitativ utvärdering av visuella uppmärksamhetsalgoritmer. Vi bekräftar vår inställning till denna bilddatabas, som är allmänt tillgänglig med detta dokument. | Liu et al., REF presenterade ett schema som detekterar ett framträdande objekt i en ingångsbild som ett bildsegmenteringsproblem genom att skilja det framträdande objektet från bildens bakgrund. | 36,630,067 | Learning to Detect A Salient Object | {'venue': '2007 IEEE Conference on Computer Vision and Pattern Recognition', 'journal': '2007 IEEE Conference on Computer Vision and Pattern Recognition', 'mag_field_of_study': ['Computer Science']} | 81,267 |
Abstrakt. Nuvarande generativa ramar använder end-to-end-lärande och genererar bilder genom provtagning från enhetlig bullerfördelning. Dessa metoder bortser dock från den mest grundläggande principen för bildbildning: bilder är en produkt av: a) Struktur: den underliggande 3D-modellen; b) Stil: den textur som kartlagts på struktur. I detta dokument, vi faktorisera bildgenereringsprocessen och föreslå stil och struktur Generative Adversarial Network (S 2 -GAN). Vår S 2-GAN har två komponenter: Struktur-Gan genererar en yta normal karta; Style-Gan tar ytan normal karta som ingång och genererar 2D-bilden. Bortsett från en verklig vs. genererad förlustfunktion, använder vi en ytterligare förlust med beräknade ytnormaler från genererade bilder. De två GANs tränas först självständigt, och sedan slås ihop via gemensamt lärande. Vi visar vår S 2-GAN modell är tolkningsbar, genererar mer realistiska bilder och kan användas för att lära sig oövervakade RGBD representationer. | Wang m.fl. REF skapar bilder från ytans normala karta. | 1,541,706 | Generative Image Modeling using Style and Structure Adversarial Networks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 81,268 |
Abstract-Använda riktning antenner för att spara bandbredd och energiförbrukning i ad hoc trådlösa nätverk (eller helt enkelt ad hoc-nät) blir populärt under de senaste åren. Användningen av riktade antenner för sändning har dock varit begränsad. Vi föreslår en ny sändning protokoll kallas riktad självbeskärning (DSP) för ad hoc trådlösa nätverk med riktade antenner. DSP är en icke-trivial generalisering av en befintlig lokal deterministisk sändning protokoll med hjälp av allriktade antenner. Jämfört med dess allsidiga föregångare använder DSP ungefär samma antal framåtriktade noder för att återsända sändningspaketet, medan antalet framåtriktade riktningar som varje framåtriktad nod använder i överföringen minskas avsevärt. Med den lägre sändningsredundansen är DSP mer bandbredd och energieffektiv. DSP är baserad på 2-hop område information och inte förlitar sig på plats eller vinkel-oarrival (AoA) information. Två specialfall av DSP diskuteras: den första bevarar kortaste vägar i reaktiva routing upptäckter; den andra använder riktningsmottagning läge för att minimera sändning redundans. DSP är ett lokaliserat protokoll. Dess förväntade antal framåtriktade noder är Oð15 gånger det optimala värdet. En omfattande simuleringsstudie med hjälp av både anpassade och ns2-simulatorer visar att DSP avsevärt överträffar både allsidiga sändningsprotokoll och befintliga riktade sändningsprotokoll. | I Ref föreslår författarna ett effektivt program för sändning med hjälp av riktad antenn i trådlösa ad hoc-nät. | 2,394,010 | Efficient broadcasting in ad hoc wireless networks using directional antennas | {'venue': 'IEEE Transactions on Parallel and Distributed Systems', 'journal': 'IEEE Transactions on Parallel and Distributed Systems', 'mag_field_of_study': ['Computer Science']} | 81,269 |
Abstrakt. Om ett fysiskt föremål har en jämn eller bitvis jämn gräns, genomgår dess bilder som erhållits av kameror i olika lägen släta synliga deformationer. Dessa deformationer är lokalt väl approximerade av affina transformer av bildplanet. Följaktligen har problemet med solid objektigenkänning ofta letts tillbaka till beräkningen av affina invarianta bild lokala funktioner. Sådana invarianta egenskaper kunde erhållas genom normaliseringsmetoder, men ingen fullt afffin normaliseringsmetod existerar för tillfället. Även stor variation hanteras endast strikt av SIFT-metoden. Genom att simulera zoomar ut och normalisera översättning och rotation, SIFT är invariant till fyra av de sex parametrarna i en affin transform. Den metod som föreslås i detta dokument, Affine-SIFT (ASIFT), simulerar alla bildvyer som kan erhållas genom att variera de två parametrar för kameraaxelns orientering, nämligen latitud- och longitudvinklarna, som återstår med SIFT-metoden. Därefter täcker den de övriga fyra parametrarna med hjälp av själva SIFT-metoden. Den resulterande metoden kommer matematiskt bevisas vara helt afffin invariant. Mot varje prognos är det möjligt att simulera alla vyer beroende på de två kameraorienteringsparametrarna utan någon dramatisk beräkningsbelastning. Ett system med två lösningar minskar ytterligare komplexiteten för ASIFT till ungefär dubbelt så mycket som för SIFT. Ett nytt begrepp, övergången lutning, mäta mängden av snedvridning från en syn till en annan införs. Medan en absolut lutning från en frontal till en sned vy som överstiger 6 är sällsynt, mycket högre övergång lutningar är vanliga när två sneda vyer av ett objekt jämförs (se bild. 1.1), senast ändrad genom Europaparlamentets och rådets förordning (EU, Euratom) nr 966/2012 av den 25 oktober 2012 om finansiella regler för unionens allmänna budget och om upphävande av rådets förordning (EG, Euratom) nr 1605/2002 (EUT L 298, 26.10.2012, s. 1). Den uppnåeliga övergångslutningen mäts för varje affin bildjämförelsemetod. Den nya metoden gör det möjligt att på ett tillförlitligt sätt identifiera egenskaper som har genomgått övergångstakt av stor omfattning, upp till 36 och högre. Detta bekräftas av många experiment som visar att ASIFT betydligt överträffar de senaste metoderna SIFT, MSER, Harris-Affine och Hessian-Affine. | Affine SIFT funktioner REF hantera stora bildförvrängningar genom att generera flera affine omvandlingar av en bild innan du tillämpar traditionella SIFT. | 3,174,256 | ASIFT: A NEW FRAMEWORK FOR FULLY AFFINE INVARIANT IMAGE COMPARISON | {'venue': 'SIAM J. Imaging Sciences', 'journal': 'SIAM J. Imaging Sciences', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 81,270 |
Vi har utvecklat ett nytt tillvägagångssätt för tillförlitlig multicasting av tidskritiska data till heterogena kunder över mesh-baserade overlay-nätverk. För att underlätta intelligent innehåll beskärning, dataströmmar består av en sekvens av XML-paket och vidarebefordras av programnivå XML routers, XML routrar utför innehållsbaserad routing av enskilda XML-paket till andra touters eller kunder baserat på frågor som beskriver informationsbehoven i nedströms noder. Vår PC-baserade XML router prototyp kan dirigera en 18 Mbit per sekund XML-ström. Våra routers använder en ny Diversity Control Protocol (DCP) för router-till-router och router-till-klient kommunikation. DCP återmonterar en mottagen ström av paket från en eller flera avsändare med hjälp av den första kopian av ett paket för att komma fram från en avsändare. När varje nod är ansluten till n föräldrar, det resulterande nätverket är motståndskraftig mot (n -1) router eller oberoende länkfel utan reparation. Associerade mesh-algoritmer gör det möjligt för systemet att återhämta sig till (n -1) motståndskraft efter nod- och/eller länkfel. Vi har satt ut ett distribuerat nätverk av XML routrar som strömmar realtids flygkontrolldata. Experimentella resultat visar att flera avsändare förbättrar tillförlitligheten och latensen jämfört med trädbaserade nätverk. | I REF är varje nod en XML-router, och XML-dokument dirigeras via nätverket. | 7,057,808 | Mesh-based content routing using XML | {'venue': "SOSP '01", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,271 |
häst zebra zebra häst Sommar Vinter vinter vinter vinter sommar Fotografering Van Gogh Cezanne Monet Ukiyo-e Monet Bilder Monet foto foto Monet Figur 1: Med tanke på två oordnade bildsamlingar X och Y, vår algoritm lär sig att automatiskt "översätta" en bild från en till den andra och vice versa. Exempel ansökan (botten): med hjälp av en samling målningar av en berömd konstnär, lära sig att göra en användares fotografi i deras stil. Image-to-image översättning är en klass av vision och grafik problem där målet är att lära sig kartläggningen mellan en ingångsbild och en utgångsbild med hjälp av en utbildning uppsättning av anpassade bildpar. För många uppgifter kommer dock inte parade träningsdata att finnas tillgängliga. Vi presenterar ett tillvägagångssätt för att lära sig översätta en bild från en källkodsdomän X till en måldomän Y i avsaknad av parade exempel. Vårt mål är att lära sig en kartläggning G : X → Y sådan att distributionen av bilder från G(X) är oskiljaktig från distributionen Y med hjälp av en kontradiktorisk förlust. Eftersom denna kartläggning är mycket underkonsekventa, vi par det med en invers kartläggning F : Y → X och införa en cykelkonsistens förlust att push F (G(X)) på X (och vice versa). Kvalitativa resultat presenteras på flera uppgifter där parade träningsdata inte finns, inklusive insamling stil överföring, objekttransfiguration, säsong överföring, fotoförbättring, etc. Kvantitativa jämförelser mot flera tidigare metoder visar hur överlägsen vår strategi är. | För att övervinna detta, CycleGAN REF använder en cykelkonsistens förlust för att undvika att behöva sådana input-output par. | 206,770,979 | Unpaired Image-to-Image Translation Using Cycle-Consistent Adversarial Networks | {'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 81,272 |
Abstract-En obalanserad utbildning data uppsättning kan orsaka allvarliga problem för många verkliga data mining uppgifter som använder SVMs för att genomföra övervakad lärande. I detta dokument föreslår vi en kärngränsöverskridande anpassningsalgoritm, som betraktar utbildningsdataobalansen som förhandsinformation för att öka SVM:er för att förbättra klassprediktionens noggrannhet. Med hjälp av ett enkelt exempel visar vi först att SVM kan lida av höga förekomster av falska negativa när utbildningsinstanserna av målklassen är kraftigt undernumrerade av utbildningsinstanserna av en icke-målklass. Den åtgärd vi föreslår är att justera klassgränsen genom att ändra kärnmatrisen, enligt den obalanserade datadistributionen. Genom teoretisk analys som stöds av empirisk studie visar vi att vår kärngränsöverskridande algoritm fungerar effektivt på flera datauppsättningar. | I REF utökas en kostnadskänslig algoritm som på basen av datadistributionen justerar klassgränsen och kärnmatrisen. | 7,934,922 | KBA: kernel boundary alignment considering imbalanced data distribution | {'venue': 'IEEE Transactions on Knowledge and Data Engineering', 'journal': 'IEEE Transactions on Knowledge and Data Engineering', 'mag_field_of_study': ['Computer Science']} | 81,273 |
Djupt förstärkande inlärningsagenter har uppnått toppmoderna resultat genom att direkt maximera den kumulativa belöningen. Men miljöer innehåller ett mycket bredare utbud av möjliga träningssignaler. I den här artikeln introducerar vi en agent som också maximerar många andra pseudo-lönefunktioner samtidigt genom att förstärka lärandet. Alla dessa uppgifter har en gemensam representation som, i likhet med oövervakat lärande, fortsätter att utvecklas i avsaknad av extrinsiska belöningar. Vi inför också en ny mekanism för att fokusera denna representation på extrinsiska belöningar, så att lärande snabbt kan anpassas till de mest relevanta aspekterna av den faktiska uppgiften. Vår agent överträffar betydligt tidigare tillstånd av hjärta på Atari, i genomsnitt 880% expert mänskliga prestanda, och en utmanande svit av första person, tredimensionella Labyrinth uppgifter som leder till en genomsnittlig hastighet i lärande av 10× och i genomsnitt 87% expert mänskliga prestanda på Labyrinth. Naturliga och artificiella medel lever i en ström av sensorimotoriska data. Vid varje tidpunkt steg t, tar agenten emot observationer o t och utför åtgärder a t. Dessa åtgärder påverkar framtida kurs sensorimotor ström. I detta papper utvecklar vi agenter som lär sig att förutsäga och styra denna ström, genom att lösa en mängd förstärkande inlärningsproblem, var och en med fokus på en distinkt egenskap hos sensormotor ström. Vår hypotes är att en agent som flexibelt kan kontrollera sina framtida erfarenheter också kommer att kunna uppnå alla mål med vilka den presenteras, såsom att maximera sina framtida belöningar. Det klassiska förstärkande inlärningsparadigmet fokuserar på maximering av extrinsisk belöning. Men på många intressanta områden är det bara sällan man ser några extrinsiska belöningar. Detta väcker frågor om vad och hur man lär sig i deras frånvaro. Även om extrinsiska belöningar är vanliga, den sensormotoriska strömmen innehåller ett överflöd av andra möjliga inlärningsmål. Traditionellt, oövervakade inlärning försök att rekonstruera dessa mål, såsom pixlar i den aktuella eller efterföljande ramen. Det används vanligtvis för att påskynda förvärvet av en användbar representation. Däremot är vårt inlärningsmål att förutsäga och kontrollera funktioner i sensormotor ström, genom att behandla dem som pseudorewards för förstärkning lärande. Intuitivt, denna uppsättning uppgifter är närmare matchade med agentens långsiktiga mål, potentiellt leder till mer användbara representationer. Tänk på ett barn som lär sig att maximera den kumulativa mängden rött som det observerar. För att korrekt förutsäga det optimala värdet måste barnet förstå hur man ökar "rödheten" på olika sätt, inklusive manipulering (för ett rött objekt närmare ögonen), rörelse (rör sig framför ett rött objekt), och kommunikation (gråta tills föräldrarna tar med ett rött objekt). Dessa beteenden kommer sannolikt att återkomma för många andra mål som barnet senare kan stöta på. Det krävs ingen förståelse för dessa beteenden för att helt enkelt rekonstruera rodnaden hos aktuella eller efterföljande bilder. Vår arkitektur använder förstärkningslärande för att approximera både den optimala policyn och den optimala värdefunktionen för många olika pseudo-belönade. Det gör också andra extra förutsägelser som tjänar till att fokusera agenten på viktiga aspekter av uppgiften. Dessa inkluderar det långsiktiga målet att förutsäga kumulativ extrinsisk belöning samt kortsiktiga förutsägelser av extrinsisk belöning. För att lära sig mer effektivt, våra agenter använder en erfarenhet replay mekanism för att ge ytterligare uppdateringar * Joint first författare. Ordnat alfabetiskt efter förnamn. | I Ref. REF många förstärkande inlärningsagenter med olika uppgifter har en gemensam representation som håller på att utvecklas under utbildningen. | 14,717,992 | Reinforcement Learning with Unsupervised Auxiliary Tasks | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 81,274 |
Vi utvecklar en första linje av angrepp för att lösa programmering konkurrens-liknande problem från input-output exempel med hjälp av djupt lärande. Tillvägagångssättet är att träna ett neuralt nätverk för att förutsäga egenskaper hos programmet som genererade resultaten från ingångarna. Vi använder neurala nätverkets förutsägelser för att öka söktekniker från programmeringsspråk gemenskapen, inklusive räknande sökning och en SMT-baserad lösare. Empiriskt visar vi att vårt tillvägagångssätt leder till en magnitudökning över de starka icke-augmenterade baslinjerna och en Återkommande Neural Network-strategi, och att vi kan lösa problem som kan jämföras med de enklaste problemen på tävlingswebbplatser. | Till exempel, DeepCoder REF använder en kodning av in-/utmatning exempel för att förutsäga funktioner som sannolikt kommer att visas i programmet, att prioritera program som innehåller dessa funktioner. | 2,906,360 | DeepCoder: Learning to Write Programs | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 81,275 |
Programoptimering för högparallellsystem har historiskt sett ansetts vara en konst, med experter som gör mycket av performance tuning för hand. Med införandet av billiga, enchips, massivt parallella plattformar, kommer fler utvecklare att skapa mycket parallella applikationer för dessa plattformar, som saknar den stora erfarenhet och kunskap som krävs för att maximera deras prestanda. Detta skapar ett behov av mer strukturerade optimeringsmetoder med metoder för att uppskatta deras prestandaeffekter. Dessutom måste dessa metoder vara begripliga för de flesta programmerare. Detta dokument visar komplexiteten i optimeringen av tillämpningar för ett sådant system och en relativt enkel metod för att minska arbetsbelastningen i optimeringsprocessen. Detta arbete är baserat på ett sådant högparallellsystem, GeForce 8800 GTX med hjälp av CUDA. Dess flexibla tilldelning av resurser till trådar gör det möjligt att extrahera prestanda från en rad applikationer med varierande resursbehov, men ställer nya krav på utvecklare som försöker maximera en applikations prestanda. Vi visar hur optimeringar interagerar med arkitekturen på komplexa sätt, initialt föranleder en inspektion av hela konfigurationsutrymmet för att hitta den optimala konfigurationen. Även för ett till synes enkelt program som matris multiplikation, kan den optimala konfigurationen vara oväntad. Vi presenterar sedan mätvärden som härleds från statisk kod som fångar de första ordningsfaktorerna för prestanda. Vi visar hur dessa mått kan användas för att beskära många optimeringskonfigurationer, ner till dem som ligger på en Pareto-optimal kurva. Detta minskar optimeringsutrymmet med så mycket som 98% och finner fortfarande den optimala konfigurationen för var och en av de studerade applikationerna. | Det finns mätvärden för att beskära det optimeringsutrymme som gynnar GPU-applikationer REF. | 12,382,528 | Program optimization space pruning for a multithreaded gpu | {'venue': "CGO '08", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,276 |
Sammanfattning av denna webbsida: Samarbete anses allmänt vara till nytta för lärande. Samarbete är ett ömsesidigt engagemang från deltagarnas sida i en samordnad insats för att lösa ett problem tillsammans. Det har på ett avgörande sätt hävdats att det är nödvändigt att fokusera på samarbetsprocessen för att förstå värdet av att arbeta tillsammans med andra för lärande. I enlighet med öppen distribuerad inlärningsmiljö (ODLEs) har vi utvecklat ett ramverk för datorstödd samverkansutbildning och arbete. Detta distribuerade system med delade arbetsytor är väl lämpat för övervakning och bedömning av gruppinteraktioner i samlokaliserade och avlägsna scenarier. Det ger anpassningsbara mekanismer för automatiserad mikroanalys av samarbetsprocesser samt för visualisering och återkoppling. Systemet har använts för att fastställa konflikter i fokusering samt initiativskiften i aggregerings- och revideringsfaser under ett urval av samarbetsmöten om problemlösning av pussel. | Muhlenbrock och Hoppe Ref har utvecklat ett system för datorstödd samarbete lärande och arbete. | 16,963,676 | Computer Supported Interaction Analysis of Group Problem Solving | {'venue': 'Stanford University', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,277 |
Trots betydande framsteg på senare tid när det gäller erkännande av ansikte [10, 14, 15, 17] innebär genomförandet av kontroll av ansikte och erkännande på ett effektivt sätt stora utmaningar för de nuvarande strategierna. I detta papper presenterar vi ett system, som heter FaceNet, som direkt lär sig en kartläggning från ansiktsbilder till ett kompakt Euclidean utrymme där avstånden direkt motsvarar ett mått på ansikte likhet. När detta utrymme har producerats, uppgifter som ansiktsigenkänning, verifiering och klusterering kan enkelt genomföras med hjälp av standardtekniker med FaceNet inbäddningar som funktion vektorer. Vår metod använder ett djupt konvolutionsnätverk utbildat för att direkt optimera inbäddningen själv, snarare än en mellanliggande flaskhals lager som i tidigare djupt lärande metoder. För att träna använder vi trioler av ungefär samma matchande / icke-matchande ansiktsfläckar som genereras med hjälp av en ny online triolbrytningsmetod. Fördelarna med vårt tillvägagångssätt är mycket större representationseffektivitet: vi uppnår den senaste ansiktsigenkänningen med endast 128 byte per ansikte. På de allmänt använda Labeled Faces i datasetet Wild (LFW) uppnår vårt system en ny rekordnoggrannhet på 99,63 %. På YouTube Faces DB uppnår den 95.12%. Vårt system sänker felfrekvensen i jämförelse med det bäst publicerade resultatet [15] med 30 % för båda datauppsättningarna. | Schroff m.fl. föreslog en metod som heter FaceNet REF som tillämpade ett djupt konvolutionsnätverk utbildat för att direkt optimera själva inbäddningen, vilket minskade felfrekvensen jämfört med DeepId2+. | 206,592,766 | FaceNet: A Unified Embedding for Face Recognition and Clustering | {'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science']} | 81,278 |
Energieffektiv bildkommunikation är ett av de viktigaste målen för en stor klass av nuvarande och framtida sensornätverksapplikationer. I detta dokument presenteras en kvantitativ jämförelse mellan energikostnaderna i samband med 1) direkt överföring av okomprimerade bilder och 2) sensorplattformsbaserad JPEG-komprimering följt av överföring av komprimerade bilddata. JPEG komprimeringsberäkningar är kartlagda på olika resurs-konstruerade sensorplattformar med hjälp av en designmiljö som gör det möjligt att beräkna med hjälp av minsta heltal och fraktionerade bit-bredder som behövs med tanke på andra approximationer inneboende i komprimeringsprocessen och valet av parametrar bildkvalitet. Detaljerade experimentella resultat som undersöker kompromisser i processorresurser, bearbetning/överföringstid, bandbreddsanvändning, bildkvalitet och total energiförbrukning presenteras. | I REF jämför författarna energiförbrukningen mellan två bildöverföringsmetoder: (1) Direkt överföring av komprimerad bild och (2) Kompression av bilder och dess efterföljande överföring. | 2,220,987 | Energy-optimized image communication on resource-constrained sensor platforms | {'venue': "IPSN '07", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,279 |
I detta arbete presenterar vi en ny lokal deskriptor för videosekvenser. Den föreslagna deskriptorn bygger på histogram av orienterade 3D spatio-temporala gradienter. Vårt bidrag är fyrafaldigt. (i) För att beräkna 3D-gradienter för godtyckliga skalor utvecklar vi en minneseffektiv algoritm baserad på integrerade videor. ii) Vi föreslår en allmän kvantisering av 3D-orientering som baseras på regelbundna polyhedroner. (iii) Vi gör en fördjupad utvärdering av alla deskriptorparametrar och optimerar dem för åtgärdsigenkänning. (iv) Vi tillämpar vår deskriptor på olika åtgärdsdataset (KTH, Weizmann, Hollywood) och visar att vi överträffar toppmoderna. | I REF, Kläser et al. presenterade histogrammet av orienterade 3D spatio-temporala gradienter som i huvudsak är en samling av kvantiserade 2D histogram som samlats in från varje bildruta i videon. | 5,607,238 | A spatio-temporal descriptor based on 3D-gradients | {'venue': 'In BMVC', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,280 |
I detta dokument undersöker vi problemet med att framkalla en fördelning över tredimensionella strukturer med tanke på tvådimensionella vyer av flera objekt tagna ur okända synvinklar. Vårt tillvägagångssätt kallas "projective generative adversarial networks" (Prgans) tränar en djup generativ modell av 3D-former vars prognoser matchar distributionerna av indata 2D-vyer. Tillägget av en projektionsmodul gör att vi kan dra slutsatsen den underliggande 3D-form fördelningen utan att använda någon 3D, synvinkel information, eller annotation under inlärningsfasen. Vi visar att vår strategi producerar 3D-former av jämförbar kvalitet till GANs utbildade på 3D-data för ett antal formkategorier inklusive stolar, flygplan och bilar. Experiment visar också att den lösliga representationen av 2D-former i geometri och synvinkel leder till en bra generativ modell av 2D-former. Den viktigaste fördelen är att vår modell gör att vi kan förutsäga 3D, synvinkel, och generera nya vyer från en ingång bild på ett helt oövervakat sätt. | I REF tränas ett Generativt Adversarial Network (GAN) för att generera 3D-former av olika objekt. | 2,516,262 | 3D Shape Induction from 2D Views of Multiple Objects | {'venue': '2017 International Conference on 3D Vision (3DV)', 'journal': '2017 International Conference on 3D Vision (3DV)', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 81,281 |
Konvolutionella neurala nätverk (CNN) anses allmänt känna igen objekt genom att lära sig alltmer komplexa representationer av objektformer. Några färska studier tyder på att bildens texturer spelar en viktigare roll. Vi sätter här dessa motstridiga hypoteser på ett kvantitativt test genom att utvärdera CNN och mänskliga observatörer på bilder med en textur-form kö konflikt. Vi visar att ImageNettrailed CNNs är starkt partiska mot att känna igen texturer snarare än former, vilket är i skarp kontrast till mänskliga beteendebevis och avslöjar fundamentalt olika klassificeringsstrategier. Vi visar sedan att samma standardarkitektur (ResNet-50) som lär sig en texturbaserad representation på ImageNet kan lära sig en formbaserad representation istället när den tränas på "StylizedImageNet", en stiliserad version av ImageNet. Detta ger en mycket bättre passform för mänskligt beteende i vår välkontrollerade psykofysiska labbmiljö (nio experiment på totalt 48.560 psykofysiska prövningar på 97 observatörer) och kommer med ett antal oväntade fördelar såsom förbättrad prestanda för objektdetektering och tidigare osynlig robusthet mot ett brett spektrum av bildförvrängningar, vilket belyser fördelarna med en formbaserad representation. Figur 1: Klassificering av en standard ResNet-50 av a) en texturbild (elefant hud: endast textur cues); b) en normal bild av en katt (med både form och textur cues), och c) en bild med en textur-shape cue konflikt, genereras av stil överföring mellan de två första bilderna. | REF anger vidare fördelen med en formbaserad representation genom att träna CNN på en stiliserad version av ImageNet. | 54,101,493 | ImageNet-trained CNNs are biased towards texture; increasing shape bias improves accuracy and robustness | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Biology', 'Mathematics']} | 81,282 |
Olika sociala nätverk online har utvecklats snabbt på Internet. Forskare har analyserat olika egenskaper hos sådana OSN, främst med fokus på bildandet och utvecklingen av nätverken samt informationsspridningen över nätverken. I kunskapsdelning är OSN, såsom bloggar och frågesvarssystem, frågor om hur användare deltar i nätverket och hur användare "genererar/bidrar" kunskap avgörande för en hållbar och sund tillväxt av nätverken. Närbesläktade diskussioner har dock inte rapporterats i forskningslitteraturen. I detta arbete studerar vi empiriskt arbetsbelastningar från tre populära kunskapsdelningsOSNs, inklusive ett bloggsystem, ett socialt bokmärkesdelningsnätverk, och en fråga som svarar på sociala nätverk för att undersöka dessa egenskaper. Vår analys visar konsekvent att (1) användares postning beteende i dessa nätverk uppvisar starka dagliga och veckovisa mönster, men användarens aktiva tid i dessa OSNs följer inte exponentiella distributioner; (2) användaren postar beteende i dessa OSNs följer sträckt exponentiella distributioner i stället för power-law distributioner, vilket indikerar påverkan av ett litet antal kärnanvändare kan inte dominera nätverket; (3) distributionerna av användarbidrag på hög kvalitet och ansträngningskrävande innehåll i dessa OSNs har mindre stretch faktorer för den utsträckta exponentiella distributionen. Vår studie ger insikter i användaraktivitetsmönster och lägger en analytisk grund för vidare förståelse av olika egenskaper hos dessa OSN. | I ett annat arbete, Guo et al. REF mönster av användare tweets i flera online-gemenskaper, såsom ett bloggsystem, ett frågebesvarande på sociala nätverk och ett socialt bokmärke-delning nätverk. | 9,565,043 | Analyzing patterns of user content generation in online social networks | {'venue': 'KDD', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,283 |
Abstract-This paper presenterar ett flexibelt tillvägagångssätt för kalibrering av allriktade envinkelsensorer från plana rutnät. Dessa sensorer används i allt högre grad inom robotik där noggrann kalibrering ofta är en förutsättning. Nuvarande metoder inom området är antingen baserade på teoretiska egenskaper och tar inte hänsyn till viktiga faktorer som feljustering eller förvrängning av kameralinser eller överparametriserad vilket leder till minimeringsproblem som är svåra att lösa. Nya tekniker baserade på polynom approximationer leder till opraktiska kalibreringsmetoder. Vår modell bygger på en exakt teoretisk projektionsfunktion som vi lägger till väl identifierade parametrar för att modellera verkliga fel. Detta leder till en fullständig metod från initiering av de inneboende parametrarna till den allmänna kalibreringen. Vi diskuterar också giltigheten av strategin för fisköga och sfäriska modeller. En implementation av metoden är tillgänglig som OpenSource programvara på författarens webbsida. Vi validerar tillvägagångssättet med kalibrering av paraboliska, hyperboliska, vikta spegel, vidvinkel- och sfäriska sensorer. | Mei och Rives Ref föreslår en modell baserad på den exakta teoretiska projektionsfunktionen och med tillägg av parametrar för att modellera verkliga fel. | 6,811,154 | Single View Point Omnidirectional Camera Calibration from Planar Grids | {'venue': 'Proceedings 2007 IEEE International Conference on Robotics and Automation', 'journal': 'Proceedings 2007 IEEE International Conference on Robotics and Automation', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 81,284 |
Till vänster är ett foto av huvudet på Michelangelos David. Till höger är en återges 3D-modell av en del av hans hår (motsvarande kvadraten på fotografiet). Stycket är 75 mm brett på statyn och avståndet mellan triangelns hörn är 1,0 mm. Även om denna yta genomsöktes dussintals gånger (från många olika vinklar), förhindrade ocklusioner tillgång till de djupaste sprickorna. Hålet som markeras i denna återgivning har en komplex form och flera gränskomponenter, dvs. öar som flyter i hålet. Den största gränskomponenten innehåller 905 kanter. (Hidna delar av denna gräns indikeras med brutna linjer.) Vi tar itu med problemet med att bygga vattentäta 3D-modeller från ytor som innehåller hål – till exempel uppsättningar av avståndsskanningar som observerar de flesta men inte alla av en yta. Vi tar specifikt upp situationer där hålen är för geometriskt och topologiskt komplexa för att fyllas med trianguleringsalgoritmer. Vår lösning börjar med att konstruera en signerad distansfunktion, vars nolluppsättning definierar ytan. Inledningsvis definieras denna funktion endast i närheten av observerade ytor. Vi tillämpar sedan en diffusion process för att förlänga denna funktion genom volymen tills dess noll inställda broar oavsett hål kan vara närvarande. Om ytterligare information finns tillgänglig, t.ex. kända områden i rymden som kan härledas från siktlinjerna till en 3D-scanner, kan den integreras i diffusionsprocessen. Vår algoritm är enkel att implementera, är garanterad att producera många olika icke-interpenetrerande ytor, och är effektiv att köra på stora datauppsättningar eftersom beräkningen är begränsad till områden nära hål. | Davis och Al. REF använder diffusionsprocessen för att fylla hålet. | 1,351,850 | Filling holes in complex surfaces using volumetric diffusion | {'venue': 'Proceedings. First International Symposium on 3D Data Processing Visualization and Transmission', 'journal': 'Proceedings. First International Symposium on 3D Data Processing Visualization and Transmission', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 81,285 |
Trots de senaste framstegen i ansiktsigenkänning med hjälp av djup inlärning, allvarliga noggrannhet droppar observeras för stora pose variationer i okonstruerade miljöer. Inlärning poseinvariant funktioner är en lösning, men behöver dyrt märkta storskaliga data och noggrant utformade funktioner lärande algoritmer. I detta arbete fokuserar vi på frontaliserande ansikten i det vilda under olika huvudposer, inklusive extrema profilvyer. Vi föreslår en ny djup 3D Morphable Model (3DMM) conditioned Face Frontalization Generative Adversarial Network (GAN), som kallas FF-GAN, för att generera neutrala huvudpose ansiktsbilder. Vårt ramverk skiljer sig från både traditionella GAN och 3DMM-baserade modeller. Inkorporera 3DMM i GAN strukturen ger form och utseende tidigare för snabb konvergens med mindre träningsdata, samtidigt som den stöder end-to-end utbildning. Den 3DMMkonditionerade GAN använder inte bara discriminator och generator förlust men också en ny maskerad symmetri förlust för att behålla visuell kvalitet under ocklusioner, förutom en identitetsförlust för att återvinna hög frekvens information. Experiment på ansikte erkännande, landmärke lokalisering och 3D rekonstruktion visar konsekvent fördelen med vår frontaliseringsmetod på ansikten i vilda dataset. Denna förordning träder i kraft den tjugonde dagen efter det att den har offentliggjorts i Europeiska unionens officiella tidning. | Yin m.fl. REF inför en 3DMM-rekonstruktionsmodul i den föreslagna FF-GAN-ramen för att ge bättre form och utseende innan. | 2,806,929 | Towards Large-Pose Face Frontalization in the Wild | {'venue': '2017 IEEE International Conference on Computer Vision (ICCV)', 'journal': '2017 IEEE International Conference on Computer Vision (ICCV)', 'mag_field_of_study': ['Computer Science']} | 81,286 |
Trots genombrotten i noggrannhet och hastighet av enkelbild super-upplösning med hjälp av snabbare och djupare konvolutionella neurala nätverk, återstår ett centralt problem i stort sett olöst: hur kan vi återställa de finare textur detaljer när vi super-löser på stora uppskalningsfaktorer? Uppförandet av optimeringsbaserade superupplösningsmetoder drivs främst av valet av den objektiva funktionen. Den senaste tidens arbete har till stor del fokuserat på att minimera det genomsnittliga kvadratrekonstruktionsfelet. De resulterande uppskattningarna har hög signal-till-brusförhållande, men de saknar ofta högfrekvensdetaljer och är perceptuellt otillfredsställande i den meningen att de inte matchar den trohet som förväntas vid den högre upplösningen. I denna artikel presenterar vi SRGAN, ett generativt kontradiktoriskt nätverk (GAN) för bildsuperupplösning (SR). Till vår kunskap är det den första ramen som kan sluta sig till fotorealistiska naturliga bilder för 4× upscaling faktorer. För att uppnå detta föreslår vi en perceptuell förlustfunktion som består av en kontradiktorisk förlust och en innehållsförlust. Den kontradiktoriska förlusten driver vår lösning till det naturliga bildgrenröret med hjälp av ett discriminatornätverk som är tränat för att skilja mellan de superupplösta bilderna och de ursprungliga fotorealistiska bilderna. Dessutom använder vi en innehållsförlust som motiveras av perceptuell likhet istället för likhet i pixelutrymme. Vårt djupa resterande nätverk kan återställa fotorealistiska texturer från kraftigt nedplockade bilder på offentliga riktmärken. En omfattande medel-opinion-score (MOS) test visar enormt betydande vinster i perceptuell kvalitet med hjälp av SRGAN. MOS poäng som erhållits med SRGAN är närmare de ursprungliga högupplösta bilder än de som erhållits med någon toppmodern metod. | Den super-upplösningsalgoritm SRGAN REF använder en viktad kombination av tre olika förlustfunktioner, nämligen medel kvadratfel, perceptuell och kontradiktorisk förlust för att få en skarpare rekonstruktion. | 211,227 | Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network | {'venue': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'journal': '2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 81,287 |
Låt G vara en n-node och m-kant positivt real-viktad oriktad graf. För varje givet heltal f ≥ 1, studerar vi problemet med att utforma en sparse f-edge-fault-tolerant (f -EFT) σ-ungefärlig en källa kortaste vägen träd (σ-ASPT), nämligen en del av G har så få kanter som möjligt och som, efter misslyckandet med en uppsättning F på de flesta f kanter i G, innehåller vägar från en fast källa som sträcks som mest av en faktor av σ. I detta avseende tillhandahåller vi en algoritm som på ett effektivt sätt beräknar en f-EFT (två gånger F) + 1)-ASPT i storlek O (f n). Vår struktur förbättrar en tidigare relaterad konstruktion utformad för oviktade grafer, med samma storlek men garanterar en större stretchfaktor på 3 f + 1), plus en additiv term av (f + 1) log n. Därefter visar vi hur man konverterar vår struktur till en effektiv f -EFT en källa avstånd oracle (SSDO), som kan byggas i O (f m) tid, har storlek O (f n log 2 n), och kan rapportera, efter misslyckandet med kanten som F, i O ( och F) 2 log 2 n) tid a (2 och F + 1)-ungefärlig avstånd från källan till någon nod, och en motsvarande ungefärlig väg i samma tid plus banans storlek. Ett sådant orakle erhålls genom att hantera ett annat grundläggande problem, nämligen att uppdatera en minsta spännskog (MSF) av G efter att ett parti av k samtidiga kantmodifieringar (dvs. kantinsättningar, raderingar och viktförändringar) utförs. För detta problem, vi bygger i O(m log 3 n) tid en känslighet oracle av storlek O (m log 2 n), som rapporterar i O(k 2 log 2 n) tid (som mest 2k) kanter antingen lämna eller gå in i MSF. Som ett resultat av oberoende intresse, är det värt att notera att vår MSF oracle kan användas för att hantera godtyckliga sekvenser av o( 4 ε n/ log n) (icke-simultana) uppdateringar med en värsta fall tid per uppdatering av o( ε n). Således, för relativt korta sekvenser av uppdateringar, bör vårt orakel föredras w.r.t. Den mest kända (i värsta fall) MSF-algoritm som är helt dynamisk och som kräver O ( ε n) tid per uppdatering. | I ett annat resultat, Bilò et. Detta beslut träder i kraft dagen efter det att det har offentliggjorts i Europeiska unionens officiella tidning. REF utformade en k feltolerant avstånd oracle av storlek Õ (kn) med en sträcka faktor (2k + 1) som kan svara på frågor i Õ (k 2 ) tid. | 8,184,766 | Multiple-Edge-Fault-Tolerant Approximate Shortest-Path Trees | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 81,288 |
Abstract-I detta papper undersöker vi ett binärt decentraliserat detektionsproblem där ett nätverk av trådlösa sensorer ger relevant information om tillståndet i naturen till ett fusionscenter. Varje sensor överför sina data över en flergångskanal. Vid mottagandet av informationen försöker fusionscentret att korrekt rekonstruera naturens tillstånd. Vi tar hänsyn till det scenario där sensornätverket begränsas av kapaciteten hos den trådlösa kanal över vilken sensorerna sänder, och vi studerar strukturen i en optimal sensorkonfiguration. För problemet med att upptäcka deterministiska signaler i additiv Gaussian brus, visar vi att ha en uppsättning identiska binära sensorer är asymptotiskt optimalt, eftersom antalet observationer per sensor går till oändlighet. Således, den vinst som erbjuds genom att ha fler sensorer överstiger fördelarna med att få detaljerad information från varje sensor. En grundlig analys av Gaussian fallet presenteras tillsammans med vissa förlängningar till andra observation distributioner. | Chamberland och Veeravalli visade att ha en uppsättning identiska binära sensorer är asymptotiskt optimalt som antalet observationer går till oändlighet REF. | 18,108,597 | Decentralized detection in sensor networks | {'venue': 'IEEE Trans. Signal Process.', 'journal': 'IEEE Trans. Signal Process.', 'mag_field_of_study': ['Computer Science', 'Mathematics']} | 81,289 |
Fog computing tillhandahåller en distribuerad infrastruktur i utkanten av nätet, vilket resulterar i låg latent access och snabbare svar på ansökningar. Omputeringskraven för mobila användare fortsätter att öka, eftersom dator- och kommunikationskapaciteten hos smarta och bärbara enheter och system i fordon fortsätter att förbättras. Många applikationer förlitar sig på fjärrresurser för att avlasta och slutföra uppgifter, främst genom användning av en storskalig datoranläggning som finns i ett datacenter. Sådana molnsystem kan också stödja applikationer genom att lagra data M A R C H /A P R I L 2 0 1 7 I E E E C LO U D CO M P U T I N G 2 7 och bearbeta uppgifter som avlastas av mobila eller fasta enheter. Med ökande fokus på Internet-of-Things (IoT), otaliga enheter utspridda och anslutna till Internet, producerar och konsumerar data kräver skalbar resurshantering på aldrig tidigare skådade nivåer. 1 Datadynamiken och heterogeniteten till följd av denna förväntade explosionsexpansion av anslutna enheter, vanligen kallade Big Data, kräver också nya bearbetningsmodeller och infrastrukturer för att stödja dess huvudsakliga dimensioner: datavolym, hastighet och variation. En viktig aspekt av denna nya era är att både dataförbrukning och produktion är kraftigt fördelade och i nätets kanter (dvs. Närmre eller vid slutanvändarenheter). Medan den centraliserade datacentermodellen för molndata kan hantera många typer av applikationer och stora mängder data, är dess infrastruktur och nätverksanslutning till kanten inte utformade för att hantera detta Big Data fenomen. I detta sammanhang är dator- och datahanteringsmodeller som stöder datorkapacitet i nätets utkanter nu föremål för betydande forskning. Mobila moln, fordonsnätverk och dimdata är exempel på nya distribuerade datormodeller som utnyttjar kantkapaciteten närmare dataproduktionen. Med data som också produceras i utkanten kan både datagenerering och konsumtion förekomma på många olika platser och tider. I detta sammanhang kan olika tillämpningar ha olika krav, särskilt när det gäller svarstid. För närvarande är applikationer ofta beroende av molnet för att ha data och bearbetningsstöd, vilket kanske inte är lämpligt för lägre latenskrav. Dessutom, utförande av applikationer i molndatacenter tar inte hänsyn till användarens rörlighet, och data eller behandling av en ansökan kan ske på en geografiskt avlägsen datacenter. Å andra sidan, i ett distribuerat datorscenario vid nätets kanter, kan datadistribution och behandling upprätthållas närmare användaren, minska nätverkstrafiken till datacenter och förbättra applikationens svarstider till följd av lägre nätlatens eller fördröjning. Detta dokument diskuterar problemet med resursfördelning med tanke på den hierarkiska infrastrukturen som består av kantkapacitet och molndatacenter, analysera programklasser tillsammans med olika schemaläggningspolicyer. För att ta itu med denna utmaning inför vi ett antal schemaläggningsmetoder som tar hänsyn till användarens rörlighet och kantdatorkapacitet, inom ramen för en Fog Computing-infrastruktur. 1 Vi diskuterar fördelarna med att kombinera applikationsklasser med schemaläggningspolicyer i scenarier som illustrerar dessa schemaläggningsmetoder, särskilt i samband med användarrörlighet. I nästa avsnitt presenteras den dimdatamodell som behandlas i detta dokument och därefter diskuteras därmed tillhörande arbete. Därefter introducerar vi ansökningsmodellen och två exempeltillämpningar, som används i utvärderingen vidare i dokumentet. Därefter presenterar vi olika fördelningspolicyer och simuleringsresultat. Sedan diskuterar vi resursfördelningsutmaningar för dimdata. Användarprogram som får tillgång till det publika molnet gör det genom en åtkomstpunkt som gör det möjligt för datautbyte via stamnätet att nå molndatacentret. Med införandet av datorkapacitet i utkanten av nätet kan dessa åtkomstpunkter utvidgas till att även tillhandahålla data- och lagringstjänster: molnen. Figur 1 illustrerar molnmolnskonceptet inom dimmans hierarkiska infrastruktur. Denna dimdataarkitektur presenterar en hierarkisk, dubbelriktad datorinfrastruktur: kantenheter kommunicerar med moln och molnmoln kommunicerar med moln. Cloudlets kan också kommunicera med varandra för att utföra data- och processhantering för att stödja tillämpningskrav, och för att utbyta dimstyrning/hanteringsdata (såsom användarenhet och applikationstillstånd). I dimma databehandling, bearbetning och lagring kapacitet är ett hopp bort från produktionen/konsumtionen av data, som kan gynna olika typer av applikationer • Applikationer med låga latens krav, såsom fotgängare och trafiksäkerhet, övervakning, applikationer för syn, hörsel, eller rörelsehindrade användare, onlinespel, förstärkt verklighet, och taktil databehandling kan dra nytta av lägre latens på grund av en enda humleanslutning till en cloudlet. • Applikationer som för närvarande förlitar sig på molnet kan också dra nytta av lägre förseningar och svarstider när man antar en dimbaserad distribution om deras data och behandling utförs av en närliggande cloudlet. Detta kan också minska datatrafiken till molnet. • Råa data som samlas in av många enheter ofta inte behöver överföras till molnet för långsiktig lagring: data kan behandlas, filtreras, eller aggregeras för att extrahera kunskap och producera reducerade datamängder, som i sin tur ska lagras, eller det kan behandlas och användas direkt till andra kantenheter i den så kallade sensor / aktuator loopen. I båda fallen kan dimdataparadigmet minska nätverkstrafiken från kanten till datacenter. Cloudlets kan ge minskad latens och hjälpa till att undvika/minska trafikstockningar i nätets kärna. Detta kommer dock till ett pris: det behövs mer komplexa och sofistikerade resursförvaltnings- och planeringsmekanismer. Detta medför nya utmaningar att övervinna, t.ex. att dynamiskt bestämma vad, när och var (enhet/fog/moln) ska utföra behandlingen av förfrågningar för att uppfylla deras kvalitet på tjänsterna. Med smarta och bärbara anordningar måste sådana mekanismer dessutom införliva datakällornas rörlighet och sänkor i dimman. Traditionell resursförvaltning och schemaläggningsmodeller för distribuerade system tar inte hänsyn till rörlighet och aktualitet för dataproduktion och -konsumtion i resurshanterings- och tilldelningsprocessen. Schemaläggning av fogdata måste föra användarna till resursfördelningspolicyerna för att upprätthålla fördelarna med dimdatorns närhet till användaren. Resurshantering och schemaläggning inom dimdata är ett nytt ämne som kombinerar aspekter från sensornätverk, cloud computing, mobil databehandling och genomträngande datafält. I dimma beräkning, sensorer och andra enheter genomträngande närvarande vid kanten av dimman generera data och konsumera data som måste behandlas med molnen och molnen. Vart och ett av dessa fält har en uppsjö av litteratur, väldokumenterad av forskare. 3, 4, 5 Fog computing har diskuterats som en plattform för att ge stöd för Internet of Things (IoT) och analys. Bonomi m.fl. diskutera många aspekter av en diminfrastruktur, inklusive samspelet mellan dimma och molnsystem. Författarna hävdar att dimma databehandling kan bättre adressera applikationer och tjänster som inte passar bra i molnet, såsom låg-latens eller geo-distribuerade program. I detta dokument främjar vi denna diskussion genom att införa strategier som kan antas i närvaro av olika tillämpningsklasser. En programmeringsmodell har föreslagits för att stödja dimdatatillämpningar, som omfattar händelsehanterare och ett programprogrammeringsgränssnitt (API). 6 Programmeringsmodeller kompletterar det presenterade arbetet, eftersom de förlitar sig på programplaneringsstrategier för att avgöra var de funktioner som skapas av användarna ska fördelas. GigaSight är en virtuell maskinbaserad molnbaserade infrastruktur som används för att stödja videolagringsanalys vid kanten. 7 En motivering till förslaget är att undvika överväldigande storstadsnätverk med en stor mängd videoströmmar som skickas till molnleverantörer. GigaSight program kan dela molnen med andra typer av program, där en korrekt resursfördelning kan förbättra prestanda. Jennings och Stadler 3 diskuterar resurshanteringsmål och utmaningar inom cloud computing. Många aspekter täcks av dem, bland annat resurshanteringsfunktioner och resursallokering i nätverk, som också är relevanta för dimdata. Kantanordningar i dimman medför särskilda egenskaper som måste beaktas, bland vilka tillämpningskrav och rörlighet diskuteras i resten av detta dokument. Multi-moln är plattformar som aggregerar dataresurser från olika molnleverantörer. Medan multi-moln kan hjälpa till att minska latenser till slutanvändarna, de kan inte ge riktigt låga latenser som de som förespråkas av dimma dator med sin 1-hop bort cloudlet infrastruktur. Den hierarkiska kombinationen av dimma och moln (stå ensamma eller federerade) ger därför fortfarande fördelar när det gäller latens och nätverkstrafik. Europeiska institutet för telekommunikationsstandarder (ETSI) har lanserat initiativet Mobile-Edge Computing (MEC) för att skapa standarder för mobila datorplattformar, efter att ha föreslagit en plan 9 och även dokument med tekniska krav, terminologi och tjänstescenarier. En första specifikation förväntas levereras i slutet av 2016. När det gäller resursfördelning och schemaläggning är det viktigt att avlasta beslut i mobila enheter. 5 Kosta m.fl. presentera ThinkAir, ett ramverk för att avlasta mobila applikationer till molnet. 10 ThinkAir kan parallellisera utförandet med hjälp av virtuella maskiner, uppnå förkortade utförandetider och energiförbrukning i den mobila enheten. I ett dimdatascenario bör de avlastade modulerna fördelas enligt tillämpningskraven, vilket vi diskuterar vidare i detta dokument. Dimarkitekturen är hierarkisk, där beslut om bearbetnings- och lagringsplats omfattas av tillämpningsbegränsningar och användarens geolokalisering. Medan den förra kan specificeras på olika sätt, som i form av kvalitet på tjänsten (QoS) begränsningar, den senare beror på mänskliga (eller andra autonoma system) beteende. I slutändan bestämmer användarens beteende tid och position för en datorenhet, som tillsammans med QoS-begränsningar kan användas för att skapa programklasser som är relevanta för resurshantering och schemaläggning i en dimdatormiljö. Genom att erkänna olika programklasser kunde man använda olika schemaläggningsprinciper, algoritmer eller mekanismer för att hantera varje klass. För att illustrera hur resurshantering i dimma dator kan gynna applikationer genom att överväga geolokalisering och olika programklasser, identifierar vi två typer av appar: nära realtid och delay-tolerant. För det förra beskriver vi det elektroencefalografiska (EEG) traktorstrålspelet; för det senare ett program för videoövervakning/objektspårning. I EEG traktorstrålspelet (EEGTBG) försöker spelarna samla föremål genom att koncentrera sig på dem. En spelare som har en bättre koncentration på ett objekt kan locka det mot sig själv. Snabb bearbetning och låga svarstider som uppnås av edge computing-enheter kan ge spelarna en sann online-upplevelse i realtid. EEGTBG-applikationen har 5 moduler EEG-sensor, display, klient, koncentrationsräknare och koordinator. EEG-headsetet känner av användarens koncentration och strömmar rådata till klientmodulen. Kundmodulen filtrerar/ vidarebefordrar konsekventa data till koncentrationsräknaren, som beräknar användarens koncentrationsnivå. Koncentrationsnivån skickas till klientmodulen, som uppdaterar speldisplayen till spelaren. Koordinatormodulen samlar och distribuerar uppmätt koncentration mellan spelare. EEG-sensorn, displayen och klientmodulerna placeras i den mobila enheten (t.ex. smartphone). Koncentrationskalkylatorn och koordinatormodulerna kan placeras i molnen eller i ett molndatacenter. Programmet för videoövervakning/objektspårning (VSOT) bygger på en uppsättning distribuerade intelligenta kameror som kan spåra rörelser med 6 moduler (se figur 2): kamera, rörelsedetektor, objektdetektor, objektspårare, användargränssnitt och panor, lutning och zoomstyrning (PTZ). Kameran strömmar video till rörelsedetektormodulen, som filtrerar inkommande ström och vidarebefordrar video där rörelse detekterades till objektdetektormodulen. Objektdetektormodulen identifierar de rörliga objekten, skickar objektidentifikation och positionsinformation till objektspåraren, som i sin tur beräknar den önskvärda PTZ och skickar kommandot till styrmodulen PTZ. Vi anser att rörelsedetektorn och styrmodulerna för PTZ alltid placeras i kameran, medan användargränssnittet alltid finns i molnet. Objektdetektorn och objektspåraren är de två moduler som ska placeras genom beslutspolicyer i ett moln eller i ett molndatacenter. Båda applikationerna -EEGTBG och VSOT - kan installeras i en diminfrastruktur för att dra nytta av lägre latens på grund av användning av cloudlets. VSOT kan arbeta tillfredsställande under datacentral- distans latenser (> 100 millisekunder). Å andra sidan kan större förseningar i EEGTBG påverka spelarnas uppfattning i realtid, vilket gör spelet overkligt och försämrar dess spelbarhet. Vi anser att VSOT 30 och EEGTBG tillhör två olika typer av tillämpningar (fördröjningskänsliga och fördröjningstoleranta) som kan dra nytta av en dimdatainfrastruktur. Med den snabba användningen av mobila (smarta) enheter måste infrastrukturen för dimdata kunna tillgodose varierande krav i molnen, samtidigt som den förlitar sig på elasticitet i molndatasystem för att avlasta bearbetning och/eller lagring vid behov. Detta scenario illustreras i figur 3, där tre moln är anslutna till en gateway som ger tillgång till ett moln-baserat datacenter. För illustrationsändamål, låt oss anta att Cloudlet 2 ligger i en stadskärna och det stöder ett antal smarta kameror som kör VSOT-programmet. Låt oss också anta att de två andra molnen ligger längs en stig mellan förorterna och stadens centrum. Under rusningstid (till exempel) brukar användare gå mot centrum, och därmed Cloudlet 2 kommer att få mer belastning från inkommande användare. I vårt scenario kännetecknas denna belastning av EEGTBG-spelare med sina smarta telefoner. Om många EEGTBG-spelare flyttar till den region där Cloudlet 2 ligger kan det bli överbelastat (processor, lagring och/eller nätverk). I idealfallet bör Cloudlet 2 ha tillräcklig kapacitet för att hantera lasten från alla sina användare, inklusive de ytterligare EEGTBG-användare som rör sig mot sin region. Men under många timmar på dagen detta moln skulle underutnyttjas av VSOT-applikationen ensam, vilket skulle innebära lågt resursutnyttjande och onödig energiförbrukning, förutom potentiella drifts- och underhållskostnader. För att undvika sådant avfall i resursanvändning kan Cloudlet 2 planeras för att stödja efterfrågan på applikationer i den lägre delay-klassen, och samtidigt köra andra program när det är möjligt. Därför bör resurshanteringsstrategier för att fördela resurser mellan molntjänster och molntjänster kunna hantera varierande efterfrågan samtidigt som hänsyn tas till tillämpningars egenskaper och användares rörlighet. Olika tillämpningskrav tillsammans med dimmans mobila karaktär kräver en förbättrad policy som kan optimera resursutnyttjandet och erbjuda servicekvalitet i enlighet därmed. Vi illustrerar hur tre olika schemaläggningsstrategier kan påverka applikationers servicekvalitet i en dimmetisk Concurrent, First Come-First Servering (FCFS) och Delayy-priority-strategier. Jämförelsen är avsedd att visa hur prioriteringen av applikationer med låga fördröjningar (fördröjningsprioritet) skulle förbättra tillämpningen jämfört med vanliga resursdelningstekniker (konkurrent och FCFS). Dessa algoritmer bör köras i en cloudlet när en ny ansökan begäran anländer, besluta om var denna begäran ska köras: i cloudlet eller i molnet. Detta beslut kan baseras på både nuvarande cloudlet-belastning (t.ex. Processorn) och kraven på begäran (t.ex. fördröjning), som beskrivs nedan • Konkurrent strategi: ansökningar som anländer till en cloudlet helt enkelt tilldelas en sådan cloudlet, oavsett kapacitet eller nuvarande användning. • Första Come-First Serverad (FCFS) strategi: förfrågningar serveras i ordningen för deras ankomst, tills det inte finns några fler datorresurser tillgängliga. För enkelhetens skull, vi bara överväga CPU kapacitet, men flera kriterier beslutsfattande ofta beaktas i schemaläggning litteratur. När cloudlet blir full (dvs., återstående CPU-kapacitet är mindre än tillämpningskrav), program börjar schemaläggas för utförande vid molndatacentret. • Försening-prioritering: program som kräver lägre fördröjning är schemalagda först; nästa klass av ansökningar är planerad i molnet tills det inte finns någon CPU-kapacitet tillgänglig, och de återstående program är schemalagda i molnet. Strategierna implementerar en kombinationsmekanism för modulen som beskrivs i algoritmen Edge-ward, 11 där moduler i samma applikation grupperas för att placeras på samma enhet. I denna sammanfogningsmekanism flyttas även alla moduler av samma slag till samma enhet när en modul flyttas till en annan enhet. För att utvärdera de olika strategierna i ett dimdatascenario utförde vi simuleringar med iFogSim. IFogSim valdes eftersom det körs på toppen av den väletablerade CloudSim simulator, som har använts och testats i stor utsträckning, och det är en simulator som tillåter hierarkisk sammansättning av kantenheter, moln och moln, också stödja mätning av programförseningar. Utvärderingen syftar till att analysera ansökningarnas prestanda i form av förseningar samt att bedöma hur fördelningspolicyn påverkar nätverkstrafiken. Vi har satt upp scenariot som beskrivs i figur 3 med fyra VSOT-tillämpningar som körs i Cloudlet 2 och tolv EEGTBG-programanvändare i cloudlets 1 och 3. Inledningsvis spelar sex EEGTBG-användare spelet på platser nära Cloudlet 1 och andra sex spelare är närmare Cloudlet 3. Vi flyttar EEGTBG spelare en efter en till Cloudlet 2, efterliknar en mobilitet beteende, för att bedöma eventuell kvalitet på servicedegradering till följd av dålig resursallokering. Eftersom EEGTBG har låga latenskrav anser vi att en spelare i en cloudlet endast spelar mot spelare i samma cloudlet. Resultat visade fokus på analysen av Cloudlet 2, som tar emot program från rörliga användare. Varje cloudlet hade en bearbetningskapacitet på 4000 MIPS (miljoner instruktioner per sekund) och var ansluten till porten genom en länk med 10.000 Kbps bandbredd och fyra millisekunder latens. Länken mellan porten och molnet hade 10.000 Kbps bandbredd och 100 millisekunder latens. Mobila enheter och kameraenheter kopplades till molnen genom en länk med 10.000 Kbps bandbredd och två millisekunders latens. Schemaläggning beslutsfattandet sker innan programmet körs, vilket innebär att den faktiska CPU-kapacitet som används av varje programmodul inte är exakt känd vid schemaläggningstidpunkten. Vid schemaläggningstid, strategier måste kontrollera om en cloudlet har tillräckligt med fri CPU-kapacitet för att hantera varje programmodul. I scenariot vi övervägde, varje modul behövde, under genomförandet, högst den CPU kapacitet som visas i tabell 1. Under utförandet använder varje program vid en given tidpunkt CPU-kapacitet som beror på interaktionen mellan dess moduler (dvs. hur mycket data det tar emot från/skickar till andra moduler, vilket utlöser CPU-intensiva åtgärder). Dessa uppskattningar kommer från ansökan beskrivning, som modellerar ansökan som en riktad graf, eller arbetsflöde, med dess attribut, som allmänt finns i schemaläggning litteratur. 11,12 Exakt uppskattning är dock en utmanande fråga och det är ett fokus för forskning i sig. För vissa tillämpningar är indataegenskaper (t.ex. video- eller bildkvalitet) och historiska data bra indikatorer för att uppskatta framtida prestanda, medan andra program uppvisar oförutsägbart beteende och uppskattar sin framtida prestanda inte ger mycket exakta resultat. Varje program har en processloop bland sina moduler som måste utföras för att visa resultaten. Fördröjningen i slingan är den tid det tar för en applikationsslinga att köra. I VSOT-applikationen börjar denna loop med kamerasensorerna som producerar videoströmmen, går igenom rörelsedetektorn, objektdetektorn, objektspårningen och slutligen PTZ-kontrollen, och mäter hur lång tid det tar för ett objekt att upptäckas, spåras och kameran justeras för att få bättre bilder av detta objekt. I EEGTBG-applikationen består slingan av EEG-sensoröverföringen till mobiltelefonen, kundval av konsekventa avläsningar, koncentrationsräknaren, klienten igen och displayen. Detta mäter den tid som tagits mellan den avkännda koncentrationsnivån och visningen av aktuell spelstatus för användaren. Figur 4 visar fördröjningen av programslingorna VSOT och EEG-BTG för de tre olika schemaläggningsstrategierna beroende på antalet användare som har flyttat från cloudlets 1 och 3 till Cloudlet 2. När bara en EEGBTG-spelare har flyttat till Cloudlet 2, har alla tre strategierna samma resultat för båda programmen. När den andra spelaren flyttade till Cloudlet 2, börjar olika schemaläggningsstrategier påverka programmen på olika sätt. VSOT-slingan fördröjs med konkurrent- och Delayprioritetsstrategierna, samtidigt som en låg fördröjning bibehålls med FCFS-strategin. Detta innebär att schemaläggning med hjälp av den Konkurrenta strategin medför resurs I E E C LO U D CO M P U T I N W W. CO M P U T E R. O R G /C LO U D CO M P U T I N G innehåll till Cloudlet 2, med VSOT-applikationen upplever en mycket hög fördröjning i sin kontroll slinga, vilket resulterar i kvalitet på tjänsten nedbrytning och därav följande program missuppfos, vilket undviks av FCFS genom att flytta EEGTBG moduler till molnet. Å andra sidan flyttar Delay-priority VSOT-moduler till molnet som ett resultat av den högre prioritet EEGTBG-applikationen ankomst, vilket ökar VSOT-slingan fördröjning till en acceptabel nivå på cirka 200 millisekunder samtidigt som EEGTBG förseningar så lägre som möjligt. | I REF använde författarna iFogSim simulatorn för att testa olika strategier som samtidig strategi, och First Come-First Serverd (FCFS) strategi för att införa fördröjning-prioritet. | 206,449,409 | Mobility-Aware Application Scheduling in Fog Computing | {'venue': 'IEEE Cloud Computing', 'journal': 'IEEE Cloud Computing', 'mag_field_of_study': ['Computer Science']} | 81,290 |
I många tillämpningar har vi ett socialt nätverk av människor och vill identifiera medlemmarna i en intressant men omärkt grupp eller gemenskap. Vi börjar med ett litet antal exemplar gruppmedlemmar - de kan vara anhängare av en politisk ideologi eller fans av en musik genre - och behöver använda dessa exempel för att upptäcka ytterligare medlemmar. Detta problem ger upphov till problemet med fröexpansion när det gäller att upptäcka samhällen: hur kan man med hjälp av den sociala grafen förutsäga identiteten hos kvarvarande, dolda samhällsmedlemmar? I motsats till global community detection (graph partitioning eller covering), är fröexpansion bäst lämpad för att identifiera samhällen lokalt koncentrerade runt noder av intresse. En växande mängd arbete har använt fröexpansion som ett skalbart sätt att upptäcka överlappande samhällen. Men trots det växande intresset för fröexpansion finns det olika tillvägagångssätt i litteraturen och det finns fortfarande ingen systematisk förståelse för vilka tillvägagångssätt som fungerar bäst inom olika områden. Här utvärderar vi flera varianter och avslöjar subtila kompromisser mellan olika tillvägagångssätt. Vi undersöker vilka egenskaper utsädet kan förbättra prestanda, med fokus på heuristik som man kan kontrollera i praktiken. Som en följd av denna systematiska förståelse har vi funnit flera möjligheter till resultatvinster. Vi överväger också en adaptiv version där förfrågningar görs om ytterligare medlemsetiketter för särskilda noder, såsom man finner i fältstudier av sociala grupper. Detta leder till intressanta kopplingar och kontraster till aktivt lärande och kompromisser i fråga om prospektering och exploatering. Slutligen undersöker vi topologiska egenskaper hos samhällen och fröuppsättningar som korrelerar med algoritmprestanda, och förklarar dessa empiriska observationer med teoretiska. Vi utvärderar våra metoder över flera domäner, med hjälp av allmänt tillgängliga dataset med märkta, mark-sanning samhällen. | Ett nyligen utfört arbete av Kloumann & Kleinberg REF gav en systematisk förståelse för varianter av PageRank-baserade fröuppsättningsexpansion. | 732,831 | Community membership identification from small seed sets | {'venue': "KDD '14", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,291 |
I den befintliga systemstrukturen för centraliserade lokaliseringstjänster lockas servern lätt till sig och blir en flaskhals för kommunikation. Det ledde till att användarna underrättades om var de befann sig. För detta lade vi fram en ny distribuerad samarbetsrekommendationsstrategi som bygger på det distribuerade systemet. I denna strategi fastställer varje nod profiler av sin egen lokaliseringsinformation. När förfrågningar om platstjänster visas kan användaren få motsvarande platstjänster enligt rekommendationen från de angränsande användarnas platsinformationsprofiler. Om inga lämpliga rekommenderade plats service resultat erhålls, då användaren kan skicka en serviceförfrågan till servern enligt byggandet av en kanonym datauppsättning med en centroid position grannarna. I denna strategi har vi utformat en ny modell för distribuerad rekommendationslokaliseringstjänst baserad på användarnas platsinformationsprofiler och använd generalisering och kryptering för att säkerställa säkerheten för användarens platsinformationsintegritet. Slutligen använde vi de verkliga lokaliseringsuppgifterna för att göra teoretiska och experimentella analyser. Och resultaten visar att den strategi som föreslås i detta dokument kan minska frekvensen av tillgång till platsservern, ge bättre lokaliseringstjänster och bättre skydda användarens platsintegritet. | I REF rekommenderades lokaliseringstjänster baserade på en distribuerad arkitektur. | 6,104,300 | Protection of Location Privacy Based on Distributed Collaborative Recommendations | {'venue': 'PLoS ONE', 'journal': 'PLoS ONE', 'mag_field_of_study': ['Medicine', 'Computer Science']} | 81,292 |
Abstrakt. Avancerade flertrådade program tillämpar konvergenskoncept på sofistikerade sätt. Till exempel använder de finkornig låsning för att öka parallellismen och ändra låsordningarna dynamiskt när datastrukturerna omorganiseras. I detta dokument presenteras en sund och modulär verifieringsmetod som kan hantera avancerade konvergensmönster i flertrådiga, objektbaserade program. Metoden är baserad på implicita dynamiska ramar och använder fraktionerade behörigheter för att stödja finkornig låsning. Den stöder koncept som multi-objekt övervaka invarianter, tråd lokala och delade objekt, tråd pre- och postvillkor, och dödläge förebyggande med en dynamiskt föränderlig låsordning. I dokumentet föreskrivs generering av verifieringsvillkor i första ordningen logik, väl lämpad för granskning av off-the-shälf SMT lösare. En kontrollör för metoden har implementerats för ett experimentellt språk, och har använts för att verifiera flera utmanande exempel, inklusive hand-över-hand-låsning för länkade listor och en låsomordningsalgoritm. | REF presenterar en metod för modulär verifiering av samtidiga objektbaserade program som baseras på dynamiska ramar och funktionsbehörigheter. | 18,721,667 | A basis for verifying multi-threaded programs | {'venue': 'ESOP', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,293 |
I detta arbete beskriver vi ett Convolutional Neural Network (CNN) för att exakt förutsäga scenens belysning. Med bildlappar som inmatning fungerar CNN i den rumsliga domänen utan att använda handgjorda funktioner som används av de flesta tidigare metoder. Nätverket består av ett konvolutionslager med max pooling, ett helt uppkopplat lager och tre utgångsnoder. Inom nätverksstrukturen integreras funktionsinlärning och regression i en optimeringsprocess, vilket leder till en mer effektiv modell för att uppskatta scenbelysning. Detta tillvägagångssätt uppnår toppmoderna resultat på standarddatauppsättningar av RAW-avbildningar. Preliminära experiment på bilder med rumsligt varierande belysning visar stabiliteten i den lokala ljusuppskattningsförmågan hos vårt CNN. 81 978-1-4673-6759-215/$31.00 ©2015 IEEE | Mer nyligen, Bianco et al. REF föreslås att använda ett konvolutionellt neuralt nätverk, erhålla toppmoderna resultat. | 8,877,975 | Color constancy using CNNs | {'venue': '2015 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW)', 'journal': '2015 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW)', 'mag_field_of_study': ['Computer Science']} | 81,294 |
Abstract-RFID-teknik kan tillämpas på ett brett spektrum av områden. I synnerhet RFID är mycket användbart på området för affärsverksamhet, såsom hantering av försörjningskedjan. Mängden RFID-data i en sådan miljö är dock enorm. Därför behövs det mycket tid för att ta fram värdefull information från RFID-data för hantering av försörjningskedjan. I detta dokument presenterar vi en effektiv metod för att behandla en massiv mängd RFID-data för hantering av försörjningskedjan. Vi definierar först frågemallar för att analysera leveranskedjan. Vi föreslår sedan ett effektivt system för vägkodning som kodar produktflödena. Men om flödena är långa, kommer siffrorna i vägkodningsschemat som motsvarar flödena att vara mycket stora. Vi löser detta genom att tillhandahålla en metod som delar flöden. För att få tidsinformation för produkter effektivt använder vi ett numreringssystem för XML-området. Baserat på systemet för kodning av sökvägar och numreringssystemet, utformar vi ett lagringssystem som kan behandla spårningsfrågor och sökväg orienterade frågor effektivt på en RDBMS. Slutligen föreslår vi en metod som översätter frågorna till SQL-frågor. Experimentella resultat visar att vårt tillvägagångssätt kan behandla frågorna effektivt. | Lee och Al. I REF föreslogs en vägkodningsplan för att behandla en massiv mängd RFID-data för hantering av försörjningskedjan. | 7,443,202 | RFID Data Processing in Supply Chain Management Using a Path Encoding Scheme | {'venue': 'IEEE Transactions on Knowledge and Data Engineering', 'journal': 'IEEE Transactions on Knowledge and Data Engineering', 'mag_field_of_study': ['Computer Science']} | 81,295 |
Taggar är en viktig informationskälla i Web 2.0. De kan användas för att beskriva användarnas ämne preferenser samt innehållet i objekt för att göra personliga rekommendationer. Men eftersom taggar är godtyckliga ord som ges av användare, de innehåller en hel del buller såsom tagg synonymer, semantiska tvetydigheter och personliga taggar. Sådant buller medför svårigheter att förbättra noggrannheten i punktrekommendationerna. För att eliminera buller av taggar, i detta papper föreslår vi att använda flera relationer mellan användare, objekt och taggar för att hitta den semantiska innebörden av varje tagg för varje användare individuellt. Med den föreslagna metoden, de relevanta taggarna för varje objekt och taggar preferenser för varje användare bestäms. Dessutom undersöks användar- och objektbaserad samverkansfiltrering i kombination med innehållsfiltrering. Hur effektiva de föreslagna tillvägagångssätten är visas i de experiment som utförs på verkliga världen dataset som samlats in från Amazon.com och citationUGle webbplats. | REF föreslås till flera relationer mellan användare, objekt och taggar för att hitta den semantiska innebörden av varje tagg för varje användare individuellt och använde denna information för personlig objektrekommendation. | 13,857,495 | Connecting users and items with weighted tags for personalized item recommendations | {'venue': "HT '10", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,296 |
Fixing concurrency buggar (eller kryckor) är avgörande i moderna mjukvarusystem. Statiska analyser för att hitta crugs såsom data races och atomicity kränkningar skala dåligt, medan dynamiska metoder ådrar sig hög run-time overheads. Crugs manifesteras endast under specifika utförande interleavings som inte kan uppstå under interna tester, vilket kräver en lätt programövervakning teknik som kan användas efter utplacering. Vi presenterar Cooperative Crug Isolation (CCI), en lowoverhead instrumentation ram för att diagnostisera produktionskörning misslyckanden orsakade av crugs. CCI spårar specifika trådkopplingar vid körtid, och använder statistiska modeller för att identifiera starka fel prediktorer bland dessa. Vi erbjuder en varierad uppsättning predikat som representerar olika avvägningar mellan komplexitet och felisoleringsförmåga. Vi utvecklar också alternativa slumpmässiga provtagningsstrategier som passar olika typer av predikat och hjälper till att hålla run-time overhead låg. Experiment med 9 verkliga fel i 6 icke-triviala C-applikationer visar att dessa system spänner över ett brett spektrum av prestanda och diagnoskapacitet, var och en lämplig för olika användningsscenarier. | På liknande sätt, Jin et al. REF presenterade ett övervakningsramverk kallat Cooperative Crug (Concurrency Bug) Isolation för att diagnostisera produktionsfel orsakade av concurrency bugs. | 3,439,914 | Instrumentation and sampling strategies for cooperative concurrency bug isolation | {'venue': 'OOPSLA', 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,297 |
Abstract-This paper undersöker användningen av Petri nät för att modellera samordnade cyberfysiska attacker på det smarta nätet. Petri nät erbjuder mer flexibilitet och uttrycksfullhet än traditionella attack träd för att representera åtgärder samtidiga angripare. Petri nettomodeller för angrepp på mycket stora kritiska infrastrukturer som det smarta nätet kräver dock en stor mängd manuella insatser och detaljerad expertis inom cyberfysiska hot. För att övervinna dessa hinder föreslår vi en ny hierarkisk metod för att bygga stora Petrinät från ett antal mindre Petrinät som kan skapas separat av olika domänexperter. Konstruktionsmetoden underlättas av ett modellbeskrivningsspråk som gör det möjligt att matcha identiska platser i olika Petrinät. Den nya modellen beskrivs för ett exempel attack på smarta mätare, och dess effektivitet visas av ett proof-of-concept Python program. | Chen och Al. REF undersökte användningen av Petri-nät för att modellera samordnade cyberfysiska attacker på det smarta nätet. | 2,673,523 | Petri Net Modeling of Cyber-Physical Attacks on Smart Grid | {'venue': 'IEEE Transactions on Smart Grid', 'journal': 'IEEE Transactions on Smart Grid', 'mag_field_of_study': ['Computer Science']} | 81,298 |
Abstract-Millimeter våg (mmWave) håller löftet som en bärfrekvens för femte generationens cellulära nätverk. Eftersom mmWave signaler är känsliga för blockering, tidigare modeller för cellulära nätverk som drivs i ultrahögfrekvensbandet (UHF) gäller inte för att analysera mmWave cellulära nätverk direkt. I detta dokument föreslås en allmän ram för att utvärdera täckning och hastighetsprestanda i mmWave cellulära nätverk. Med hjälp av en avståndsberoende line-of-site (LOS) sannolikhetsfunktion, modelleras LOS och icke-LOS basstationer som två oberoende icke-homogena Poisson punktprocesser, på vilka olika lagar väg förlust tillämpas. På grundval av den föreslagna ramen härleds uttryck för signal-till-brus-och-interferensförhållandet (SINR) och sannolikheten för täckning av frekvenser. MMWave täckning och hastighetsprestanda undersöks som en funktion av antenngeometrin och basstationens densitet. Fallet av täta nätverk analyseras ytterligare genom att tillämpa en förenklad systemmodell, där LOS-regionen för en användare är ungefärlig som en fast LOS-kula. Resultaten visar att täta mmWave nätverk kan uppnå jämförbar täckning och mycket högre datahastighet än konventionella UHF cellulära system, trots förekomsten av blockeringar. Resultaten tyder på att cellstorleken för att uppnå den optimala SINR-skalan med den genomsnittliga storleken på det område som är LOS för en användare. | Det visades i REF att länkens tillförlitlighet och täckningssannolikhet beror på blockeringsprocessen som en funktion av produkten av blockeringstäthet och genomsnittlig blockeringslängd. | 14,273,034 | Coverage and Rate Analysis for Millimeter-Wave Cellular Networks | {'venue': 'IEEE Transactions on Wireless Communications', 'journal': 'IEEE Transactions on Wireless Communications', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 81,299 |
Jag vet inte vad jag ska göra. 0 0 © 2 0 2 I E E E Experience visar att ett företag drastiskt kan förbättra sin konkurrensfördel om det optimerar hur det utvecklar dessa produktlinjer. 1,2 Med hjälp av produktlinjeteknik har vissa organisationer minskat antalet defekter i sina produkter och minskat kostnader och tid att marknadsföra med en faktor på 10 eller mer. 1.3 Många företag använder dock inte en produktlinjeteknik för att utveckla sina produktlinjer. Oftare än inte, de antingen startar från ett enda system, grenning av nya varianter som behovet uppstår och slutar med helt oberoende kodbaser, eller de börjar med de olika varianterna som oberoende projekt från början. Produktlinjeteknik fokuserar på att utveckla flera varianter av system gemensamt och på så sätt utnyttja gemensamma system i form av återanvändning. 1 Nyckeln till framgångsrika produktlinjetekniska metoder, såsom Pulse 4 (en komponentbaserad produktlinjeutvecklingsmetod som utvecklats vid Fraunhofer Institute for Experimental Software Engineering), är att tidigt identifiera en referensarkitektur som ger en ritning för att producera olika varianter. Den strukturella likheten mellan varianterna, som är ett resultat av den gemensamma arkitekturen, gör det möjligt för utvecklare att återanvända komponenter i en rad olika produkter i produktserien. Men när man genomför produktlinjeteknik finns det en mängd alternativ, så företagen måste fatta kloka beslut för att optimera sina ekonomiska fördelar. För att exemplifiera detta, diskuterar vi Market Maker Software AG: s 3 Fusion produktlinje. I teorin är det optimala systemet för utveckling av produktlinjer att inrätta en kom-oftware som i allt högre grad förvandlas till en vara, vilket gör att människor i allt högre grad förväntar sig system som är anpassade till deras behov. Denna situation tvingar nästan varje programvaruutvecklingsorganisation att utveckla flera varianter av sina system för att tillgodose de specifika behoven hos olika kunder eller marknadssegment. Således många, om inte de flesta, mjukvaruutvecklingsorganisationer finner att de behöver för att bygga familjer av system eller produktlinjer. Genom att utveckla en infrastruktur för återanvändning för hela sortimentet av produkter redan från början initieras en helt ny produktlinje. Vi kallar ofta detta för big bang-metoden. Du kan använda denna infrastruktur för att utveckla nya produkter, som drastiskt kan sänka kostnaderna jämfört med traditionell spispipa utveckling. När man först planerar en produktlinje är det naturligtvis svårt att förutsäga de specifika investeringarna och fördelarna, så de ekonomiska resultaten kommer att innehålla viss osäkerhet. Tyvärr är denna ideala strategi nästan aldrig tillräcklig i praktiken. I princip bör stark planering i förväg låta dig utveckla tillgångar som stöder hela sortimentet av funktionalitet produktlinjen kräver, men organisationer använder ofta en mer inkrementell strategi. Med en inkrementell strategi utvecklar du tillgångar för att stödja de kommande kommande produkterna, medvetet utesluter mycket osäkra potentiella produkter. Med tiden måste du utöka och anpassa tillgångar för att ta itu med ytterligare produkter. Vanligtvis tvingar begränsningar av tillgängliga resurser detta mer inkrementella tillvägagångssätt, men det är i allmänhet användbart även med obegränsade resurser på grund av den inneboende osäkerheten för framtida produkter och deras krav. Figur 1a visar det ideala big bang-mönstret, och figur 1b jämför det med motsvarande mönster för inkrementellt tillvägagångssätt. Oavsett vilket tillvägagångssätt du använder, är det bäst att först skilja flera grundläggande situationer från vilka produktlinje adoption kan börja. Du kan sedan koppla varje situation till motsvarande strategier (eller adoptionsprogram) och ansluta ett annat investeringsmönster och resulterande fördelar till varje. Vi kan urskilja fyra huvudsakliga typer av situationer för att anta produktlinjeteknik: I I Independent. Företaget startar en ny produktlinje utan några tidigare produkter. Jag integrerar projektet. Befintliga system håller redan på att utvecklas för att ta itu med en ny marknad. Som en del av produktlinjens utveckling integrerar programvaruingenjörerna systemen så att de kan härleda dem från samma återanvändningsinfrastruktur. Jag är motordriven. Legacy system finns redan, men ingenjörerna kan inte använda dem för produktlinjeutveckling snarare, de behöver för att utföra en icke-trivial omengineering ansträngning. Jag har arbetat hårt. Företaget upprättar en ny produktlinje (för att ta itu med en ny marknad) baserad på en produktlinje som redan finns på plats. I praktiken överlappar dessa situationer ofta varandra. Tänk på produktlinjen Market Maker's Fusion. Market Maker startade 1990 som ett enpersonsföretag med en enda produkt: ett DOS-baserat system för att spåra aktieinformation. Det har sedan dess vuxit till 60 anställda, men för att optimera sina begränsade resurser, Market Maker har alltid använt en produkt linje strategi. Även i DOS-versionen fanns olika moduler tillgängliga för att tillgodose specifika databehandlingsbehov, och kunderna kunde självständigt ta in andra moduler. (Genomförandenivån hade dock endast en variant och vissa menyalternativ aktiverade, baserat på den givna licensnyckeln.) Eftersom företaget skapade nya mjukvaruplattformar, fann det att det var tvunget att utveckla mer sofistikerade metoder för att ta itu med allt mer komplexa behov av variabilitet. 1995 började man utveckla ett nytt mjukvarusystem som syftade till att ersätta den ursprungliga DOS-baserade produkten och överföra dess potential till den Windows-baserade åldern. Precis som den ursprungliga produkten stödde det nya systemet modulkonceptet. Med tiden skapade företaget dock ytterligare varianter på implementationsnivå (för speciella applikationer) och varianter på entry-level mass-market. Dessa varianter utgjorde produktlinjen Market Maker – företaget tillverkade dem från en enda gemensam kodbas. År 1999 beslutade företaget att gå in på marknaden för Internetbaserade informationssystem för aktiemarknaden. På så sätt skapades produktlinjen för fusion, som baserades på en helt ny infrastruktur som utvecklats i Java (Martin Verlage förvaltade produktlinjen för fusion och utveckling). För närvarande innehåller denna produktlinje ca 15 varianter som behandlar tre olika marknadssegment (se figur 2a). Vid utvecklingen av koncentrationen beslutade företaget att inte replikera funktioner som redan fanns i produktlinjen Market Maker, t.ex. MM98 och MM live-varianter som behandlar det historiska dataflödet respektive dataflödet i realtid. Därför skapade den specifika varianter av produktlinjen Market Maker och använde dem som dataservrar i fusionsanläggningarna (se "MM98" i figur 2b ). När Market Maker antog och utvecklade sin produktlinjestrategi för dessa två produktlinjer, tillämpade vi de system som vi diskuterar här med stor framgång. Beroende på den specifika situation där du startar produktlinjen utveckling, hittar du vanligtvis olika mönster av hur företaget gradvis utvecklar produktlinjen och, på liknande sätt, olika mönster av investeringar och avkastning på investeringar. I synnerhet måste du avgöra om ökningen har sitt ursprung genom att successivt utöka och anpassa återanvändningsinfrastrukturen för ytterligare produkter, eller om företaget utökar den genom att successivt lägga till tillgångar som täcker ytterligare funktionalitet. Det oberoende scenariot för antagande av produktlinjer är den prototypiska produktlinjen (se figur 1a). Eftersom det ännu inte finns några produkter kan företaget planera i detalj och optimera sin produktportfölj. Jämfört med produktlinjens totala installationstid, skulle planeringstiden vara ganska låg, så det skulle inte avsevärt öka tiden till marknaden. Att starta en helt ny produktlinje innebär dock att gå in i det helt okända. Det krävs därför tekniska genomförbarhetsstudier och detaljerade marknadsanalyser för att kontrollera den övergripande osäkerheten. Dessutom, även om du använder dessa åtgärder, har du vanligtvis fortfarande betydande osäkerhet, eftersom till exempel vissa produkter kan bli mer eller mindre viktiga när produktutvecklingen fortskrider. Inom ramen för koncentrationsproduktlinjen gjorde företaget en detaljerad analys av potentiella portföljer och identifierade stora marknadssegment, centrala krav och så vidare. Dessutom har företaget genomfört tekniska genomförbarhetsstudier och konkurrentundersökningar. Även om dessa analyser var ganska grundliga, krävde planerna fortfarande en anpassning. Företaget tog till exempel upp vissa marknadssegment senare än väntat eller inte alls, eftersom fler produkter än väntat skulle kunna levereras till kunden i de ursprungliga marknadssegmenten. Trots dessa avvikelser står det klart i efterhand att de första ansträngningarna inte slösades bort. De spelade snarare en nyckelroll när det gällde att fokusera på utvecklingen av infrastrukturen för återanvändning, så nu kan Market Maker utveckla nya varianter på ett effektivt sätt. 2 I E E S O F T W A R E Från vår erfarenhet av industriell praktik har vi funnit att den självständiga situationen är ganska ovanlig. Vanligtvis finns det flera produkter i ett företag som har vissa gemensamma egenskaper men som är mer eller mindre självständigt utvecklade. Det finns ett ständigt tryck på att få ut nya produkter på marknaden, så det är omöjligt att sätta produktutvecklingen på is för att fokusera på att utveckla en integrerad produktlinjeinfrastruktur. I stället krävs ett stegvist tillvägagångssätt, där nyckelkomponenter successivt generaliseras till gemensamma, återanvändbara komponenter. Det finns ett särskilt fall av projektintegration när två produktlinjeinfrastrukturer måste slås samman. En sådan situation sker för närvarande på Market Maker-företaget integrerar den ursprungliga Market Maker och Fusion produktlinjer i en enda produktlinje arkitektur. Även om företag vanligtvis kan undvika projektintegration genom att replikera funktionaliteten mellan de två produktlinjerna, gör ibland stora skillnader i de icke-funktionella kraven det nödvändigt. I denna situation integrerar företaget återanvändningsinfrastrukturerna, med fokus på att integrera de replikerade komponenterna. Eftersom företaget ständigt måste ta fram nya produkter och släppa från produktlinjerna, kan det endast utföra en stegvis integrering av återanvändningsinfrastrukturer som liknar det inkrementella mönstret i figur 1b. Men om man jämför med den ursprungliga situationen, är ingångsbarriären (den ansträngning som krävs innan du kan härleda de första produkterna från den resulterande infrastrukturen) vanligtvis lägre, medan antalet steg (ansträngning för att utöka produktlinjeinfrastrukturen) kommer att vara högre. Dessutom måste företaget i allmänhet förvänta sig fler problem med försämringen av referensarkitekturen. Detta är det allmänna antagandet mönster för projekt-integrera produktlinjeutveckling-skapa en gemensam infrastruktur genom att integrera tekniska områden på ett komponentvis sätt. Detta leder till en inkrementell metod, liknande den i figur 1b. Jämfört med den ursprungliga situationen kommer dock ingångsbarriären (ansträngning som krävs tills de första produkterna kan härledas från den resulterande infrastrukturen) vanligtvis att vara lägre, medan stegen (ansträngningen för att utöka produktlinjens infrastruktur) vanligtvis kommer att vara högre. Dessutom uppstår i allmänhet fler problem med försämringen av referensarkitekturen över tid. Ett företag åtar sig vanligtvis ombyggnadsdriven adoption om det finner att dess mjukvaruutveckling är skyldig att träffa en vägg. Detta kan manifestera sig på många sätt-till exempel, om kostnaden för produktutveckling blir för hög eller om det blir omöjligt att härleda nya, tänkta produkter baserade på tillgängliga system. Företagen kommer vanligtvis att tolerera en viss nivå av smärta innan de gör de investeringar som är förknippade med att utföra en större ombyggnad. Men när de genomgår en sådan omkonstruktion är det då ganska lätt att införa den extra ansträngning som krävs för att planera en produktportfölj. Ombyggnad kan antingen fokusera på att paketera det befintliga äldre systemet som helhet eller sikta på ett komponentmässigt tillvägagångssätt. Denna situation liknar den oberoende adoptionen och dess ekonomiska mönster. Om företaget paketerar arvet som helhet, medför det ganska stora investeringar i början men avsevärt minskade kostnader för att utveckla framtida system (se figur 1a). Om företaget utför komponentvis förpackning, kommer ett inkrementellt mönster (se figur 2b) att resultera, men ombyggnad kräver i allmänhet en stor initial investering jämfört med typiska projektintegrerande situationer. Ett bra exempel på komponentmässigt tillvägagångssätt för omkonstruktionsdriven adoption är Ramsis kernel redesign-projekt som Fraunhofer IESE utförde med ett litet företag. Detta projekt fokuserade på en omkonstruktionsdriven produktlinjedesign för ett stort äldre system av ergonomisimuleringar. 5 Det började med en betydande omkonstruktionssatsning för att identifiera komponenter i det befintliga systemet och förpacka dem för att göra systemet till en lämplig grund för vidare utveckling av produktlinjer. Att utveckla produktlinjen för fusionen speglar också denna situation, eftersom företaget som tidigare diskuterats återanvänder Market Maker Det finns ett ständigt tryck på att få ut nya produkter på marknaden, så det är omöjligt att sätta produktutvecklingen på is för att fokusera på att utveckla en integrerad produktlinjeinfrastruktur. funktionalitet som servrar, och innan dess var den tvungen att lägga till specifika gränssnitt till dessa servrar. För fusion krävs dock endast en utökning av befintliga system med lämpliga gränssnitt med hjälp av COM. Dessutom var fusionsproduktlinjen byggd på toppen av den befintliga, vilket är anledningen till att det är mer lämpligt karakteriseras som hävstång produkt linje antagande. Förstärkt produktlinjeutveckling är kanske det mest sofistikerade sättet att anta produktlinje. I motsats till de andra mönstren kräver det en befintlig produktlinje och kännetecknas av en övergång till en ny marknad (systemtyp). Exempel på ett sådant skifte är Cummins Motors, som utvidgade sin ursprungliga produktlinje för bil- och lastbilsdieselmotorer till godtyckliga industriella dieselmotorer, och CelsiusTech, som utnyttjade sin produktlinje av stridsfartygskontrollsystem genom att komma in på marknaden för civila luftkontrollsystem. 6 I dessa fall gav den befintliga produktlinjen infrastruktur en hävstångseffekt för att komma in på den nya marknaden, vilket ger företaget en konkurrensfördel redan från början. Produktlinjen för fusion är helt klart ett fall av en hävstångsbaserad produktlinje. Den befintliga produktlinjen Market Maker erbjuder hävstång genom att tillhandahålla datainsamling, datahantering och aggregeringstjänster, medan fusionsinfrastrukturen huvudsakligen fokuserar på datatransformering och presentationsuppgifter online. Market Maker paketerade sin ursprungliga produktlinje funktionalitet i fusion i form av servrar. Denna uppdelning av infrastrukturen för återanvändning gynnar också fusionsprodukter genom pågående utveckling på produktlinjen Market Maker. Ur ekonomisk synvinkel innebär införandet av en hävstångsbaserad produktlinje en revolution, eftersom företaget kan ta itu med ett helt nytt marknadssegment med låga kostnader och få risker genom att bygga på en befintlig produktlinjeinfrastruktur. Liksom i andra situationer, i synnerhet, måste dock den oberoende situationen-företaget utföra en detaljerad produktportfölj analys, tekniska studier, och riskanalys. På samma sätt kräver införandet av hävstångseffekter vanligtvis en inledande investering och visar sedan en stadig ökning av antalet system (se figur 1a). För fusion visade sig den hävstångsbaserade metoden vara mycket framgångsrik. Figur 2a visar dock ett något annorlunda mönster av nästan exponentiell tillväxt. Anledningen till detta är att själva infrastrukturen för återanvändning av fusionen växte med tiden. Senare system skulle därför kunna byggas med mer återanvändning. Den viktigaste faktorn som avgör hur en produktlinje utvecklas är hur mycket avvikelse organisationen tillåter innan den återförenar infrastrukturen. Vi kan urskilja tre grundläggande situationer för produktlinjeutveckling (som inte tar hänsyn till att byta ut infrastrukturens delar över tiden). I den första situationen, infrastrukturbaserad utveckling, nya produktkrav som kan återanvändas omedelbart leda till en generalisering av produktlinjeinfrastrukturen. Således kan organisationen undvika problemet med flera implementeringar av samma krav. Detta leder dock vanligtvis till många förändringar av produktlinjens infrastruktur. En specifik produkt (den första i behov av ett nytt krav) utlöser varje ändring, som genomförs på ett sätt som är anpassat till de kommande produkterna (se tabell 1 ). Marknadsgarant valde detta tillvägagångssätt med sin produktlinje för företagskoncentrationer. Om det inte hade gjort det skulle de samtidiga kraven på många nya varianter ha skapat en stark spridning till varianter av produktlinjeinfrastrukturen. Fördelen är att den andra produkten som kräver funktionalitet redan kan återanvändas. Detta kan leda till den superlinjära ökning som figur 2a visar. Den andra situationen, filial och enhet, är vanlig inom industrin. Här skapar organisationen en ny versionsgren för en ny variant och återförenar sedan denna bransch med den ursprungliga infrastrukturen efter att ha släppt produkten. I detta fall anser organisationen vanligtvis bara en enda produkt, även om mer erfarna organisationer också anser krav för framtida produkter när man fastställer en adekvat genomförande. Marknadsgarant har framgångsrikt följt detta tillvägagångssätt med sin första produktlinje. Det främsta skälet till att tillämpa detta tillvägagångssätt är att nya varianter är ganska sällan förekommande och därför vanligtvis inte överlappar varandra. Detta var inte fallet med koncentrationsproduktlinjen. Vissa organisationer hamnar i en bulksituation, vilket möjliggör större förgrening av återanvändningsinfrastrukturen. Sedan, med vissa intervall, återintegrerar organisationen prodFrån en ekonomisk synvinkel, en hävstång produkt linje antagande innebär en revolution, eftersom företaget kan ta itu med ett helt nytt marknadssegment med låga kostnader och få risker. Utgångspunktsinfrastruktur. Större organisationer brukar tillämpa detta tillvägagångssätt, men det är bäst att undvika det så mycket som möjligt. Det leder inte bara till stora återanpassningsinsatser (stora hopp i den ekonomiska kurvan i figur 1b), utan det innebär också vanligtvis betydande synkroniseringsinsatser och kvalitetsproblem. De olika mönster för produktlinjeutveckling vi har identifierat har olika krav när det gäller look-ahead planering och antalet produkter som samtidigt integreras i produktlinjeinfrastrukturen (se tabell 1 ). Hur en organisation utför produktlinjeacceptering och evolution påverkar starkt dess produktlinjes övergripande ekonomiska resultat. Även om den väljer en särskild strategi för antagande måste den dock fortfarande besluta vilka produkter som ska beaktas när man utvecklar eller utvidgar produktlinjens infrastruktur, vilka tekniska områden som ska integreras härnäst i produktlinjens infrastruktur och vilka krav som återanvändbara tillgångar kommer att stödja direkt. Precis som de grundläggande anpassnings- och utvecklingsstegen avgör produktlinjeutvecklingens grundläggande ekonomiska mönster bidrar svaren på dessa frågor till att finjustera produktlinjens utveckling och dess ekonomiska egenskaper. Begränsningar för att besvara frågorna beror på den specifika adoptions- eller utvecklingssituationen (se tabell 2). Baserat på de typer av beslut som måste fattas, kan vi urskilja följande tre nivåer av beslutsfattande-eller scopingi samband med produktlinjeteknik: 7 I Produktportfölj scoping: Vilka produkter ska vara en del av produktlinjen? I Domänbaserad scoping: Vilka tekniska områden (domäner) ger goda möjligheter till återanvändning av produktlinjer? I Återanvändning av infrastrukturövervakning: Vilka funktioner bör stödet för återanvändning av infrastruktur användas? Förmögenhet i dessa tre scoping tekniker kommer att hjälpa dig att fatta rätt beslut när du antar och utvecklar en produktlinje. Produktportfölj scoping hjälper till att etablera en detaljerad vision av produkterna och deras krav. För det första identifierar du den allmänna marknadspotentialen baserat på marknadsanalyser, med beaktande av marknadsstrukturen, potentiella kunder, slutanvändarnas behov och konkurrenternas positionering. Sedan identifierar du de marknadssegment som passar företagets bakgrund. Detta sker vanligtvis i en workshop som företräder de mest relevanta intressentgrupperna. Samtidigt som man kommer på en integrerad definition av produktportföljen är det viktigt att ta upp frågor som: "Kommer produkterna att konkurrera med varandra på marknaden?" och "Hur mycket kommer det att kosta att utveckla dessa produkter?" Det hjälper även om du bara informellt ställer dessa frågor. I samband med inrättandet av en produktlinje för fusion genomförde Market Maker en detaljerad produktportföljskopiering. Den analyserade marknader och konkurrenter och utvecklade en första vision av potentiella marknadssegment och produkter. Detta gav de nödvändiga underlagen för tekniska genomförbarhetsstudier. Samtidigt förbättrades den ursprungliga visionen för portföljen i flera iterationer. Detta ledde faktiskt till ganska allvarliga förändringar, t.ex. införandet av ytterligare marknadssegment i produktlinjevisionen. Du behöver bara utföra denna full storlek strategi om du utvecklar en ny produktportfölj. Annars är det bara att identifiera förändringar i produktportföljens tekniska genomförbarhet och marknadsundersökningar som oftast inte är så viktiga. Baserat på en produktportfölj definition, kan du utföra domän-baserad scoping. Med detta tillvägagångssätt identifierar du de viktigaste tekniska domänerna som är relevanta för produktlinjen och analyserar deras återanvändningspotential. Olika tekniska områden, även inom samma produktlinje, kan variera avsevärt i fråga om potentiella fördelar och inneboende risker för produktlinjeteknik. Market Maker tillämpade detta tillvägagångssätt för domän-potentiell analys, som är en del av Pulse-Eco-metoden, 8 för koncentrationsproduktlinjen. I detta fall, Market Maker observerade variationer från "extremt väl lämpad för produktlinje återanvändning" till "inte passar alls." I synnerhet identifierar domänbaserad övervakning områden där en återanvändningsinvestering är särskilt meningsfull, vilket är särskilt viktigt om produktlinjens infrastruktur byggs stegvis (t.ex. i en situation där antagandet av projekt integreras). Dessutom kan det hjälpa dig att bestämma vilken funktionalitet att integrera nästa i produktlinjen. I en situation som den med koncentrationsproduktlinjen, där organisationen i princip byggde en fullständig produktlinjeinfrastruktur med den första produkten, används denna metod vanligtvis endast för att informera utvecklingen av potentiella risker för återanvändning (se tabell 2). När du väl har identifierat de viktigaste områdena för återanvändning av produktlinje är den viktiga frågan vilka funktioner som ska göras återanvändbara i samband med den specifika produktlinjen, vilket innebär återanvändning av infrastruktur. Pulse-Eco-metoden stöder denna aktivitet på ett kvantitativt sätt. Med återanvändning infrastruktur scoping, utvecklar du kvantitativa modeller för att fånga de önskade produktlinje fördelar. Du använder sedan dessa modeller för att identifiera funktioner som kommer att ge de högsta ekonomiska fördelarna om de görs återanvändbara. Detta ger ekonomiska bidrag till arkitekturdefinitionen. På grund av detta fokus på att styra produktlinjens genomförande är denna form av scoping särskilt användbar när stora delar av produktlinjens infrastruktur byggs för första gången. Detta gäller om hela produktgrupper eller nya funktionella områden måste integreras i produktlinjens infrastruktur. Market Maker tillämpade detta tillvägagångssätt när den utvidgade vissa funktionella områden för sin produktlinje Market Maker. I detta fall gav metoden värdefull input för att göra den lämpligaste funktionaliteten återanvändbar. 7 P roduktlinjeutveckling är på väg att förändra hur vi uppfattar och utför mjukvaruutveckling. Denna övergång liknar den som sker från hantverk till industriell produktion. Även om denna övergång är starkt baserad på den ökade förståelsen av programvara ar- 6 I E E E E S O F W A R E J u l y / A ug u s t 2 0 0 2 Klaus Schmid är kompetenschef för värdebaserad produktlinjeutveckling på Fraunhofer IESE, där han har varit involverad i flera projekt som har överfört produktlinjetekniska koncept till industriella miljöer. Han var också medlem i Pulsutvecklingsteamet. Hans huvudsakliga forskningsintressen är de ekonomiska aspekterna av produktlinjens utveckling och metoder för att introducera och institutionalisera produktlinjens utveckling inom industrin. Han fick en masterexamen i datavetenskap från Kaiserslauterns universitet. Kontakta honom på Fraunhofer Inst. för Experimentell Software Eng., Sauerwiesen 6, D-67661 Kaiserslautern, Tyskland; [email protected]. Martin Verlage är direktör för affärsområdet Online Products på Market Maker Software AG. Hans huvudsakliga programvaruutvecklingsintressen är inom komponentbaserad programvaruteknik, särskilt arkitektering och testning. Han disputerade i datavetenskap vid Kaiserslauterns universitet. Han är medlem i Gesellschaft für Informatik e.V. Kontakta honom på Market Maker Software GmbH, Karl-Marxstr. 13, D-67655 Kaiserslautern, Tyskland; [email protected]. chitectures, det är också att förändra hur organisationer går till väga för sin programvaruverksamhet. Under den industriella revolutionen handlade det mer om att bli ett modernt företag än att bara lägga till en monteringslinje på fabriksgolvet. Likaså kommer det inte att vara tillräckligt för organisationer att byta till produktlinjeutveckling på ett godtyckligt sätt. Ett företag måste snarare tillämpa en sådan strategi på ett lämpligt sätt, och strategin måste utvecklas med tanke på potentiella ekonomiska fördelar. För att framgångsrikt kunna dra nytta av dessa fördelar måste företagen utveckla en fördjupad förståelse för produktlinjeutvecklingens ekonomiska konsekvenser och hur dessa konsekvenser förhåller sig till de möjliga mekanismerna för införande och utveckling av produktlinjer. För mer information om detta eller något annat dataämne, besök vårt digitala bibliotek på http://computer.org/publications/dlib. Erkännanden Den exploderande populariteten av mobil Internetaccess, tredje generationens trådlös kommunikation, och bärbara och handhållna enheter har gjort genomträngande datorer till verklighet. Nya mobila datorarkitekturer, algoritmer, miljöer, stödtjänster, hårdvara och applikationer kommer online snabbare än någonsin. För att hjälpa dig hålla jämna steg, IEEE Computer Society och IEEE Communications Society är stolta över att meddela IEEE Pervasive Computing. Denna nya kvartalstidning syftar till att främja mobil och allestädes närvarande databehandling genom att sammanföra dess olika discipliner, inklusive peer-reviewed artiklar om • Hårdvaruteknik • Infrastruktur för programvara • Real-world-analys och interaktion • Människa-datorinteraktion • Säkerhet, skalbarhet och integritet | Schmid och Verlage REF diskuterar den framgångsrika fallstudien av att etablera mjukvaruproduktlinje hos Market Maker och lyfter fram marknads- och konkurrensanalys, vision av potentiella marknadssegment och produkter som viktiga aktiviteter. | 20,068,060 | The economic impact of product line adoption and evolution | {'venue': 'IEEE Software', 'journal': 'IEEE Software', 'mag_field_of_study': ['Computer Science']} | 81,300 |
Sammanfattning av denna webbsida: Sensornätverk är bland de snabbast växande teknikerna som har potential att förändra våra liv drastiskt. Dessa samverkande, dynamiska och distribuerade dator- och kommunikationssystem kommer att vara självorganiserande. De kommer att ha kapacitet att fördela en uppgift sinsemellan för effektiv beräkning. Det finns många utmaningar i genomförandet av sådana system: energiavledning och klusterbildning är en av dem. För att upprätthålla en viss servicekvalitet och en rimlig systemlivslängd måste energin optimeras i varje steg av systemets drift. Sensornodklustring är ett annat mycket viktigt optimeringsproblem. Noder som klungas ihop kommer lätt att kunna kommunicera med varandra. Att betrakta energi som en optimeringsparameter vid klusterbildning är absolut nödvändigt. I denna uppsats studerar vi de teoretiska aspekterna av klusterproblem i sensornätverk med tillämpning på energioptimering. Vi illustrerar en optimal algoritm för att klusterera sensornoder så att varje kluster (som har en master) är balanserad och det totala avståndet mellan sensornoder och masternoder minimeras. Balansera kluster behövs för att jämnt fördela belastningen på alla huvudnoder. Minimera det totala avståndet hjälper till att minska kommunikationen overhead och därmed energiavledning. Detta problem (som vi kallar balanserad k-klustering) är modellerat som ett mincost flöde problem som kan lösas optimalt med hjälp av befintliga tekniker. | Optimal energimedveten klustring REF löser det balanserade k-klustret optimalt, där k anger antalet huvudnoder som kan finnas i nätverket. | 8,856,532 | Optimal Energy Aware Clustering in Sensor Networks | {'venue': None, 'journal': 'Sensors', 'mag_field_of_study': ['Computer Science']} | 81,301 |
Beräkningen för dagens intelligenta personliga assistenter som Apple Siri, Google Now och Microsoft Cortana utförs i molnet. Detta moln-enbart tillvägagångssätt kräver betydande mängder data som ska skickas till molnet över det trådlösa nätverket och sätter betydande beräkningstryck på datacenteret. Men när beräkningsresurserna i mobila enheter blir mer kraftfulla och energieffektiva uppstår frågor om huruvida denna molnbaserade behandling är önskvärd framåt, och vad är konsekvenserna av att driva en del eller alla av denna beräkning till de mobila enheterna på kanten. I detta dokument undersöker vi status quo-metoden för molnbaserad bearbetning och undersöker datadelningsstrategier som effektivt utnyttjar både cyklerna i molnet och den mobila enheten för att uppnå låg latens, låg energiförbrukning och hög datacenterkapacitet för denna klass av intelligenta applikationer. Vår studie använder 8 intelligenta applikationer som spänner över datorseende, tal, och naturliga språkdomäner, alla använder state-of-the-art Deep Neural Networks (DNNs) som kärnan maskininlärning teknik. Vi finner att med tanke på egenskaperna hos DNN-algoritmer, en finkornig, lagernivå-beräkning partitioneringsstrategi baserad på data och beräkningsvariationer för varje skikt i en DNN har betydande latens och energifördelar jämfört med status quo-metoden. Med hjälp av denna insikt designar vi Neurosurgeon, en lätt schemaläggare för att automatiskt partitionera DNN-beräkning mellan mobila enheter och datacenter vid granulariteten i neurala nätverkslager. Neurokirurg kräver inte profilering per applikation. Den anpassar sig till olika DNN-arkitekturer, hårdvaruplattformar, trådlösa nätverk och serverbelastningsnivåer, intelligent partitionera beräkning för tillstånd att göra digitala eller hårda kopior av hela eller delar av detta arbete för personligt eller klassrum användning beviljas utan avgift, förutsatt att kopior inte görs eller distribueras för vinst eller kommersiella fördelar och att kopior bär detta meddelande och den fullständiga hänvisning på första sidan. Upphovsrätt till delar av detta verk som ägs av andra än ACM måste hedras. Abstraktering med kredit är tillåten. Att kopiera på annat sätt, eller återpublicera, att posta på servrar eller att omfördela till listor, kräver tidigare specifik behörighet och / eller en avgift. Begär tillstånd från [email protected]. bästa latens eller bästa mobila energi. Vi utvärderar neurokirurgi på en toppmodern mobil utvecklingsplattform och visar att det förbättrar end-to-end latency med 3,1× i genomsnitt och upp till 40,7×, minskar mobil energiförbrukning med 59,5% i genomsnitt och upp till 94,7%, och förbättrar datacenter genomströmning med 1,5× i genomsnitt och upp till 6,7×. | Neurosurgeon REF utforskade metoderna för att partitionera DNN-slut mellan mobilen och servern med granularitet av neurala nätverkslager. | 1,158,124 | Neurosurgeon: Collaborative Intelligence Between the Cloud and Mobile Edge | {'venue': "ASPLOS '17", 'journal': None, 'mag_field_of_study': ['Computer Science']} | 81,302 |
Abstrakt. Att använda Wi-Fi-signaler för lokalanpassning inomhus är den huvudsakliga lokaliseringsmodaliteten i de befintliga personliga lokalanpassningssystem för inomhusbruk som fungerar på mobila enheter. WiFi-fingeravtryck används också för mobila robotar, eftersom WiFi-signaler vanligtvis finns inomhus och kan ge grov uppskattning av utgångsläget eller kan användas tillsammans med andra positioneringssystem. För närvarande är de bästa lösningarna beroende av filtrering, manuell dataanalys och tidskrävande parameterinställning för att uppnå tillförlitlig och korrekt lokalisering. I detta arbete föreslår vi att använda djupa neurala nätverk för att avsevärt minska arbetsbelastningen av lokaliseringssystemets utformning, samtidigt som man uppnår tillfredsställande resultat. Om vi utgår från den senaste hierarkiska metoden använder vi DNN-systemet för byggnads-/golvklassificering. Vi visar att staplade autokodrar gör det möjligt att effektivt minska funktionsutrymmet för att uppnå robust och exakt klassificering. Den föreslagna arkitekturen verifieras på offentligt tillgängliga UJIIndoorLoc dataset och resultaten jämförs med andra lösningar. | I REF användes ett DNN-baserat fingeravtryckssystem inomhus för att ta itu med de arbetsintensiva och tidskrävande frågorna för att uppnå tillförlitlig och korrekt lokalisering. | 19,017,850 | Low-effort place recognition with WiFi fingerprints using deep learning | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Engineering', 'Computer Science']} | 81,303 |
Djupt förstärkande inlärning (RL) har uppnått flera hög profil framgångar i svåra beslutsproblem. Dessa algoritmer kräver dock vanligtvis en enorm mängd data innan de når en rimlig prestanda. Deras prestationer under inlärningen kan i själva verket vara mycket dåliga. Detta kan vara acceptabelt för en simulator, men det begränsar allvarligt tillämpligheten av djup RL till många verkliga uppgifter, där agenten måste lära sig i den verkliga miljön. I detta dokument studerar vi en miljö där agenten kan få tillgång till data från tidigare kontroll av systemet. Vi presenterar en algoritm, Deep Q-learning from Demonstrations (DQfD), som utnyttjar denna data för att massivt påskynda inlärningsprocessen även från relativt små mängder demonstrationsdata och kan automatiskt bedöma det nödvändiga förhållandet av demonstrationsdata samtidigt lärande tack vare en prioriterad replay mekanism. DQfD fungerar genom att kombinera tidsskillnadsuppdateringar med övervakad klassificering av demonstrators handlingar. Vi visar att DQfD har bättre initial prestanda än Prioriterad Dueling Double Deep Q-Networks (PDD DQN) eftersom det börjar med bättre resultat på de första miljoner stegen på 41 av 42 spel och i genomsnitt tar det PDD DQN 82 miljoner steg för att komma ikapp DQfD: s prestanda. DQfD lär sig att överträffa den bästa demonstrationen som ges i 14 av 42 spel. Dessutom utnyttjar DQfD mänskliga demonstrationer för att uppnå toppmoderna resultat för 17 matcher. Slutligen visar vi att DQfD presterar bättre än tre relaterade algoritmer för att införliva demonstrationsdata i DQN. | I djup Q-lärande från demonstration mänskliga demonstrationsdata blandades med de data som genereras av förstärkningen lärande agent, resulterar i snabbare lärande i de flesta av spel REF. | 15,254,659 | Learning from Demonstrations for Real World Reinforcement Learning | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Computer Science']} | 81,304 |
Djupa neurala nätverk har visat sig vara mycket kraftfulla modelleringsverktyg för många övervakade lärande uppgifter som involverar komplexa inmatningsmönster. Men de kan också lätt överanstränga sig för att träna fördomar och märka ljud. Förutom olika regularizers, exempel revikting algoritmer är populära lösningar på dessa problem, men de kräver noggrann inställning av ytterligare hyperparametrar, såsom till exempel gruvscheman och regularization hyperparameters. I motsats till tidigare omviktningsmetoder, som vanligtvis består av funktioner av kostnadsvärdet för varje exempel, föreslår vi i detta arbete en ny meta-lärande algoritm som lär sig att tilldela vikter till träningsexempel baserat på deras lutning riktningar. För att bestämma exempelvikterna utför vår metod ett steg i nedstigningen av metagradienten på de nuvarande mini-batch-exemplarvikterna (som initieras från noll) för att minimera förlusten på en ren, objektiv valideringsuppsättning. Vår föreslagna metod kan enkelt implementeras på någon typ av djup nätverk, inte kräver någon ytterligare hyperparameter tuning, och uppnår imponerande prestanda på klass obalans och skadade etikett problem där endast en liten mängd ren valideringsdata finns tillgänglig. | Inlärning till Reweight REF föreslår en enda lutning nedstigning steg guidad med valideringsuppsättning prestanda för att omvikta träningspartiet. | 4,321,928 | Learning to Reweight Examples for Robust Deep Learning | {'venue': 'ArXiv', 'journal': 'ArXiv', 'mag_field_of_study': ['Mathematics', 'Computer Science']} | 81,305 |
Synsyntes ger geometriska förvrängningar som inte hanteras effektivt av befintliga mätvärden för bildkvalitetsbedömning. Trots den utbredda 3D-tekniken och i synnerhet 3D-TV (3DTV) och fri-viewpoints-TV (FTV) har man ännu inte gjort någon omfattande undersökning av synsyntesens kvalitet och det krävs nya kvalitetsmått. I denna studie föreslår vi en ny fullständig objektiv kvalitetsbedömningsmått: VSQA-måttet (View Synthesis Quality Assessment, VSQA). Vår metod är dedikerad till artefakter upptäckt i syntetiserade vypunkter och syftar till att hantera områden där skillnader uppskattning kan misslyckas: tunna objekt, objekt gränser, transparens, variationer av belysning eller färgskillnader mellan vänster och höger vyer, periodiska objekt... Det viktigaste inslaget i den föreslagna metoden är användningen av tre synbarhet kartor som kännetecknar komplexitet i termer av texturer, mångfald av lutningsorienteringar och närvaro av hög kontrast. Dessutom kan VSQA metriska definieras som en förlängning av alla befintliga 2D-bildkvalitetsbedömningsmått. Experimentella tester har visat den föreslagna metodens effektivitet. | Conze m.fl. REF utformade en SSIM-baserad synsynteskvalitetsbedömning (VSQA), som modulerades med tre viktningskartor för sikt, inklusive textural komplexitet, orienteringar och bildkontrast. | 18,634,577 | Objective view synthesis quality assessment | {'venue': 'Electronic Imaging', 'journal': None, 'mag_field_of_study': ['Physics', 'Engineering']} | 81,306 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.