Algorithmic aspects of machine learning 1st edition ankur moitra - The latest ebook is available for

Page 1


Algorithmic Aspects of Machine Learning 1st Edition Ankur Moitra

Visit to download the full and correct content document: https://textbookfull.com/product/algorithmic-aspects-of-machine-learning-1st-edition-a nkur-moitra/

More products digital (pdf, epub, mobi) instant download maybe you interests ...

Machine Learning for Algorithmic Trading 2nd Edition

Stefan Jansen

https://textbookfull.com/product/machine-learning-foralgorithmic-trading-2nd-edition-stefan-jansen/

Machine Learning for Algorithmic Trading 2nd Edition

Stefan Jansen

https://textbookfull.com/product/machine-learning-foralgorithmic-trading-2nd-edition-stefan-jansen-2/

Machine Learning for Algorithmic Trading 2nd Edition

Stefan Jansen

https://textbookfull.com/product/machine-learning-foralgorithmic-trading-2nd-edition-stefan-jansen-3/

Hands On Unsupervised Learning Using Python How to Build Applied Machine Learning Solutions from Unlabeled Data 1st Edition Ankur A. Patel

https://textbookfull.com/product/hands-on-unsupervised-learningusing-python-how-to-build-applied-machine-learning-solutionsfrom-unlabeled-data-1st-edition-ankur-a-patel/

Algorithmic Trading Methods: Applications Using Advanced Statistics, Optimization, and Machine Learning Techniques 2nd Edition Robert Kissell

https://textbookfull.com/product/algorithmic-trading-methodsapplications-using-advanced-statistics-optimization-and-machinelearning-techniques-2nd-edition-robert-kissell/

Campus Placements 1st Edition Ankur Malhotra

https://textbookfull.com/product/campus-placements-1st-editionankur-malhotra/

Python Real World Machine Learning: Real World Machine Learning: Take your Python Machine learning skills to the next level 1st Edition Joshi

https://textbookfull.com/product/python-real-world-machinelearning-real-world-machine-learning-take-your-python-machinelearning-skills-to-the-next-level-1st-edition-joshi/

Fundamentals of Machine Learning 1st Edition Thomas P. Trappenberg

https://textbookfull.com/product/fundamentals-of-machinelearning-1st-edition-thomas-p-trappenberg/

Hyperparameter Optimization in Machine Learning: Make Your Machine Learning and Deep Learning Models More Efficient 1st Edition Tanay Agrawal

https://textbookfull.com/product/hyperparameter-optimization-inmachine-learning-make-your-machine-learning-and-deep-learningmodels-more-efficient-1st-edition-tanay-agrawal/

AlgorithmicAspectsofMachineLearning

Thisbookbridgestheoreticalcomputerscienceandmachinelearningbyexploring whatthetwosidescanteacheachother.Itemphasizestheneedforflexible,tractable modelsthatbettercapturenotwhatmakesmachinelearninghardbutwhatmakesit easy.Theoreticalcomputerscientistswillbeintroducedtoimportantmodelsin machinelearningandtothemainquestionswithinthefield.Machinelearning researcherswillbeintroducedtocutting-edgeresearchinanaccessibleformatand willgainfamiliaritywithamodernalgorithmictoolkit,includingthemethodof moments,tensordecompositions,andconvexprogrammingrelaxations.

Thetreatmentgoesbeyondworst-caseanalysistobuildarigorousunderstanding abouttheapproachesusedinpracticeandtofacilitatethediscoveryofexcitingnew waystosolveimportant,long-standingproblems.

ankurmoitra istheRockwellInternationalAssociateProfessorof MathematicsattheMassachusettsInstituteofTechnology.Heisaprincipal investigatorintheComputerScienceandArtificialIntelligenceLab(CSAIL)anda corememberoftheTheoryofComputationGroup,MachineLearning@MIT,andthe CenterforStatistics.Theaimofhisworkistobridgethegapbetweentheoretical computerscienceandmachinelearningbydevelopingalgorithmswithprovable guaranteesandfoundationsforreasoningabouttheirbehavior.Heistherecipientofa PackardFellowship,aSloanFellowship,aNationalScienceFoundationCAREER Award,anNSFComputingandInnovationFellowship,andaHertzFellowship.

ToDianaandOlivia,thesunshineinmylife

AlgorithmicAspectsofMachine

Learning

ANKURMOITRA

MassachusettsInstituteofTechnology

UniversityPrintingHouse,CambridgeCB28BS,UnitedKingdom OneLibertyPlaza,20thFloor,NewYork,NY10006,USA

477WilliamstownRoad,PortMelbourne,VIC3207,Australia

314-321,3rdFloor,Plot3,SplendorForum,JasolaDistrictCentre, NewDelhi–110025,India

79AnsonRoad,#06–04/06,Singapore079906

CambridgeUniversityPressispartoftheUniversityofCambridge. ItfurtherstheUniversity’smissionbydisseminatingknowledgeinthepursuitof education,learning,andresearchatthehighestinternationallevelsofexcellence.

www.cambridge.org

Informationonthistitle:www.cambridge.org/9781107184589 DOI:10.1017/9781316882177

©AnkurMoitra2018

Thispublicationisincopyright.Subjecttostatutoryexception andtotheprovisionsofrelevantcollectivelicensingagreements, noreproductionofanypartmaytakeplacewithoutthewritten permissionofCambridgeUniversityPress.

Firstpublished2018

PrintedintheUnitedStatesofAmericabySheridanBooks,Inc. AcataloguerecordforthispublicationisavailablefromtheBritishLibrary.

LibraryofCongressCataloging-in-PublicationData Names:Moitra,Ankur,1985–author. Title:Algorithmicaspectsofmachinelearning/AnkurMoitra, MassachusettsInstituteofTechnology. Description:Cambridge,UnitedKingdom;NewYork,NY,USA:Cambridge UniversityPress,2018. | Includesbibliographicalreferences. Identifiers:LCCN2018005020 | ISBN9781107184589(hardback) | ISBN9781316636008(paperback)

Subjects:LCSH:Machinelearning–Mathematics. | Computeralgorithms. Classification:LCCQ325.5.M652018 | DDC006.3/1015181–dc23 LCrecordavailableathttps://lccn.loc.gov/2018005020

ISBN978-1-107-18458-9Hardback

ISBN978-1-316-63600-8Paperback

CambridgeUniversityPresshasnoresponsibilityforthepersistenceoraccuracy ofURLsforexternalorthird-partyinternetwebsitesreferredtointhispublication anddoesnotguaranteethatanycontentonsuchwebsitesis,orwillremain, accurateorappropriate.

5.4Prony’sMethod80

5.5CompressedSensing83

5.6Exercises88

6SparseCoding 89

6.1Introduction89

6.2TheUndercompleteCase92

6.3GradientDescent96

6.4TheOvercompleteCase101

6.5Exercises106

7GaussianMixtureModels 107

7.1Introduction107

7.2Clustering-BasedAlgorithms111

7.3DiscussionofDensityEstimation115

7.4Clustering-FreeAlgorithms118

7.5AUnivariateAlgorithm123

7.6AViewfromAlgebraicGeometry127

7.7Exercises131

8MatrixCompletion 132

8.1Introduction132 8.2NuclearNorm135

Preface

ThemonographisbasedontheclassAlgorithmicAspectsofMachine LearningtaughtatMITinfall2013,spring2015,andfall2017.Thankyouto allthestudentsandpostdocswhoparticipatedinthisclassandmadeteaching itawonderfulexperience.

1 Introduction

Machinelearningisstartingtotakeoverdecision-makinginmanyaspectsof ourlife,including:

(a)keepingussafeonourdailycommuteinself-drivingcars, (b)makingaccuratediagnosesbasedonoursymptomsandmedicalhistory, (c)pricingandtradingcomplexsecurities,and (d)discoveringnewscience,suchasthegeneticbasisforvariousdiseases.

Butthestartlingtruthisthatthesealgorithmsworkwithoutanysortofprovable guaranteesontheirbehavior.Whentheyarefacedwithanoptimization problem,dotheyactuallyfindthebestsolution,orevenaprettygoodone? Whentheypositaprobabilisticmodel,cantheyincorporatenewevidence andsamplefromthetrueposteriordistribution?Machinelearningworks amazinglywellinpractice,butthatdoesn’tmeanweunderstand why itworks sowell.

Ifyou’vetakentraditionalalgorithmscourses,theusualwayyou’vebeen exposedtothinkingaboutalgorithmsisthroughworst-caseanalysis.Whenyou haveasortingalgorithm,youmeasureitsrunningtimebasedonhowmany operationsittakesontheworstpossibleinput.That’saconvenienttypeof boundtohave,becauseitmeansyoucansaymeaningfulthingsabouthow longyouralgorithmtakeswithouteverworryingaboutthetypesofinputsyou usuallygiveit.

Butwhatmakesanalyzingmachinelearningalgorithms,especiallymodern ones,sochallengingisthatthetypesofproblemstheyaretryingtosolve reallyare NP-hardonworst-caseinputs.Whenyoucasttheproblemoffinding theparametersthatbestfityourdataasanoptimizationproblem,thereare instanceswhereitis NP-hardtofindagoodfit.Whenyoupositaprobabilistic modelandwanttouseittoperforminference,thereareinstanceswherethat is NP-hardaswell.

Inthisbook,wewillapproachtheproblemofgivingprovableguarantees formachinelearningbytryingtofindmorerealisticmodelsforourdata.In manyapplications,therearereasonableassumptionswecanmake,basedon thecontextinwhichtheproblemcameup,thatcangetusaroundtheseworstcaseimpedimentsandallowustorigorouslyanalyzeheuristicsthatareused inpractice,aswellasdesignfundamentallynewwaysofsolvingsomeofthe central,recurringproblemsinmachinelearning.

Totakeastepback,theideaofmovingbeyondworst-caseanalysisisanidea thatisasold1 astheoreticalcomputerscienceitself[95].Infact,therearemany differentflavorsofwhatitmeanstounderstandthebehaviorofalgorithmson “typical”instances,including:

(a)probabilisticmodelsforyourinput,orevenhybridmodelsthatcombine elementsofworst-caseandaverage-caseanalysislikesemi-random models[38,71]orsmoothedanalysis[39,130];

(b)waystomeasurethecomplexityofyourproblemandaskforalgorithms thatarefastonsimpleinputs,asinparameterizedcomplexity[66];and

(c)notionsofstabilitythatattempttoarticulatewhatinstancesofyour problemhavemeaningfulanswersandaretheonesyouactuallywantto solve[20,32].

Thisisbynomeansanexhaustivelistoftopicsorreferences.Regardless,in thisbook,wewillapproachmachinelearningproblemsarmedwiththesesorts ofinsightsaboutwaystogetaroundintractability.

Ultimately,wehopethattheoreticalcomputerscienceandmachinelearninghavealotlefttoteacheachother.Understandingwhyheuristicslike expectation-maximizationorgradientdescentonanonconvexfunctionwork sowellinpracticeisagrandchallengefortheoreticalcomputerscience.Butto makeprogressonthesequestions,weneedtounderstandwhattypesofmodels andassumptionsmakesenseinthecontextofmachinelearning.Ontheother hand,ifwemakeprogressonthesehardproblemsanddevelopnewinsights about why heuristicsworksowell,wecanhopetoengineerthembetter.We canevenhopetodiscovertotallynewwaystosolvesomeoftheimportant problemsinmachinelearning,especiallybyleveragingmoderntoolsinour algorithmictoolkit.

Inthisbook,wewillcoverthefollowingtopics:

(a)Nonnegativematrixfactorization

(b)Topicmodeling

1 Afterall,heuristicsperformingwellonreallifeinputsareoldaswell(longpredatingmodern machinelearning),hencesoistheneedtoexplainthem.

(c)Tensordecompositions

(d)Sparserecovery

(e)Sparsecoding

(f)Learningmixturesmodels

(g)Matrixcompletion

Ihopemorechapterswillbeaddedinlaterversionsasthefielddevelopsand makesnewdiscoveries.

2

NonnegativeMatrixFactorization

Inthischapter,wewillexplorethenonnegativematrixfactorizationproblem. Itwillbehelpfultofirstcompareittothemorefamiliarsingularvalue decomposition.Intheworstcase,thenonnegativematrixfactorizationproblem is NP-hard(seriously,whatelsedidyouexpect?),butwewillmakedomainspecificassumptions(called separability)thatwillallowustogiveprovable algorithmsforanimportantspecialcaseofit.Wethenapplyouralgorithmsto theproblemoflearningtheparametersofatopicmodel.Thiswillbeourfirst casestudyinhowtonotbackdowninthefaceofcomputationalintractability, andtofindwaysaroundit.

2.1Introduction

Inordertobetterunderstandthemotivationsbehindthenonnegativematrix factorizationproblemandwhyitisusefulinapplications,itwillbehelpful tofirstintroducethesingularvaluedecompositionandthencomparethetwo. Eventually,wewillapplybothofthesetotextanalysislaterinthissection.

TheSingularValueDecomposition

Thesingularvaluedecomposition(SVD)isoneofthemostusefultoolsin linearalgebra.Givenan m × n matrix M ,itssingularvaluedecompositionis writtenas

M = U V T

where U and V areorthonormaland isarectangularmatrixwithnonzero entriesonlyalongthediagonal,anditsentriesarenonnegative.Alternatively, wecanwrite

where ui isthe ith columnof U , vi isthe ith columnof V ,and σi isthe ith diagonalentryof .Throughoutthissectionwewillfixtheconventionthat

2

r > 0.Inthiscase,therankof M isprecisely r . Throughoutthisbook,wewillhaveoccasiontousethisdecompositionas wellasthe(perhapsmorefamiliar)eigendecomposition.If M isan n × n matrix andisdiagonalizable,itseigendecompositioniswrittenas

...

M = PDP 1

where D isdiagonal.Fornow,theimportantfactstorememberare:

(1) Existence: Everymatrixhasasingularvaluedecomposition,even ifitisrectangular.Incontrast,amatrixmustbesquaretohavean eigendecomposition.Eventhen,notallsquarematricescanbe diagonalized,butasufficientconditionunderwhich M canbe diagonalizedisthatallitseigenvaluesaredistinct.

(2) Algorithms: Bothofthesedecompositionscanbecomputedefficiently. Thebestgeneralalgorithmsforcomputingthesingularvalue decompositionrunintime O(mn2 ) if m ≥ n.Therearealsofaster algorithmsforsparsematrices.Therearealgorithmstocomputean eigendecompositionin O(n3 ) timeandtherearefurtherimprovements basedonfastmatrixmultiplication,althoughitisnotclearwhethersuch algorithmsareasstableandpractical.

(3) Uniqueness: Thesingularvaluedecompositionisuniqueifandonlyifits singularvaluesaredistinct.Similarly,theeigendecompositionisuniqueif andonlyifitseigenvaluesaredistinct.Insomecases,wewillonlyneed thatthenonzerosingularvalues/eigenvaluesaredistinct,becausewecan ignoretheothers.

TwoApplications

Twoofthemostimportantpropertiesofthesingularvaluedecompositionare thatitcanbeusedtofindthebestrank k approximationandthatitcanbeused fordimensionreduction.Weexplorethesenext.First,let’sformalizewhatwe meanbythebestrank k approximationproblem.Onewaytodothisistowork withtheFrobeniusnorm:

Definition2.1.1(Frobeniusnorm) M F = i,j M 2 i,j

ItiseasytoseethattheFrobeniusnormisinvariantunderrotations.For example,thisfollowsbyconsideringeachofthecolumnsof M separately asavector.ThesquareoftheFrobeniusnormofamatrixisthesumof squaresofthenormsofitscolumns.Thenleft-multiplyingbyanorthogonal matrixpreservesthenormofeachofitscolumns.Anidenticalargumentholds forright-multiplyingbyanorthogonalmatrix(butworkingwiththerows instead).Thisinvarianceallowsustogiveanalternativecharacterizationof theFrobeniusnormthatisquiteuseful:

Thefirstequalityiswherealltheactionishappeningandusestherotational invariancepropertyweestablishedabove.

ThentheEckart–Youngtheoremassertsthatthebestrank k approximation tosomematrix M (intermsofFrobeniusnorm)isgivenbyitstruncated singularvaluedecomposition:

Theorem2.1.2(Eckart–Young) argmin rank(B)≤k

Let Mk bethebestrank k approximation.Then,fromouralternativedefinition oftheFrobeniusnorm,itisimmediatethat M Mk F = r i=k +1 σ 2 i .

Infact,thesamestatement–thatthebestrank k approximationto M isits truncatedsingularvaluedecomposition–holdsfor any normthatisinvariant underrotations.Asanotherapplication,considertheoperatornorm:

Definition2.1.3(operatornorm) M = max x ≤1 Mx

Itiseasytoseethattheoperatornormisalsoinvariantunderrotationsand, moreover, M = σ1 ,againusingtheconventionthat σ1 isthelargestsingular value.ThentheEckart–Youngtheoremwithrespecttotheoperatornorm asserts:

Theorem2.1.4(Eckart–Young) argmin rank(B)≤k M B = k i=1 σi ui vT i

Again,let Mk bethebestrank k approximation.Then M Mk = σk +1 .As aquickcheck,if k ≥ r then σk +1 = 0,andthebestrank k approximationis exactandhasnoerror(asitshould).Youshouldthinkofthisassomethingyou candowithanyalgorithmtocomputethesingularvaluedecompositionof M –youcanfindthebestrank k approximationtoitwithrespecttoanyrotationally invariantnorm.Infact,itisremarkablethatthebestrank k approximationin manydifferentnormscoincides!Moreover,thebestrank k approximationto

M canbeobtaineddirectlyfromitsbestrank k + 1approximation.Thisisnot alwaysthecase,aswewillseeinthenextchapterwhenweworkwithtensors.

Next,wegiveanentirelydifferentapplicationofthesingularvaluedecompositioninthecontextofdataanalysisbeforewemoveontoapplicationsofit intextanalysis.Recallthat M isan m × n matrix.Wecanthinkofitasdefining adistributionon n-dimensionalvectors,whichweobtainfromchoosingone ofitscolumnsuniformlyatrandom.Furthersupposethat E[x] = 0;i.e.,the columnssumtotheall-zerovector.Let Pk bethespaceofallprojectionsonto a k -dimensionalsubspace.

Theorem2.1.5

Thisisanotherbasictheoremaboutthesingularvaluedecomposition,and fromitwecanreadilycomputethe k -dimensionalprojectionthatmaximizes theprojectedvariance.Thistheoremisofteninvokedinvisualization,where onecanvisualizehigh-dimensionalvectordatabyprojectingittoamore manageablelower-dimensionalsubspace.

LatentSemanticIndexing

Nowthatwehavedevelopedsomeoftheintuitionbehindthesingularvalue decomposition,wewillseeanapplicationofittotextanalysis.Oneofthe centralproblemsinthisarea(andonethatwewillreturntomanytimes)isthis: givenalargecollectionofdocuments,wewanttoextractsomehidden thematic structure.Deerwesteretal.[60]inventedlatentsemanticindexing(LSI)forthis purpose,andtheirapproachwastoapplythesingularvaluedecompositionto whatisusuallycalledtheterm-by-documentmatrix:

Definition2.1.6 Theterm-by-documentmatrixMisanm × nmatrixwhere eachrowrepresentsawordandeachcolumnrepresentsadocumentwhere

Mi,j =

countofword i indocument j totalnumberofwordsindocument j . Therearemanypopularnormalizationconventions,andherewehavechosen tonormalizethematrixsothateachofitscolumnssumstoone.Inthisway, wecaninterpreteachdocumentasaprobabilitydistributiononwords.Also, inconstructingtheterm-by-documentmatrix,wehaveignoredtheorderin whichthewordsoccur.Thisiscalleda bag-of-wordsrepresentation,andthe justificationforitcomesfromathoughtexperiment.SupposeIweretogive youthewordscontainedinadocument,butinajumbledorder.Itshouldstill bepossibletodeterminewhatthedocumentisabout,andhenceforgettingall

notionsofsyntaxandgrammarandrepresentingadocumentasavectorloses somestructure,butshouldpreserveenoughoftheinformationtomakemany basictasksintextanalysisstillpossible.

Onceourdataisinvectorform,wecanmakeuseoftoolsfromlinear algebra.Howcanwemeasurethesimilaritiesbetweentwodocuments?The naiveapproachistobaseoursimilaritymeasureonhowmanywordsthey haveincommon.Let’stry

Mi , Mj

Thisquantitycomputestheprobabilitythatarandomlychosenword w from document i andarandomlychosenword w fromdocument j arethesame.But whatmakesthisabadmeasureisthatwhendocumentsaresparse,theymaynot havemanywordsincommonjustbyaccidentbecauseoftheparticularwords eachauthorchosetousetodescribethesametypesofthings.Evenworse, somedocumentscouldbedeemedtobesimilarbecausetheycontainmanyof thesamecommonwords,whichhavelittletodowithwhatthedocumentsare actuallyabout.

Deerwesteretal.[60]proposedtousethesingularvaluedecompositionof M tocomputeamorereasonablemeasureofsimilarity,andonethatseems toworkbetterwhentheterm-by-documentmatrixissparse(asitusuallyis).

Let M = U V T andlet U1 k and V1 k bethefirst k columnsof U and V , respectively.Theapproachistocompute

U T 1 k Mi , U T 1 k Mj

foreachpairofdocuments.Theintuitionisthattherearesome topics thatoccur overandoveragaininthecollectionofdocuments.Andifwecouldrepresent eachdocument Mi onthebasisoftopics,thentheirinnerproductonthatbasis wouldyieldamoremeaningfulmeasureofsimilarity.Therearesomemodels–i.e.,hypothesesforhowthedataisstochasticallygenerated–whereitcanbe shownthatthisapproachprovablyrecoversthetruetopics[118].Thisisthe idealinteractionbetweentheoryandpractice–wehavetechniquesthatwork (somewhat)well,andwecananalyze/justifythem.

However,therearemanyfailingsoflatentsemanticindexingthathave motivatedalternativeapproaches.Ifweassociatethetopsingularvectorswith topics,then (1)topicsareorthonormal.

However,topicslike politics and finance actuallycontainmanywordsin common,sotheycannotbeorthonormal.

(2)topicscontainnegativevalues.

Hence,ifadocumentcontainssuchwords,theircontribution(tothetopic) couldcanceloutthecontributionsfromotherwords.Moreover,apairof documentscanbejudgedtobesimilarbecauseofparticulartopicsthatthey arebothnotabout.

NonnegativeMatrixFactorization

Forexactlythefailingswedescribedintheprevioussection,nonnegative matrixfactorizationisapopularalternativetothesingularvaluedecomposition inmanyapplicationsintextanalysis.However,ithasitsownshortcomings. Unlikethesingularvaluedecomposition,itis NP-hardtocompute.Andthe prevailingapproachinpracticeistorelyonheuristics,withnoprovable guarantees.

Definition2.1.7 Anonnegativematrixfactorizationofinner-dimensionrisa decomposition

M = AW

whereAisn × r,Wisr × n,andbothareentrywisenonnegative.Moreover, letthenonnegativerankofM–denotedby rank+ (M ) –betheminimumrso thatsuchafactorizationexists.

Aswewillsee,thisfactorization,whenappliedtoaterm-by-documentmatrix, canfindmoreinterpretabletopics.Beyondtextanalysis,ithasmanyother applicationsinmachinelearningandstatistics,includingincollaborativefilteringandimagesegmentation.Fornow,let’sgiveaninterpretationofanonnegativematrixfactorizationspecificallyinthecontextoftextanalysis.Suppose weapplyittoaterm-by-documentmatrix.Thenitturnsoutthatwecanalways putitinaconvenientcanonicalform:Let D beadiagonalmatrixwhere

andfurthersupposethateach Dj

Claim2.1.8 Set A = AD 1 and W = DW.Then

(1) A, WareentrywisenonnegativeandM = AW,and (2)thecolumnsof Aandthecolumnsof Weachsumtoone.

Weleavetheproofofthisclaimasanexercise,butthehintisthatproperty (2) followsbecausethecolumnsof M alsosumtoone.

Hencewecan,withoutlossofgenerality,assumethatournonnegative matrixfactorization M = AW issuchthatthecolumnsof A andthecolumnsof W eachsumtoone.Thenwecaninterpretthisfactorizationasfollows:Each documentisitselfadistributiononwords,andwhatwehavefoundis

(1)acollectionof r topics–thecolumnsof A –thatarethemselves distributionsonwords,and (2)foreachdocument i,arepresentationofit–givenby Wi –asaconvex combinationof r topicssothatwerecoveritsoriginaldistributionon words.

Lateron,wewillgetsomeinsightintowhynonnegativematrixfactorization is NP-hard.Butwhatapproachesareusedinpracticetoactuallycomputesuch afactorization?Theusualapproachis alternatingminimization:

AlternatingMinimizationforNMF

Input: M ∈ Rm×n

Output: M ≈ A(N ) W (N )

Guessentrywisenonnegative A(0) ofdimension m × r

For i = 1to N

Set W (i) ← argminW M A(i 1) W 2 F s.t. W ≥ 0

Set A(i) ← argminA M

End

Alternatingminimizationisquitegeneral,andthroughoutthisbookwewill comebacktoitmanytimesandfindthatproblemsweareinterestedinare solvedinpracticeusingsomevariantofthebasicapproachabove.However,it hasnoprovableguaranteesinthetraditionalsense.Itcanfailbygettingstuck inalocallyoptimalsolutionthatismuchworsethanthegloballyoptimalone. Infact,thisisinevitable,becausetheproblemitisattemptingtosolvereallyis NP-hard.

However,inmanysettingswewillbeabletomakeprogressbyworking withanappropriatestochasticmodel,wherewewillbeabletoshowthat itconvergestoagloballyoptimalsolutionprovably.Amajorthemeinthis bookistonottakeforgrantedheuristicsthatseemtoworkinpractice“as immutable,”becausetheabilitytoanalyzethemwillitselfprovidenewinsights intowhenandwhytheywork,andalsowhatcangowrongandhowto improvethem.

2.2AlgebraicAlgorithms

Intheprevioussection,weintroducedthenonnegativematrixfactorization problemanddescribedsomeofitsapplicationsinmachinelearningand statistics.Infact,becauseofthealgebraicnatureoftheproblem,itisfar fromclearthatthereisanyfinitetimealgorithmforcomputingitinthe worstcase.Herewewillexploresomeofthefundamentalresultsinsolving systemsofpolynomialequations,andderivealgorithmsfornonnegativematrix factorizationfromthese.

Rankvs.NonnegativeRank

Recallthatrank+ (M ) isthesmallestvalue r suchthat M hasanonnegative matrixfactorization M = AW withinnerdimension r .Itiseasytoseethatthe followingisanequivalentdefinition:

Claim2.2.1 rank+ (M ) isthesmallestrsuchthattherearerentrywise nonnegativerankonematrices {Mi } thatsatisfyM = i Mi .

Wecannowcomparetherankandthenonnegativerank.Thereare,of course,manyequivalentdefinitionsfortherankofamatrix,butthemost convenientdefinitiontocomparethetwoisthefollowing:

Claim2.2.2 rank(M ) isthesmallestrsuchthattherearerrankonematrices {Mi } thatsatisfyM = i Mi .

Theonlydifferencebetweenthesetwodefinitionsisthattheformerstipulates thatalloftherankonematricesinthedecompositionareentrywisenonnegative,whilethelatterdoesnot.Thusitfollowsimmediatelythat

Fact2.2.3 rank+ (M ) ≥ rank(M )

Canthenonnegativerankofamatrixbemuchlargerthanitsrank?We encouragethereadertothinkaboutthisquestionbeforeproceeding.Thisis equivalenttoaskingwhether,foranentrywisenonnegativematrix M ,onecan, withoutlossofgenerality,requirethefactorsinitsrankdecompositiontobe entrywisenonnegativetoo.Itiscertainlytrueforarankonematrix,andturns outtobetrueforaranktwomatrixtoo,but...

Ingeneral,thenonnegativerankcannotbeboundedbyanyfunctionof therankalone.Infact,therelationship(orlackthereof)betweentherank andthenonnegativerankisoffundamentalimportanceinanumberofareas intheoreticalcomputerscience.Fortunately,therearesimpleexamplesthat illustratethatthetwoparameterscanbefarapart:

Example: Let M bean n × n matrixwhere Mij = (i j)2 .

Itiseasytoseethatthecolumnspaceof M isspannedbythefollowingthree vectors:

Hencerank(M ) ≤ 3.(Infact,rank(M ) = 3.)However, M haszerosalong thediagonalandnonzerosoffthediagonal.Furthermore,foranyrankone entrywisenonnegativematrix Mi ,itspatternofzerosandnonzerosisa combinatorialrectangle –i.e.,theintersectionofsomesetofrowsand columns–anditcanbeshownthatoneneedsatleastlog n suchrectangles tocoverthenonzerosof M withoutcoveringanyofitszeros.Hence:

Fact2.2.4 rank+ (M ) ≥ log n

Awordofcaution: Forthisexample,anumberofauthorshaveincorrectly triedtoproveamuchstrongerlowerbound(e.g.,rank+ (M ) = n).Infact(and somewhatsurprisingly),itturnsoutthatrank+ (M ) ≤ 2log n.Theusualerror isinthinkingthatbecausetherankofamatrixisthelargest r suchthatithas r linearlyindependentcolumns,thenonnegativerankisthelargest r suchthat thereare r columnswherenocolumnisaconvexcombinationoftheother r 1.Thisisnottrue!

SystemsofPolynomialInequalities

Wecanreformulatetheproblemofdecidingwhetherrank+ (M ) ≤ r isa problemoffindingafeasiblesolutiontoaparticularsystemofpolynomial inequalities.Morespecifically,rank+ (M ) ≤ r ifandonlyif

hasasolution.Thissystemconsistsofquadraticequalityconstraints(onefor eachentryof M )andlinearinequalitiesthatrequire A and W tobeentrywise nonnegative.Beforeweworryaboutfastalgorithms,weshouldaskamore basicquestion(whoseanswerisnotatallobvious):

Question4 Isthereanyfinitetimealgorithmfordecidingifrank+ (M ) ≤ r?

Thisisequivalenttodecidingiftheabovelinearsystemhasasolution, butthedifficultyisthatevenifthereisone,theentriesof A and W could beirrational.Thisisquitedifferentthan,say,3-SAT,wherethereisasimple brute-forcealgorithm.Incontrast,fornonnegativematrixfactorizationitis quitechallengingtodesignalgorithmsthatruninanyfiniteamountoftime.

Butindeedtherearealgorithms(thatruninsomefixedamountoftime) todecidewhetherasystemofpolynomialinequalitieshasasolutionornot intherealRAMmodel.Thefirstfinitetimealgorithmforsolvingasystem ofpolynomialinequalitiesfollowsfromtheseminalworkofTarski,andthere hasbeenalonglineofimprovementsbasedonsuccessivelymorepowerful algebraicdecompositions.Thislineofworkculminatedinthefollowing algorithmofRenegar:

Theorem2.2.5 [126]Givenasystemofmpolynomialinequalitiesink variables,whosemaximumdegreeisDandwhosebitcomplexityisL,there isanalgorithmwhoserunningtimeis

(nDL)O(k )

thatdecideswhetherthesystemhasasolution.Moreover,ifitdoeshavea solution,thenitoutputsapolynomialandaninterval(oneforeachvariable) inwhichthereisonlyoneroot,whichisthevalueofthevariableinthetrue solution.

Noticethatthisalgorithmfindsanimplicitrepresentationofthesolution,since youcanfindasmanybitsofthesolutionasyouwouldlikebyperforminga binarysearchfortheroot.Moreover,thisalgorithmisessentiallyoptimal,and improvingitwouldyieldsubexponentialtimealgorithmsfor3-SAT.

Wecanusethesealgorithmstosolvenonnegativematrixfactorization,and itimmediatelyimpliesthatthereisanalgorithmfordecidingifrank+ (M ) ≤ r runsinexponentialtime.However,thenumberofvariableswewouldneedin thenaiverepresentationis nr + mr ,oneforeachentryin A or W .Soevenif r = O(1),wewouldneedalinearnumberofvariablesandtherunningtime wouldstillbeexponential.Itturnsthateventhoughthenaiverepresentation usesmanyvariables,thereisamorecleverrepresentationthatusesmanyfewer variables.

VariableReduction

Hereweexploretheideaoffindingasystemofpolynomialequationsthat expressesthenonnegativematrixfactorizationproblemusingmanyfewer

variables.In[13,112],Aroraetal.andMoitragaveasystemofpolynomial inequalitieswith f (r ) = 2r 2 variablesthathasasolutionifandonlyif rank+ (M ) ≤ r .Thisimmediatelyyieldsapolynomialtimealgorithmto computeanonnegativematrixfactorizationofinner-dimension r (ifitexists) forany r = O(1).Thesealgorithmsturnouttobeessentiallyoptimalina worst-casesense,andpriortothisworkthebestknownalgorithmsevenfor thecase r = 4raninexponentialtime.

Wewillfocusonaspecialcasetoillustratethebasicideabehindvariable reduction.Supposethatrank(M ) = r ,andourgoalistodecidewhetheror notrank+ (M ) = r .Thisiscalledthesimplicialfactorizationproblem.Can wefindanalternatesystemofpolynomialinequalitiesthatexpressesthis decisionproblembutusesmanyfewervariables?Thefollowingsimplebut usefulobservationwillpavetheway:

Claim2.2.6 Inanysolutiontothesimplicialfactorizationproblem,AandW musthavefullcolumnandrowrank,respectively.

Proof: If M = AW ,thenthecolumnspanof A mustcontainthecolumns of M ,andsimilarly,therowspanof W mustcontaintherowsof M .Since rank(M ) = r ,weconcludethat A and W musthave r linearlyindependent columnsandrows,respectively.Since A has r columnsand W has r rows,this impliestheclaim.

Henceweknowthat A hasaleftpseudo-inverse A+ and W hasaright pseudo-inverse W + sothat A+ A = WW + Ir ,where Ir isthe r × r identity matrix.Wewillmakeuseofthesepseudo-inversestoreducethenumberof variablesinoursystemofpolynomialinequalities.Inparticular:

A+ AW = W

sowecanrecoverthecolumnsof W fromalineartransformationofthe columnsof M .Similarly,wecanrecovertherowsof A fromalinear transformationoftherowsof M .Thisleadstothefollowingalternativesystem ofpolynomialinequalities:

Apriori,itisnotclearthatwehavemadeprogress,sincethissystemalso has nr + mr variablescorrespondingtotheentriesof A+ and W + .However, considerthematrix MW + .Ifwerepresent S+ asan n × r matrix,thenweare describingitsactiononallvectors,butthecrucialobservationisthatweonly

needtoknowhow S+ actsontherowsof M thatspanan r -dimensionalspace. Hencewecanapplyachangeofbasistowrite

MC = MU

where U isan n × r matrixthathasarightpseudo-inverse.Similarly,wecan write

MR = VM

where V isan r × m matrixthathasaleftpseudo-inverse.Nowwegetanew system:

STMR = M

Noticethat S and T areboth r × r matrices,andhencethereare2r 2 variables intotal.Moreover,thisformulationisequivalenttothesimplicialfactorization probleminthefollowingsense:

Claim2.2.7 Ifrank(M ) = rank+ (M ) = r,then(2.3)hasasolution.

Proof: Usingthenotationabove,wecanset S = U + W + and T = A+ V + .

Then MC S = MUU + W + = A andsimilarly TMR = A+ V + VM = W ,andthis impliestheclaim.

Thisisoftencalled completeness,sinceifthereisasolutiontotheoriginal problem,wewanttheretobeavalidsolutiontoourreformulation.Wealso needtoprove soundness,thatanysolutiontothereformulationyieldsavalid solutiontotheoriginalproblem:

Claim2.2.8 Ifthereisasolutionto(2.3),thenthereisasolutionto(2.1).

Proof: Foranysolutionto(2.3),wecanset A = MC S and W = TMR ,andit followsthat A, W ≥ 0and M = AW .

Itturnsouttobequiteinvolvedtoextendtheideasabovetononnegative matrixfactorizationingeneral.Themainideain[112]istofirstestablisha newnormalformfornonnegativematrixfactorization,andusetheobservation thateventhough A couldhaveexponentiallymanymaximalsetsoflinearly independentcolumns,theirpsueudo-inversesarealgebraicallydependentand canbeexpressedoveracommonsetof r 2 variablesusingCramer’srule. Additionally,Aroraetal.[13]showedthatanyalgorithmthatsolveseventhe simplicialfactorizationproblemin (nm)o(r ) timeyieldsasubexponentialtime

algorithmfor3-SAT,andhencethealgorithmsabovearenearlyoptimalunder standardcomplexityassumptions.

FurtherRemarks

Earlierinthissection,wegaveasimpleexamplethatillustratesaseparation betweentherankandthenonnegativerank.Infact,therearemoreinteresting examplesofseparationsthatcomeupintheoreticalcomputerscience,where anaturalquestionistoexpressaparticularpolytope P in n dimensions, whichhasexponentiallymanyfacetsastheprojectionofahigherdimensional polytope Q withonlypolynomiallymanyfacets.Thisiscalledan extended formulation,andadeepresultofYannakakisisthattheminimumnumber offacetsofanysuch Q –calledthe extensioncomplexity of P –isprecisely equaltothenonnegativerankofsomematrixthathastodowiththegeometric arrangementbetweenverticesandfacetsof P [144].Thenthefactthatthereare explicitpolytopes P whoseextensioncomplexityisexponentialisintimately relatedtofindingexplicitmatricesthatexhibitlargeseparationsbetweentheir rankandnonnegativerank.

Furthermore,thenonnegativerankalsohasimportantapplicationsincommunicationcomplexity,whereoneofthemostimportantopenquestions–the log-rankconjecture [108]–canbereformulatedbyasking:GivenaBoolean matrix M ,islogrank+ (M ) ≤ (logrank(M ))O(1) ?Thus,intheexampleabove, thefactthatthenonnegativerankcannotbeboundedbyanyfunctionofthe rankcouldbeduetotheentriesof M takingonmanydistinctvalues.

2.3StabilityandSeparability

Herewewillgiveageometric(asopposedtoalgebraic)interpretationof nonnegativematrixfactorizationthatwilloffernewinsightsintowhyitishard intheworstcaseandwhattypesoffeaturesmakeiteasy.Inparticular,we willmovebeyondworst-caseanalysisandworkwithanewassumptioncalled separability thatwillallowustogiveanalgorithmthatrunsinpolynomialtime (evenforlargevaluesof r ).Thisassumptionwasfirstintroducedtounderstand conditionsunderwhichthenonnegativematrixfactorizationproblemhasa uniquesolution[65],andthisisacommonthemeinalgorithmdesign

Theme1 Lookingforcaseswherethesolutionisuniqueandrobustwilloften pointtocaseswherewecandesignalgorithmswithprovableguaranteesin spiteofworst-casehardnessresults.

ConesandIntermediateSimplicies

Herewewilldevelopsomegeometricintuitionaboutnonnegativematrix factorization–or,rather,animportantspecialcaseofitcalledsimplicial factorizationthatweintroducedintheprevioussection.First,letusintroduce thenotionofacone:

Definition2.3.1 LetAbeanm × rmatrix.Thentheconegeneratedbythe columnsofAis

CA ={Ax|x ≥ 0}

Wecanimmediatelyconnectthistononnegativematrixfactorization.

Claim2.3.2 GivenmatrixM , Aofdimensionm × nandm × r,respectively, thereisanentrywisenonnegativematrixWofdimensionr × nwithM = AW ifandonlyif CM ⊆ CA

Proof: Intheforwarddirection,suppose M = AW ,where W isentrywise nonnegative.Thenanyvector y ∈ CM canbewrittenas y = Mx where x ≥ 0, andthen y = AWx andthevector Wx ≥ 0,andhence y ∈ CA too.Inthereverse direction,suppose CM ⊆ CA .Thenanycolumn Mi ∈ CA andwecanwrite Mi = AWi where Wi ≥ 0.Nowwecanset W tobethematrixwhosecolumns are {Wi }i andthiscompletestheproof.

Whatmakesnonnegativematrixfactorizationdifficultisthatboth A and W areunknown(ifonewereknown,say A,thenwecouldsolvefortheotherby settingupanappropriatelinearprogram,whichamountstorepresentingeach columnof M in CA ).

Vavasis[139]wasthefirsttointroducethesimplicialfactorizationproblem, andoneofhismotivationswasthatitturnsouttobeconnectedtoapurely geometricproblemaboutfittingasimplexinbetweentwogivenpolytopes. Thisiscalledtheintermediatesimplexproblem:

Definition2.3.3 AninstanceoftheintermediatesimplexproblemconsistsofP andQwithP ⊆ Q ⊆ Rr 1 ,andPisspecifiedbyitsverticesandQisspecified byitsfacets.ThegoalistofindasimplexKwithP ⊆ K ⊆ Q.

Inthenextsectionwewillshowthatthesimplicialfactorizationproblem andtheintermediatesimplexproblemareequivalent.

Reductions

Wewillprovethatthesimplicialfactorizationproblemandtheintermediate simplexproblemareequivalentinthesensethatthereisapolynomialtime

reductioninbothdirections.Wewilldosobywayofafewintermediate problems.

Supposewearegivenaninstanceofthesimplicialfactorizationproblem. Thenwecanwrite M = UV ,where U and V haveinnerdimension r butare notnecessarilyentrywisenonnegative.Ifwecanfindaninvertible r × r matrix T where UT and T 1 V arebothentrywisenonnegative,thenwehavefounda validnonnegativematrixfactorizationwithinnerdimension r .

Claim2.3.4 Ifrank(M ) = randM = UVandM = AWaretwofactorizations thathaveinner-dimensionr,then

(1)colspan(U ) = colspan(A) = colspan(M ) and (2)rowspan(V ) = rowspan(W ) = rowspan(M )

Thisfollowsfrombasicfactsinlinearalgebra,andimpliesthatanytwosuch factorizations M = UV and M = AW canbelinearlytransformedintoeach otherviasomeinvertible r × r matrix T .Hencetheintermediatesimplex problemisequivalentto

Definition2.3.5 Aninstanceoftheproblem P1 consistsofanm × nentrywise nonnegativematrixMwithrank(M ) = randM = UVwithinnerdimension r.Thegoalistofindaninvertibler × rmatrixwherebothUTandT 1 Vare entrywisenonnegative.

Caution: Thefactthatyoucanstartoutwithanarbitraryfactorizationand asktorotateitintoanonnegativematrixfactorizationofminimuminner dimensionbuthaven’tpaintedyourselfintoacornerisparticulartothe simplicialfactorizationproblemonly!Itisgenerallynottruewhenrank(M )< rank+ (M )

Nowwecangiveageometricinteroperationof P1:

(1)Let u1 , u2 , ... , um betherowsof U .

(2)Let t1 , t2 , , tr bethecolumnsof T

(3)Let v1 , v2 , ... , vn bethecolumnsof V .

Wewillfirstworkwithanintermediateconeproblem,butitsconnectionto theintermediatesimplexproblemwillbeimmediate.Towardthatend,let P betheconegeneratedby u1 , u2 , , um ,andlet K betheconegeneratedby t1 , t2 , , tr .Finally,let Q betheconegivenby Q ={x| ui , x ≥ 0forall i}.

Itisnothardtoseethat Q isaconeinthesensethatitisgeneratedasall nonnegativecombinationsofafinitesetofvectors(itsextremerays),butwe

haveinsteadchosentorepresentitbyitssupportinghyperplanes(throughthe origin).

Claim2.3.6 UTisentrywisenonnegativeifandonlyif {t1 , t2 , ... , tr }⊆ Q.

Thisfollowsimmediatelyfromthedefinitionof Q,becausetherowsof U are itssupportinghyperplanes(throughtheorigin).Hencewehaveageometric reformulationoftheconstraint UT thatisentrywisenonnegativein P1.Next, wewillinterprettheotherconstraint,that T 1 V isentrywisenonnegativetoo.

Claim2.3.7 T 1 Visentrywisenonnegativeifandonlyif {v1 , v2 , ... , vm }⊆ K.

Proof: Consider xi = T 1 vi .Then Txi = T (T 1 )vi = vi ,andhence xi isa representationof vi asalinearcombinationof {t1 , t2 , ... , tr }.Moreover,itis theuniquerepresentation,andthiscompletestheproof.

Thus P1 isequivalenttothefollowingproblem:

Definition2.3.8 Aninstanceoftheintermediateconeproblemconsistsof conesPandQwithP ⊆ Q ⊆ Rr 1 ,andPisspecifiedbyitsextremerays andQisspecifiedbyitssupportinghyperplanes(throughtheorigin).Thegoal istofindaconeKwithrextremeraysandP ⊆ K ⊆ Q.

Furthermore,theintermediateconeproblemiseasilyseentobeequivalent totheintermediatesimplexproblembyintersectingtheconesinitwitha hyperplane,inwhichcaseaconewithextremeraysbecomesaconvexhull oftheintersectionofthoserayswiththehyperplane.

GeometricGadgets

Vavasismadeuseoftheequivalencesintheprevioussectiontoconstruct certaingeometricgadgetstoprovethatnonnegativematrixfactorizationis NPhard.Theideawastoconstructatwo-dimensionalgadgetwherethereareonly twopossibleintermediatetriangles,whichcanthenbeusedtorepresentthe truthassignmentforavariable xi .Thedescriptionofthecompletereduction andtheproofofitssoundnessareinvolved(see[139]).

Theorem2.3.9 [139]Nonnegativematrixfactorization,simplicialfactorization,intermediatesimplex,intermediatecone,and P1 areallNP-hard.

Aroraetal.[13]improveduponthisreductionbyconstructinglowdimensionalgadgetswithmanymorechoices.Thisallowsthemtoreducefrom the d -SUMproblem,wherewearegivenasetof n numbersandthegoalisto findasetof d ofthemthatsumtozero.Thebestknownalgorithmsforthis

Another random document with no related content on Scribd:

Itku pitkästä ilosta.

"Oi, Tellervo viekas ja vienoinen, mihin poikasen polosen veitkään, miks' piirtelit syömeeni pilkkojas' ja sen hurmaten hulluksi teitkään! sua vihaa en, sua soimaa en, mut tee minut järkihin jällehen.

Oi, Tellervo huima ja huoleton, en ole ma leikkihin luotu, ei minulle kaunojen karkeloon Lipon tiukkahan suksia suotu, minut luotihin vaan pojaks' erämaan ja Hiisien hirviä ajelemaan.

En luotu ma vaan huvihiihtäjäks', en käymähän saloa samaa, minut luotihin uria uurtamaan ja oksia osoittamaan. En viipyä saa pois vuorien taa käy tieni, miss' yhtyvi taivas ja maa.

Ma olen sua pettänyt onneton; ja pettänyt kauvan liika: minä olen vain ihminen syntinen, sinä metsien sinipiika. Mua lemmi et. Siis kahlehet nämä katkaise kaunihit, utuiset!

Kas, sun on jalkasi keveä ja sulla on mieli nuori, mut mulla on murhe sydämessäin ja harteilla harmaja vuori. Sinä semmoinen, minä tämmöinen mitä leikistä meidän molempien!

Sa näethän, ett' olen orjasi — mitä vaadit sa enempi multa?

Ei mull' ole kultia, hopeita.

Oli ylpeys köyhän kulta.

Sen saithan sa jo.

Oi, Tellervo, et kovempi liene kuin kohtalo!

Minut kohtalo korpehen tuomitsi ja synkkä on sydämen yöni, mut latuja uusia laulella kylän kansalle kaunis on työni.

Ja hankihin jos vaivunkin, niin kuolen ma miehenä kuitenkin.

Näet meihin pannut on muutamiin Isä-Jumala semmoisen vaivan, me ettemme tyydy tomuhun, vaan tahdomme ilmaa taivaan, ja lennämme vaan ja laulamme vaan ja laulajoiks' meitä sanotaan.

Ei leimua meille ne liedet maan, ei vilku ne ikkunan valot, meille tuikkivat taivahan tähdet vaan ja pilkkuvat pilvien talot. ja kuun polut vain yli kunnahain oi, kauniit on kartanot laulajain!

Olen kyllin jo lyönyt mä leikkiä.

Niin pitkä on taival mulla.

Mun täytyvi kärsiä, taistella.

Oi, suothan mun kotihin tulla!

Siis hyvästi jää!

Yö yllättää.

Taas yksin-hiihtäjä hiihtämään!"

Näin lauleli hiihtäjä hiljakseen, käden hyvästiksi hän tarjos'.

Mut Tellervo itkuhun purskahti

ja hän kädellä silmänsä varjos'.

Yö hiljainen, Humu honkien.

Ja laulaja lauleli jällehen.

Kuoleman kannel. Mut jos mua tyttö sä rakastat, niin vie minut Metsolaasi! Me heitämme maailman herjan tään ja etsimme elomaasi, ja minä olen sun ja sinä olet mun ja me elämme onnea unhotetun.

Me tahdomme kaiken sen unhottaa, mikä maailmassa on väärää, mikä sydämet sykkivät erottaa ja ihmisten onnen määrää, mik' on likaista mik' on lokaista sekä orjantappuraokaista.

Me tahdomme kaiken sen unhottaa ja meitä ei kukaan muista. Sun taattosi Tapion linnan luo majan teemme me pienistä puista, ja vuotehen mesinukkaisen, sen päälle peittehen kukkaisen.

Ja viikot ne vierivät hiljalleen ja päivä seuraa toistaan. Mut kauvaksi kuusien lomitse tuli illoin tuvasta loistaa. Ja kulkija, ken luo majan sen yöss' eksyvi, löytävi lämpöisen.

Hän löytävi lieden lämpöisen ja huuruvan hutun mi maistaa.

Mut kun hän on käynyt nukkumaan ja kuutamo sisähän paistaa, niin herää hän sävelhyminään hän kuulee ja koettavi sydäntään.

Hän kuulevi laulun kummallisen kuin kuoleman kannel soisi eikä se häntä säikytä, vaan on kuin tuttua oisi, se soittavi vaan, mitä kodistaan hän sai sekä unohti matkallaan.

Se soittavi rauhaa maailmaan ja se silmihin utua seuloo, se yhtehen yön ja päivän soi ja hämärän huntua neuloo, yli linnojen, yli töllien, ja ylitse kruunujen kultaisten.

Ja silloin prinssit ja prinsessat ne silmänsä kiinni painaa ja ajatus lentävi aurinkoon, joka valonsa kaikille lainaa, niin hyville kuin pahoille, niin köyhille kuin myös rikkaille.

Ja on kuin lamput ne linnoissa niin heikosti liekuttaisi, ja alla sammalekatonkin sydän särkynyt hoivan saisi ja on kuin ois' surut, riemut poiss' ja elämä kaukana karkelois'.

Ja ihmiset tuumivat itsekseen:

Mikä on tuo laulu kumma?

Miks' kullan kiilto kalpenee ja hopean hohto on tumma?

Miks' herkut nää kaikki pöydälle jää?

Mit' tää on? Miks' meitä väsyttää?

Ja äidit ne laulavat lapsilleen: "Hussa, hussa, lulla, oi nuku mun nuppuni kultainen, ei eess' ole elämä sulla, vaan Tuonen maat, hyvät, autuaat; siellä silmät auki sa uinua saat."

Ja mies, joka tahtoi mullistaa maan kaiken juuriltansa, hän

äkkiä seisoo ja hämmästyy: "On poissa valtio, kansa, poissa toimi ja työ, ei kenkään myö, ei kenkään osta. On maailman yö."

Näin laulaja lauleli hiljakseen, käden tervehdyksehen tarjos'. Mut Tellervo selin hän seisoi vaan ja hän kädellä silmänsä varjos'. Yö hiljainen. Humu honkien. Ja sitten muuta ma muista en.

Metsolassa. Mut oli kuin hiihtäjän syömehen ois' syttynyt oudot mielet ja oli kuin ilmassa kaartuneet ois' korkeat pihtipielet ja ikkunat isot, valoisat — kah, Metsolan linnat jo kangastavat!

Kas, tuossahan Tapio harmaapää jo seisovi portahilla: "Ohoh, mun poikani poloinen, olit jäädä jo suuhun illan. Käy tupahan, niin katsotaan, mitä talossa on sekä tarjotaan!"

Ja Mielikki, metsien muori, vie minut päähän honkaisen pöydän: "Syö poikani, pistä piirakkaa, mut uota kun oltta löydän." Kera isännän näin me istumme päin ja rauha on suloinen sydämessäin.

Hän haastavi metsien haluista ja hirvien hiihtäjistä. Minä kerron suurista kylistä ja pienistä ihmisistä. Kuink' ollakaan, niin huomataan, että kumpikin yhtä tarkoittaa.

Ja Tapio tarttuvi kätehein: "Kun ollaan me veljet ja kuomat, niin miks' emme yhtenä asua vois' kuin yhden Luojan luomat.

Talo riittää kai, tytär metsän nai, niin sulla on elo kuin sunnuntai.

On kyllin kystä mun aitassain, on peuroja, kontioita, ja metsän tyttäret kirnuaa kesät meille keltaista voita. Me syödään vaan, me juodaan vaan ja juotua sitten me nukutaan."

Näin haasteli Tapio harmaapää ja sitten me kättä lyötiin ja kun oli lyöty tarpeeksi, niin tarpeheksi myös syötiin. Ja syödessä niin, me päätettiin, mikä tyttö se talosta naitaisiin.

Kas, siinähän Tellervo vienosuu jo tuopilla oltta kantaa: "Oi, juo'os mun veioni väsynyt, olut Metsolan onnea antaa." Minä oltta join, hän katseen loi, — ja niin hän oli minun morsioin.

Ja niinpä jäin minä metsähän ja mull' oli metsän mieli. Mitä kaikkea siellä mä nähdä sain. sitä kertoa ei voi kieli. Minä kerron vaan, miten Metsolaan, minä tulin ja kuinka taas maailmaan.

VI.

Tähdet. En tiedä, kauanko elellyt lien, minä Metsolan mesimailla. Mut syntyi hiuka mun sydämessäin kuin öisin ma jotakin vailla. Meni päivä, kaks', yhä kummemmaks' kävi pääni ja mieleni tummemmaks'.

Minä astuin Tapion etehen ja lausuin: "Tee mulle sukset! Mun mieleni palaa kotihin, ovat ahtahat linnasi ukset. Mut tyttöni vien minä päähän tien, vaikka tielle sille ma vaipuva lien!"

Teki Tapio sukset ja varoitti: "Toki poikani matkalla muista, kun ilta alkavi hämärtää, maja laittele laakson puista niin tiivis ain', ett' taivahain ei tähtöset lävitse tuikkine vain!"

Se Tapio peijakas puijasi!

Tuon huomasin sitten vasta. Mut kanssa kaunihin Tellervon me läksimme Metsolasta. Yöks' tehtihin

maja tiivis niin

ja majassa makeesti nukuttiin.

Ja nukuttu ois' kai vieläkin, jos ei olis' erhe tullut: Tein

kerran ma majani kiireessä, joka ei niin tiivis ollut. Kun heräsin, ma säikähdin, — yö yll' oli tähdin tuhansin.

Ei kenkään voi sitä aavistaa, mitä tähdet ne pienet haastaa, kun niitä ääneti katselee mies yksin miettivä maasta. Mua itketti, mua hävetti — ja sitten mua myös suututti.

Ne kertoivat tarua muinaista, miten isänmaall' oli hätä, miten vieraan miekalla lyötihin ja ristillä maata tätä. Mut kansa nous' kuin teräsjous' ja sotapurret maassa sous'.

Mut tähtien silmät ne hämärtyy, jo katkesi kansan jousi.

Ja vesillä Suomeni sorjan tään vain sorron haahdet sousi.

Käsi vierahan oli ohjissa maan.

Savut hiljaiset korvesta kohosi vaan.

Taas tähdet ne tuikkivat kiivaammin, ja korven kansa nousi, ja kautta Suomeni sorjan tään taas Suomen purret sousi. Maat, kunnahat jo kukkivat. Helavalkeat vuorilla leimuavat.

Ken tohtii ne valkeat sammuttaa?

Ken ryöstää soihtusi sulta?

Ken kurja uhata uskaltaa tään kansan pyhää tulta?

Miks' itkette

oi, tähdet te, mitä mietitte, miksi te pelkäätte?

Ulos juoksin. Yö oli haihtunut puut punasi aamurusko. Pois sammui soihdut tähtien, mut mull' oli uusi usko. Ja kun katsahdin, niin huomasin, että kodin jo nurkilla olinkin.

Minä huusin ja hurjana riemastuin, mut kun minä katsoin taaksi, oli poissa mun metsäni morsian ja maja oli mennyt maaksi. Kaikk' untako? Sen tiesin jo. Toki kiitos kaikesta, Tellervo!

Pyhä kevät (1901)

Pyhä kevät.

Hertan henki mailla kulkee, haudat kaikki aukeaa. Kas, jo kätkee kääriliinat, sydän uuden uskon saa.

Maa, mi nukkui hangen herää uuteen elohon, kautta ilman kannel kaikuu: "Vapahtaja noussut on!"

Herää sydän ihmisenki iloinensa suruineen. Astu, aatos, lennä, liidä kirkastuksen korkeuteen!

Aleksis Kivi.

[Sylvester, vuoden viimeinen päivä: Kivi kuoli Uudenvuoden päivänä, syntyi 10 p. lokak.]

Syntyi lapsi syksyllä tuulet niin vinhasti vinkui tuult' oli koko elämä, nähnyt ei kesää, ei kevättä, eli vain syksystä jouluun.

Syksyn lapsilla kiire on — päre pihdissä sammuu — aatos lentävi, aivot takoo, veri paksuna päähän sakoo, ovella Sylvester uottaa.

"Varro vielä, oi vanha vuos'!" — tuulet niin vinhasti vinkuu —

"jouda en viel' sua seuraamaani"

Vanhus ovella nyökkää vaan: "Saat elää syksystä jouluun."

"Viivy, viivy, oi vanha vuos'!" — päre pihdissä sammuu — "niin täysi, niin täysi on sydämein sen tahtoisin antaa ma kansallein, en vielä jouda ma kuolooni"

Hetket rientävi, kello lyö — tuulet niin vinhasti vinkuu — "Onko, onko jo keskiyö?"

"Päätä, lapsi, nyt päivätyö, jo aamun tähtöset tuikkii."

Vielä hetki, oi vanha vuos'!" päre pihdissä sammuu

kannel heikosti helkähtää, kääntyvä ovella harmaapää — loppui laulajan vuosi.

*

"Minne viet mua, vanha vuos'?" tuulet niin lauhasti tuoksuu

"minä niin pelkään ja vapisen". "Rauhoitu, rakas lapsonen, ovella taivaan jo ollaan."

Astuvi sisähän vanha vuos' — taivaan kynttilät loistaa — saattavi laulajan Luojan luo:

"Tässä poian ma pienen tuon, jok' eli vain syksystä jouluun."

Virkkavi Herra Jumala — tuulet niin lauhasti tuoksuu —

"Etkö kesää sa nähnytkään?"

"Näin vain syksyn ja talven sään," laulaja vavisten vastaa.

Kyyneltyy silmä Jumalan — taivaan kynttilät loistaa —

"Siis suvi suli' olkohon ikuinen! Mut virka, poikanen poloinen, ken olet ja mistä sa tulet?"

"Laulaja olen ma laadultain" — tuulet niin lauhasti tuoksuu — "tulen tähtösestä ma pienestä, min nimi on maa." — "Mihin kuolit sä?"

"Kurjuuteen kuolin ja nälkään."

Vihastuu Herra Jumala — taivaan kynttilät sammuu — "Sano kansas', niin kostan ma kuolosi sun!"

"Ei, ei, hyvä, suuri on kansani mun, et sille saa sinä kostaa.

Mut hiukan hillitse viimojas', ne liian vinhasti vinkuu mun maani armahan aukoilla.

Suo paistaa päiväsi Suomen soilla!" — Näin laulaja tuskassa huutaa.

Hymyilee hyvä Jumala — taivaan kynttilät loistaa — "Voi oikein olla. Ehk' koetin ma sun kansaas' liiaksi tuulilla. Taas kukat kummuille nouskoon!"

Mökkiläinen ja hänen poikansa.

"Noh pojat, päivä valkeaa, on aika työn ja toimen. Jo aura pelloll' odottaa ja hepo eessä soimen.

On sääli heitä herättää, ois' hyvä maata heidän,

mut säälittää myös kaunis sää, ja pien' on mökki meidän.

Ken nuorna tottui nukkumaan, ei vanhanakaan herää. Vain työttömyys se ruostuttaa, ei kyntö auran terää.

Ja näin ma heitä lohdutan, kun väsyvät ne milloin: tuo aika uuden huomenen, jo parempi on silloin.

Ja usein huomen valkeaa ja työ on yhtä kovaa, ma silloin koetan lohduttaa: nyt saatte hetken lomaa.

Ja tyytyväisnä työhönsä he nousee nukkumasta. Oi, heitä siunaa, Herra sä, oi, siunaa mökin lasta!"

Pursi yössä.

Ilta hiljainen lankeaa, purje leutona lepattaa, terhen nousevi tuolta, täältä, lahden pohjasta, laineen päältä, kutovi verkkonsa ylitse veen — poikanen yössä on yksikseen.

Huokaa öiset ulapat, saapuu sadat unelmat.

Vait'! Mikä valkoinen välkähtää Vellamon neitosen

kyynärpää, tuolla polvi ja täällä kaula: "Laula, poikanen, mulle laula synnyt lempivän sydämen. Saat sinä suukkoni lämpöisen!"

Ja poikanen laulavi lauluaan niin vienon-soipoa, sorjaa, miten kuinka jos kauniit on kukkaset maan ne kuolo kuitenkin korjaa,

Mut tummanpa Tuonelan laineilla

siell' lumpehet valkeat päilyy; ken siellä kohtaa kultansa, sen rakkaus iäti säilyy.

Varo, poikanen!

joki eessä lie.

Käy airoilleni jo virta vie!

Siellä kasvavi korkeat tammipuut, tuvat tummat on tammien alla, ei paistele siellä päivät, ei kuut, ei tähtöset taivahalla,

vaan iäti pirtissä pienessä vain siell' loistavi silmä armaan, ja keskellä leppien varjoavain ui Tuonelan joutsen harmaa,

Ylös, onneton!

Vesi kiihtyvi!

Kohta koski on!

Se surmasi!

Ja Tuonelan joutsen se joikuu näin:

"Yö, maailman äiti, sä hellä!

Moni poikasi pyrkivi päivähän päin, mut kellä on onnea, kellä?

On hullu ja houkka se lapsonen maan, joka suruja syömeensä sulkee."

Ja kauaksi orhit ne korskahtaa, kun kuoleman valtias kulkee.

Lakkasi laulu poikasen, Heräs' hän keskellä kuohujen; koski pauhasi, vaahto pärskyi, mela vapisi, venhe tärskyi, kastuvi poski poikasen — se on suudelma Vellamon neitosen.

Laulun lapsi.

Hyvä oli iso minulle, siskoset sitäi paremmat, paras armas äitimuori.

Mie itse hyväpä kelle?

Paha oli maailma minulle, pahempi impi ilkkuvainen, pahin paatunut poveni.

Mie itse pahapa kelle?

En ole hyvä, en paha, olen lapsi laulavainen, laulun lapsena pysynkin, kunis kuoppahan kuperrun. Kaikki' on kaunista minulle tämän ilman kannen alla: ilo, murhe, itku, nauru, luonto, maailma, lokakin, rauha suuren rakkauden, vihurit vihan ja lemmen; kaiketi' on kajastuksensa Luojan suuresta suvesta, ikuisesta auringosta tähtitarhojen takana.

Välirauha. Ma tiedän, tunnenhan tarkalleen, ett' tää on vain välirauhaa, vain hetkisen virtaa vierivää. Taas kohta jo kosket pauhaa.

Vain hetkeksi rauhan ma tehnyt oon sun kanssasi, sydän kulta.

Ole valmis, kun leijona valveutuu! taas silloin me iskemme tulta.

Ja tietköhön myös koko maailma sen, ett' tää on vain väliaikaa. Sun tänään ma rauhassa levätä suon. taas huomenna torvet raikaa!

Sähkö fantasia.

Voima mahtava, voima ankara, ken olet sa, oletko Jumala?

Tulen tunnen ma kyllä. Hän veljeni on. Tuli sieluni onhan sammumaton. Maan tunnen ma myös, meren välkkyvät veet, pihat taivahan, pilvien jyrkänteet, oman itsenikin osaks' tuntea voin — sa yksinkö outo ja verhottu noin?

Siis lienet sentään Jumala. Sun ukkosessa kuulen ma, nään revontulten räiskehessä, myös ihmisessä, eläimessä, kannella taivaan, kaikkialla, ilmassa, maassa, maankin alla.

Mun sielussainkin olet siis. Jumala, Lempo taikka Hiis, Sa hirmuinen, sua palvelen. Sa suloinen, sua rukoilen: "Suo voimasi minussa vallita, minut lataa liekeillä, laululla!"

Kuin? Kaksi virtaako tarvitaan? Ne minusta löydät ainiaan, yön virran yhden ja toisen pyhän, epätoivon ja uskon uuden yhä, ivan ilkeän, haavehet hartahimmat, ujot unelmat, herjaisat kiimat, kimmat, pelon pelkurimman, myös miehen mielen, meren kantelon, laaksojen, lampien kielen, kaikk' kaikki löydät. Ei sinulta ole vastavirtoja puuttuva.

Ja olenhan itse vain vastavirta. Käy halki henkeni elämän pirta, teen työtä, taistelen, pyrin, toimin, en tiedä, lienenkö kude, loimi. Ma kuulun jonnekin. Minne? mietin.

Sukkulan surinan pääni päällä kuulen enkä arvaa, päivän neitikö helskyttää hääkangasta kultakarvaa. Mut jos hän Paivatär päreä ois', niin tottahan aamu koittais', ja jos hän kultakangasta lois', niin ilosta ilmat soittais'!

En tiedä. Yön sylissä yksin seison. Ukon jyrinän kuulen, nään salamat, tunnen päässäni nousevan hiusten —

pelostako? kauhustako? Sanasta salaisen sähkön.

Voima mahtava, voima ankara, ken olet sa, oletko Jumala?

Jos olet myötäinen minulle, miksi et minulle taivu? Jos olet viholliseni, iske, että eessäs' vaivun! Virrat sieluni sulata yhdeksi! Asetu itse myötä tai vastahan! Valitse!

Maininkeja.

Tahtoi meri taideniekaks' tulla, lepäs' tyynnä, peilipintaisena, kajasteli kaikki ilman kaaret, rannan raidat, suvi-illan ihmeet; kysyi vanhemmalta veljeltänsä taivahalta: "Oonko taideniekka?"

Päätään pudistaen veikko virkkoi "Viel' ei riitä, viel' et taideniekka."

Muutti meren poika muotoansa, meni sydämensä syövereihin, nosti hyökyaallot hyrskymähän, pirstoi purret, mastot maalle heitti; kysyi vanhemmalta veljeltänsä: "Taitanen jo olla taideniekka?"

Päätään pudistaen veikko vastas': "Viel' ei riitä, viel' et taideniekka."

Lakkas' myrskylaulu meren rinnan, souti selkää pitkät, loivat laineet, kajastellen sinikantta taivaan, muistutellen meren

Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.