Le Reiki : définition

10 Mar
Le Reiki : définition   Le Reiki est une méthode de guérison et d’autoguérison qui agit par l’apposition des mains par un donneur sur un receveur. Le mot Reiki signifie « force vitale universelle », il peut avoir une base spirituelle, mais il...
Read more »