MUcho se habla acerca de los pies, sobre todo los femeninos, hasta hace poco tiempo no queria reconocer mu gusto por los pies, por considerarlos un tabú, pero gracias al internet me doy cuenta q mucha gente tiene esos gustitos, me gustaria saber que opinan las mujeres respecto a eso, les parece sexi?, les parece raro?, les gusta que les vean los pies?, les encantan los masajs en los pies?, o tal vez frotarlos con otros pies que opinan?