با سلام و احترام
توی این فایلی که قرار دادین به عنوان docker compose برای spark در این پوشه
\docker-spark-bde\multinode میخواستم بدونم. اینکه گفته میشه که spark روی hadoop نصب میتونه بشه به چه مفهوم هست. اگر این فایل yml رو نصب کنم روی داکر یعنی هم spark و هم hadoop رو دارم. چون داخل container برای spark-master رفتم توی مسیر اصلی فقط spark بود.
با تشکر