Laden von Daten in den Azure Storage Account

  1. Erstelle ein Storage Account

  2. Kopieren den Storage Account Namen, Container Namen and SAS Token

  3. Erstelle ein Mount Point

dbutils.fs.mount(
 source = wasbs,
 mount_point = "/mnt/your_container4",
 extra_configs = { blob_name : sas}
)

Wenn der mount point schon existiert, schlägt der Code fehl

  1. Hochladen der Datei

import pickle
# save the model to disk
path = '/tmp/finalized_model.pickle'
pickle.dump(clf, open(path, 'wb'))
dbutils.fs.cp("file:" + path, "/mnt/your_container4/finalized_model.pickle")

Last updated