Я использую spark-CSV для загрузки данных в DataFrame. Я хочу сделать простой запрос и отобразить содержимое:
val df = sqlContext.read.format("com.databricks.spark.csv").option("header", "true").load("my.csv")
df.registerTempTable("tasks")
results = sqlContext.sql("select col from tasks");
results.show()
Col кажется усеченным:
scala> results.show();
+--------------------+
| col|
+--------------------+
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:15:...|
|2015-11-06 07:15:...|
|2015-11-16 07:15:...|
|2015-11-16 07:21:...|
|2015-11-16 07:21:...|
|2015-11-16 07:21:...|
+--------------------+
Как мне показать полное содержание колонки?
apache-spark
dataframe
spark-csv
output-formatting
изотопный индикатор
источник
источник
dataFrame.writeStream.outputMode("append").format("console").option("truncate", "false").start()
Если поставить
results.show(false)
, результаты не будут усеченыисточник
false
здесь также применим.results.show(20, False)
. Тот, который вы упомянули, выдаст ошибку.scala
обоих вариантах действительны.results.show(false)
иresults.show(20, false)
Другие решения хороши. Если это ваши цели:
Эти две строки полезны ...
Сохраняя, 2 действия исполнителя, подсчитывать и показывать, становятся более быстрыми и более эффективными при использовании
persist
илиcache
поддержке временной структуры данных в рамках исполнителей. Смотрите больше о сохранении и кеше .источник
Код ниже поможет просмотреть все строки без усечения в каждом столбце.
источник
df
сбор дважды?results.show(20, False)
или вresults.show(20, false)
зависимости от того, работаете ли вы на Java / Scala / Pythonисточник
results.show(false)
покажет вам полный контент столбца.По умолчанию метод показывает ограничение до 20, а добавление числа перед
false
отображает больше строк.источник
попробуйте эту команду:
источник
df
сбор дважды?results.show(20,false)
сделал трюк для меня в Скала.источник
Внутри Databricks вы можете визуализировать фрейм данных в табличном формате. С помощью команды:
Это будет выглядеть
источник
Я использую плагин, расширение Chrome работает довольно хорошо:
[ https://userstyles.org/styles/157357/jupyter-notebook-wide][1]
источник
Попробуйте это в Scala:
Метод show принимает целое и логическое значение, но df.count возвращает Long ..., поэтому требуется приведение типа
источник
В c #
Option("truncate", false)
не обрезает данные в выводе.источник
Следующий ответ относится к приложению Spark Streaming.
Установив для параметра «усечение» значение «ложь», вы можете указать выходному приемнику отображать полный столбец.
источник