0
votes

Comment changer le niveau de journal dans Spark?

J'ai essayé toutes ces méthodes et rien ne fonctionne:

dans le fichier log4j - xxx

in code: xxx < P> Et oui également essayé en le mettant après que l'objet contextuel d'étincelle ailleurs avant. Jusqu'à présent semble fonctionner.
Qu'est-ce que je rate ? Ou existe-t-il une autre façon de définir les niveaux de journalisation?


0 commentaires

3 Réponses :


0
votes

Vous devriez être capable de le faire avec quelque chose comme ceci: xxx

https://spark.apache.org/docs/2.3.0/ap/java/org/apache /spark/sparkcontext.html#setloglevel-java.lang.string-

Pouvez-vous partager le reste du code et où vous l'exécutez?


0 commentaires

0
votes

Ceci devrait changer votre niveau de journal sur OFF si vous le déclarez avant Sparksession Création d'objets xxx


1 commentaires

Non, ça n'a pas fonctionné @shankar Koirala, je l'ai déjà essayé en mettant au-dessus de la session Spark



1
votes

Vous pouvez trouver ces journaux à partir du démarrage, ce qui signifie que nous devons définir le journal config via LOWBBACK au lieu de log4J.

<appender name="CONSOLE" class="ch.qos.logback.core.ConsoleAppender">
    <layout class="ch.qos.logback.classic.PatternLayout">
        <Pattern>
            %d{HH:mm:ss.SSS} [%t] %-5level %logger{36} - %msg%n
        </Pattern>
    </layout>
</appender>

<logger name="com.mkyong" level="debug" additivity="false">
    <appender-ref ref="CONSOLE"/>
</logger>

<root level="error">
    <appender-ref ref="CONSOLE"/>
</root>


0 commentaires