代码如下:
tokenizer = keras.preprocessing.text.Tokenizer(num_words=max_words)
由于版本升级,import keras的方式已经被弃用,取而代之的是import tensorflow.keras或者from tensorflow import keras
方法一:升级你的keras 方法二:把import keras更改为from tensorflow import keras