1650617880
Aprenda a realizar un algoritmo de regresión logística utilizando el marco de aprendizaje profundo de PyTorch en un conjunto de datos de ejemplo de abandono de clientes en Python.
La regresión logística es un modelo probabilístico que se utiliza para describir la probabilidad de resultados discretos dadas las variables de entrada. A pesar del nombre, la regresión logística es un modelo de clasificación, no un modelo de regresión. En pocas palabras, la regresión logística es similar a la regresión lineal excepto por la categorización.
Calcula la probabilidad del resultado utilizando la función sigmoidea. Debido a la transformación no lineal de la variable de entrada, la regresión logística no necesita correlaciones lineales entre las variables de entrada y salida.
Este tutorial se enfoca en desarrollar un modelo de regresión logística para pronosticar el desgaste de clientes en PyTorch.
Aunque el nombre del método incluye el término "regresión", es esencialmente una técnica de aprendizaje automático supervisado diseñada para manejar problemas de clasificación. Se debe al uso del algoritmo de la función logística, que varía de 0 a 1.
Como resultado, podemos usar la regresión logística para pronosticar la probabilidad de que una sola variable característica (X) pertenezca a una categoría específica (Y).
La regresión logística tiene muchas similitudes con la regresión lineal, aunque la regresión lineal se usa para predecir valores numéricos en lugar de problemas de clasificación. Ambas estrategias usan una línea para representar la variable objetivo.
La regresión lineal ajusta una línea a los datos para predecir una nueva cantidad, mientras que la regresión logística ajusta una línea para separar las dos clases de manera óptima.
Para comprender qué es la regresión logística y cómo funciona, primero debe comprender la función sigmoidea y la función logaritmo natural.
Esta imagen muestra la curva en forma de S de una variable para valores de x que van de 0 a 1:
Fuente: DepositPhotos
A lo largo de la mayor parte de su dominio, la función sigmoidea tiene valores extremadamente cercanos a 0 o 1. Debido a esto, es apropiada para su uso en problemas de clasificación binaria. Eche un vistazo al siguiente gráfico para ver cómo se representa el modelo de regresión logística:
Fuente: hacker de datos
Como puede ver, comenzaremos calculando la salida de una función lineal, z. La función sigmoidea tomará esta salida z como entrada. A continuación, para calcular z, generaremos la predicción ŷ, que determinará z. Si z es un número positivo significativo, entonces ŷ estará cerca de uno.
Por otro lado, si z tiene un número significativamente negativo, ŷ estará cerca de cero.
En consecuencia, ŷ siempre estará en el rango de 0 a 1. Usar un valor de umbral de 0,5 es una técnica sencilla para categorizar la predicción ŷ.
Si nuestro pronóstico es más extenso que 0.5, asumimos que ŷ es igual a 1.
En caso contrario, supondremos que ŷ es igual a cero. Cuando aplicamos la regresión logística, nuestro objetivo es intentar calcular los parámetros w y b para que ŷ se convierta en una estimación decente de la probabilidad de ŷ=1.
El conjunto de datos utilizado en este estudio proporciona información sobre la deserción de clientes en función de diversas variables. El conjunto de datos tiene 2000 filas y 15 características que pueden usarse para predecir la rotación. Se puede descargar aquí .
Relacionado: Predicción de abandono de clientes: una guía completa en Python .
Instalemos las dependencias de este tutorial:
$ pip install matplotlib numpy pandas scikit_learn==1.0.2 torch==1.10.1
Para descargar automáticamente el conjunto de datos, podemos usar gdown
:
$ pip install --upgrade gdown
$ gdown --id 12vfq3DYFId3bsXuNj_PhsACMzrLTfObs
Empecemos:
import pandas as pd
import numpy as np
import torch
import torch.nn as nn
from sklearn.utils import resample
from sklearn import preprocessing
from sklearn.preprocessing import StandardScaler
from sklearn.model_selection import train_test_split
from warnings import filterwarnings
filterwarnings('ignore')
Leamos los datos, suelte las columnas , , y miremos la forma de los year
datos customer_id
: phone_no
#reading data
data = pd.read_csv("data_regression.csv")
##The dimension of the data is seen, and the output column is checked to see whether it is continuous or discrete.
##In this case, the output is discrete, so a classification algorithm should be applied.
data = data.drop(["year", "customer_id", "phone_no"], axis=1)
print(data.shape) # Lookiing the shape of the data
print(data.columns) # Looking how many columns data has
data.dtypes
data.head()
Si tenemos valores nulos, debemos trabajar en eso antes de enviarlo a nuestro modelo:
data.isnull().sum()
gender 24
age 0
no_of_days_subscribed 0
multi_screen 0
mail_subscribed 0
weekly_mins_watched 0
minimum_daily_mins 0
maximum_daily_mins 0
weekly_max_night_mins 0
videos_watched 0
maximum_days_inactive 28
customer_support_calls 0
churn 35
dtype: int64
final_data = data.dropna() # Dropping the null values
Probemos los datos ya que nuestros datos están muy desequilibrados. Se han utilizado Upsampling y Downsampling para clases minoritarias y mayoritarias de la salida. Finalmente, los datos se concatenan para su posterior procesamiento:
final_data["churn"].value_counts()
# let us see how many data is there in each class for deciding the sampling data number
0.0 1665
1.0 253
Name: churn, dtype: int64
Primero, necesitamos dividir el marco de datos en clases separadas antes de muestrear:
data_majority = final_data[final_data['churn']==0] #class 0
data_minority = final_data[final_data['churn']==1] #class 1
#upsampling minority class
data_minority_upsampled = resample(data_minority, replace=True, n_samples=900, random_state=123)
#downsampling majority class
data_majority_downsampled = resample(data_majority, replace=False, n_samples=900, random_state=123)
#concanating both upsampled and downsampled class
## Data Concatenation: Concatenating the dataframe after upsampling and downsampling
#concanating both upsampled and downsampled class
data2 = pd.concat([data_majority_downsampled, data_minority_upsampled])
## Encoding Catagoricals: We need to encode the categorical variables before feeding it to the model
data2[['gender', 'multi_screen', 'mail_subscribed']]
#label encoding categorical variables
label_encoder = preprocessing.LabelEncoder()
data2['gender']= label_encoder.fit_transform(data2['gender'])
data2['multi_screen']= label_encoder.fit_transform(data2['multi_screen'])
data2['mail_subscribed']= label_encoder.fit_transform(data2['mail_subscribed'])
## Lets now check again the distribution of the oputut class after sampling
data2["churn"].value_counts()
0.0 900
1.0 900
Name: churn, dtype: int64
En el siguiente código, nos ocupamos del escalado, la división de los conjuntos de entrenamiento y prueba, y la separación de variables dependientes e independientes:
#indenpendent variable
X = data2.iloc[:,:-1]
## This X will be fed to the model to learn params
#scaling the data
sc = StandardScaler() # Bringing the mean to 0 and variance to 1, so as to have a non-noisy optimization
X = sc.fit_transform(X)
X = sc.transform(X)
## Keeping the output column in a separate dataframe
data2 = data2.sample(frac=1).reset_index(drop=True) ## Shuffle the data frame and reset index
n_samples, n_features = X.shape ## n_samples is the number of samples and n_features is the number of features
#output column
Y = data2["churn"]
#output column
Y = data2["churn"]
##Data Splitting:
## The data is processed, so now we can split the data into train and test to train the model with training data and test it later from testing data.
#splitting data into train and test
X_train, X_test, y_train, y_test = train_test_split(X, Y, test_size=0.30, random_state=42, stratify = Y)
print((y_train == 1).sum())
print((y_train == 0).sum())
630
630
Imprimimos el tipo de tren y conjunto de prueba:
print(type(X_train))
print(type(X_test))
print(type(y_train.values))
print(type(y_test.values))
<class 'numpy.ndarray'>
<class 'numpy.ndarray'>
<class 'numpy.ndarray'>
<class 'numpy.ndarray'>
Convirtiéndolos a tensores como funciona PyTorch, usaremos el torch.from_numpy()
método:
X_train = torch.from_numpy(X_train.astype(np.float32))
X_test = torch.from_numpy(X_test.astype(np.float32))
y_train = torch.from_numpy(y_train.values.astype(np.float32))
y_test = torch.from_numpy(y_test.values.astype(np.float32))
Al hacer que el vector de salida Y sea un vector de columna para multiplicaciones de matrices, realizamos este cambio usando la operación de vista como se muestra en el siguiente código:
y_train = y_train.view(y_train.shape[0], 1)
y_test = y_test.view(y_test.shape[0], 1)
Usamos funciones de activación para representar la interacción dinámica en datos lineales. Aquí, utilizamos una función de activación sigmoidea. Elegimos la función sigmoidea porque limitará el valor de 0 a 1. Las funciones de activación ayudan a introducir la no linealidad en la salida de una neurona, lo que mejora la precisión, la eficiencia informática y la velocidad de convergencia.
Las funciones de activación deben ser diferenciables y convergentes rápidamente con respecto a los pesos.
Desventajas sigmoideas:
Para citar de este documento : "La principal función de activación que se utilizó ampliamente es la función sigmoidea. Sin embargo, cuando se introdujo la Unidad lineal rectificadora (ReLU) (Nair & Hinton, 2010), pronto se convirtió en un mejor reemplazo para la función Sigmoid debido a su impacto positivo en las diferentes tareas de aprendizaje automático. Si bien usar Sigmoid y trabajar en capas menos profundas no presenta ningún problema, surgen algunos problemas cuando la arquitectura se vuelve más profunda porque los términos derivados que son menores que 1 se multiplicarán entre sí muchas veces y los valores se volverán más pequeños. y más pequeño hasta que el gradiente tiende a cero y por lo tanto desaparece. Por otro lado, si los valores son mayores que uno, sucede lo contrario, los números se multiplican y se hacen más y más grandes hasta que tienden al infinito y explotan el gradiente. Una buena solución sería mantener los valores en 1 para que, incluso cuando se multipliquen, no cambien. Esto es exactamente lo que hace ReLU: tiene gradiente 1 para entradas positivas y 0 para entradas negativas.
A continuación se muestra el código responsable de construir el modelo de regresión logística en PyTorch:
#logistic regression class
class LogisticRegression(nn.Module):
def __init__(self, n_input_features):
super(LogisticRegression, self).__init__()
self.linear = nn.Linear(n_input_features, 1)
#sigmoid transformation of the input
def forward(self, x):
y_pred = torch.sigmoid(self.linear(x))
return y_pred
Debe declarar las capas en su modelo en el __init__()
método. Hemos utilizado capas lineales, que se especifican mediante el torch.nn
módulo. La capa puede recibir cualquier nombre, como self.linear
(en nuestro caso). He declarado una capa lineal porque eso es regresión logística.
La sintaxis es: torch.nn.Linear(in_features, out_features, bias=True)
El forward()
método está a cargo de realizar el pase hacia adelante/propagación. La entrada se enruta a través de la capa previamente establecida, y la salida de esa capa se envía a través de la función de activación sigmoidea.
Inicializamos el modelo:
lr = LogisticRegression(n_features)
Definamos el número de épocas y la tasa de aprendizaje que queremos que nuestro modelo entrene. Como los datos son binarios, usaremos Binary Cross Entropy como la función de pérdida utilizada para optimizar el modelo usando un optimizador SGD.
También utilizaremos la función de pérdida (error) L para evaluar el rendimiento de nuestro algoritmo. Recuerde que la función de pérdida solo se aplica a una muestra de entrenamiento, y la función de pérdida más empleada generalmente es un error cuadrático. Sin embargo, la función de pérdida de error al cuadrado en la regresión logística no es la mejor opción. Produce un problema de optimización que no es convexo, y el enfoque de descenso de gradiente puede no converger de manera óptima. Aplicaremos la pérdida BCE para alcanzar el óptimo global.
La pérdida BCE significa pérdida de entropía cruzada binaria y se usa a menudo en instancias de clasificación binaria.
Vale la pena señalar que cuando se usa la función de pérdida BCE , la salida del nodo debe estar entre (0–1). Para esto, necesitaremos emplear un optimizador apropiado. Elegimos SGD, o Stochastic Gradient Descent, un optimizador de uso regular. Otros optimizadores incluyen a Adam, Lars y otros.
Debe proporcionar los parámetros del modelo y la tasa de aprendizaje como entrada para el optimizador. SGD elige un punto de datos al azar de todo el conjunto de datos en cada iteración para minimizar los cálculos drásticamente.
También es habitual muestrear una pequeña cantidad de puntos de datos en lugar de solo uno en cada paso (a menudo denominado descenso de gradiente de mini lotes). Los mini lotes intentan equilibrar la eficiencia del descenso de gradiente y la velocidad de SGD.
La tasa de aprendizaje es un hiperparámetro ajustable que se utiliza en el entrenamiento de redes neuronales con un poco de valor positivo, a menudo de 0,0 a 0,1. Las tasas de aprendizaje más bajas necesitan más épocas de entrenamiento debido a los cambios menores en los pesos con cada actualización, mientras que las tasas de aprendizaje más excelentes producen cambios rápidos y requieren menos épocas de entrenamiento.
Una tasa de aprendizaje alta puede hacer que el modelo converja demasiado rápido en una solución deficiente, mientras que una tasa de aprendizaje baja puede hacer que el proceso se detenga. Usando los programas de tasa de aprendizaje, puede cambiar la tasa de aprendizaje a medida que avanza el entrenamiento.
Ajusta la tasa de aprendizaje en función de un programa predefinido, como basado en el tiempo, basado en pasos o exponencial.
Podemos crear un cronograma de tasa de aprendizaje para actualizar la tasa de aprendizaje a lo largo del entrenamiento en función de una regla predefinida. El planificador de tasa de aprendizaje más común es un decaimiento de pasos, que reduce la tasa de aprendizaje en un cierto porcentaje después de un cierto número de épocas de entrenamiento. Finalmente, podemos decir que un cronograma de tasa de aprendizaje es una estructura predeterminada para ajustar la tasa de aprendizaje entre épocas o iteraciones a medida que ocurre el entrenamiento.
Las siguientes son dos de las estrategias más prevalentes para el aprendizaje de horarios de tasas:
Nota: La tasa de aprendizaje es un hiperparámetro que debe modificarse. En lugar de usar una tasa de aprendizaje constante, podríamos comenzar con un valor más alto de LR y luego disminuirlo gradualmente después de un número específico de rondas. Nos permite tener una convergencia más rápida al principio mientras se reducen los riesgos de sobrepasar la pérdida.
En PyTorch, podemos utilizar múltiples programadores del optim
paquete. Puede seguir este enlace para ver cómo puede ajustar la tasa de aprendizaje de una red neuronal usando PyTorch. Definamos los parámetros, la pérdida y el optimizador:
num_epochs = 500
# Traning the model for large number of epochs to see better results
learning_rate = 0.0001
criterion = nn.BCELoss()
# We are working on lgistic regression so using Binary Cross Entropy
optimizer = torch.optim.SGD(lr.parameters(), lr=learning_rate)
# Using ADAM optimizer to find local minima
Seguimiento del proceso de formación:
for epoch in range(num_epochs):
y_pred = lr(X_train)
loss = criterion(y_pred, y_train)
loss.backward()
optimizer.step()
optimizer.zero_grad()
if (epoch+1) % 20 == 0:
# printing loss values on every 10 epochs to keep track
print(f'epoch: {epoch+1}, loss = {loss.item():.4f}')
epoch: 20, loss = 0.8447
epoch: 40, loss = 0.8379
epoch: 60, loss = 0.8316
epoch: 80, loss = 0.8257
epoch: 100, loss = 0.8203
epoch: 120, loss = 0.8152
epoch: 140, loss = 0.8106
epoch: 160, loss = 0.8063
epoch: 180, loss = 0.8023
epoch: 200, loss = 0.7986
epoch: 220, loss = 0.7952
epoch: 240, loss = 0.7920
epoch: 260, loss = 0.7891
epoch: 280, loss = 0.7863
epoch: 300, loss = 0.7838
epoch: 320, loss = 0.7815
epoch: 340, loss = 0.7793
epoch: 360, loss = 0.7773
epoch: 380, loss = 0.7755
epoch: 400, loss = 0.7737
epoch: 420, loss = 0.7721
epoch: 440, loss = 0.7706
epoch: 460, loss = 0.7692
epoch: 480, loss = 0.7679
epoch: 500, loss = 0.7667
Aquí, ocurre el primer pase hacia adelante. A continuación, se calcula la pérdida. Cuando loss.backward()
se llama, calcula el gradiente de pérdida con respecto a los pesos (de la capa). Luego, los pesos se actualizan llamando a optimizer.step()
. Después de esto, los pesos deben vaciarse para la siguiente iteración. Entonces zero_grad()
se llama el método.
El código anterior imprime la pérdida en cada vigésima época.
Veamos finalmente la precisión del modelo:
with torch.no_grad():
y_predicted = lr(X_test)
y_predicted_cls = y_predicted.round()
acc = y_predicted_cls.eq(y_test).sum() / float(y_test.shape[0])
print(f'accuracy: {acc.item():.4f}')
accuracy: 0.5093
Tenemos que usar torch.no_grad()
aquí. El objetivo es omitir el cálculo del gradiente sobre los pesos. Por lo tanto, cualquier cosa que coloque dentro de este bucle no modificará los pesos y, por lo tanto, no interrumpirá el proceso de retropropagación.
También podemos ver la precisión, el recuerdo y la puntuación F1 utilizando el informe de clasificación:
#classification report
from sklearn.metrics import classification_report
print(classification_report(y_test, y_predicted_cls))
precision recall f1-score support
0.0 0.51 0.62 0.56 270
1.0 0.51 0.40 0.45 270
accuracy 0.51 540
macro avg 0.51 0.51 0.50 540
weighted avg 0.51 0.51 0.50 540
Visualizando la Matriz de Confusión:
#confusion matrix
from sklearn.metrics import confusion_matrix
confusion_matrix = confusion_matrix(y_test, y_predicted_cls)
print(confusion_matrix)
[[168 102]
[163 107]]
Tenga en cuenta que nuestro modelo no funciona bien en este conjunto de datos relativamente complejo. El objetivo de este tutorial es mostrarle cómo hacer una regresión logística en PyTorch. Si desea obtener una mayor precisión y otras métricas, considere ajustar los hiperparámetros de entrenamiento, como aumentar la cantidad de épocas y la tasa de aprendizaje o incluso agregar una capa más (es decir, una red neuronal).
Obtén el código completo en este cuaderno de Colab .
#python #pytorch
1626775355
No programming language is pretty much as diverse as Python. It enables building cutting edge applications effortlessly. Developers are as yet investigating the full capability of end-to-end Python development services in various areas.
By areas, we mean FinTech, HealthTech, InsureTech, Cybersecurity, and that's just the beginning. These are New Economy areas, and Python has the ability to serve every one of them. The vast majority of them require massive computational abilities. Python's code is dynamic and powerful - equipped for taking care of the heavy traffic and substantial algorithmic capacities.
Programming advancement is multidimensional today. Endeavor programming requires an intelligent application with AI and ML capacities. Shopper based applications require information examination to convey a superior client experience. Netflix, Trello, and Amazon are genuine instances of such applications. Python assists with building them effortlessly.
Python can do such numerous things that developers can't discover enough reasons to admire it. Python application development isn't restricted to web and enterprise applications. It is exceptionally adaptable and superb for a wide range of uses.
Robust frameworks
Python is known for its tools and frameworks. There's a structure for everything. Django is helpful for building web applications, venture applications, logical applications, and mathematical processing. Flask is another web improvement framework with no conditions.
Web2Py, CherryPy, and Falcon offer incredible capabilities to customize Python development services. A large portion of them are open-source frameworks that allow quick turn of events.
Simple to read and compose
Python has an improved sentence structure - one that is like the English language. New engineers for Python can undoubtedly understand where they stand in the development process. The simplicity of composing allows quick application building.
The motivation behind building Python, as said by its maker Guido Van Rossum, was to empower even beginner engineers to comprehend the programming language. The simple coding likewise permits developers to roll out speedy improvements without getting confused by pointless subtleties.
Utilized by the best
Alright - Python isn't simply one more programming language. It should have something, which is the reason the business giants use it. Furthermore, that too for different purposes. Developers at Google use Python to assemble framework organization systems, parallel information pusher, code audit, testing and QA, and substantially more. Netflix utilizes Python web development services for its recommendation algorithm and media player.
Massive community support
Python has a steadily developing community that offers enormous help. From amateurs to specialists, there's everybody. There are a lot of instructional exercises, documentation, and guides accessible for Python web development solutions.
Today, numerous universities start with Python, adding to the quantity of individuals in the community. Frequently, Python designers team up on various tasks and help each other with algorithmic, utilitarian, and application critical thinking.
Progressive applications
Python is the greatest supporter of data science, Machine Learning, and Artificial Intelligence at any enterprise software development company. Its utilization cases in cutting edge applications are the most compelling motivation for its prosperity. Python is the second most well known tool after R for data analytics.
The simplicity of getting sorted out, overseeing, and visualizing information through unique libraries makes it ideal for data based applications. TensorFlow for neural networks and OpenCV for computer vision are two of Python's most well known use cases for Machine learning applications.
Thinking about the advances in programming and innovation, Python is a YES for an assorted scope of utilizations. Game development, web application development services, GUI advancement, ML and AI improvement, Enterprise and customer applications - every one of them uses Python to its full potential.
The disadvantages of Python web improvement arrangements are regularly disregarded by developers and organizations because of the advantages it gives. They focus on quality over speed and performance over blunders. That is the reason it's a good idea to utilize Python for building the applications of the future.
#python development services #python development company #python app development #python development #python in web development #python software development
1602968400
Python is awesome, it’s one of the easiest languages with simple and intuitive syntax but wait, have you ever thought that there might ways to write your python code simpler?
In this tutorial, you’re going to learn a variety of Python tricks that you can use to write your Python code in a more readable and efficient way like a pro.
Swapping value in Python
Instead of creating a temporary variable to hold the value of the one while swapping, you can do this instead
>>> FirstName = "kalebu"
>>> LastName = "Jordan"
>>> FirstName, LastName = LastName, FirstName
>>> print(FirstName, LastName)
('Jordan', 'kalebu')
#python #python-programming #python3 #python-tutorials #learn-python #python-tips #python-skills #python-development
1602666000
Today you’re going to learn how to use Python programming in a way that can ultimately save a lot of space on your drive by removing all the duplicates.
In many situations you may find yourself having duplicates files on your disk and but when it comes to tracking and checking them manually it can tedious.
Heres a solution
Instead of tracking throughout your disk to see if there is a duplicate, you can automate the process using coding, by writing a program to recursively track through the disk and remove all the found duplicates and that’s what this article is about.
But How do we do it?
If we were to read the whole file and then compare it to the rest of the files recursively through the given directory it will take a very long time, then how do we do it?
The answer is hashing, with hashing can generate a given string of letters and numbers which act as the identity of a given file and if we find any other file with the same identity we gonna delete it.
There’s a variety of hashing algorithms out there such as
#python-programming #python-tutorials #learn-python #python-project #python3 #python #python-skills #python-tips
1597751700
Magic Methods are the special methods which gives us the ability to access built in syntactical features such as ‘<’, ‘>’, ‘==’, ‘+’ etc…
You must have worked with such methods without knowing them to be as magic methods. Magic methods can be identified with their names which start with __ and ends with __ like init, call, str etc. These methods are also called Dunder Methods, because of their name starting and ending with Double Underscore (Dunder).
Now there are a number of such special methods, which you might have come across too, in Python. We will just be taking an example of a few of them to understand how they work and how we can use them.
class AnyClass:
def __init__():
print("Init called on its own")
obj = AnyClass()
The first example is _init, _and as the name suggests, it is used for initializing objects. Init method is called on its own, ie. whenever an object is created for the class, the init method is called on its own.
The output of the above code will be given below. Note how we did not call the init method and it got invoked as we created an object for class AnyClass.
Init called on its own
Let’s move to some other example, add gives us the ability to access the built in syntax feature of the character +. Let’s see how,
class AnyClass:
def __init__(self, var):
self.some_var = var
def __add__(self, other_obj):
print("Calling the add method")
return self.some_var + other_obj.some_var
obj1 = AnyClass(5)
obj2 = AnyClass(6)
obj1 + obj2
#python3 #python #python-programming #python-web-development #python-tutorials #python-top-story #python-tips #learn-python
1593156510
At the end of 2019, Python is one of the fastest-growing programming languages. More than 10% of developers have opted for Python development.
In the programming world, Data types play an important role. Each Variable is stored in different data types and responsible for various functions. Python had two different objects, and They are mutable and immutable objects.
Table of Contents hide
III Built-in data types in Python
The Size and declared value and its sequence of the object can able to be modified called mutable objects.
Mutable Data Types are list, dict, set, byte array
The Size and declared value and its sequence of the object can able to be modified.
Immutable data types are int, float, complex, String, tuples, bytes, and frozen sets.
id() and type() is used to know the Identity and data type of the object
a**=25+**85j
type**(a)**
output**:<class’complex’>**
b**={1:10,2:“Pinky”****}**
id**(b)**
output**:**238989244168
a**=str(“Hello python world”)****#str**
b**=int(18)****#int**
c**=float(20482.5)****#float**
d**=complex(5+85j)****#complex**
e**=list((“python”,“fast”,“growing”,“in”,2018))****#list**
f**=tuple((“python”,“easy”,“learning”))****#tuple**
g**=range(10)****#range**
h**=dict(name=“Vidu”,age=36)****#dict**
i**=set((“python”,“fast”,“growing”,“in”,2018))****#set**
j**=frozenset((“python”,“fast”,“growing”,“in”,2018))****#frozenset**
k**=bool(18)****#bool**
l**=bytes(8)****#bytes**
m**=bytearray(8)****#bytearray**
n**=memoryview(bytes(18))****#memoryview**
Numbers are stored in numeric Types. when a number is assigned to a variable, Python creates Number objects.
#signed interger
age**=**18
print**(age)**
Output**:**18
Python supports 3 types of numeric data.
int (signed integers like 20, 2, 225, etc.)
float (float is used to store floating-point numbers like 9.8, 3.1444, 89.52, etc.)
complex (complex numbers like 8.94j, 4.0 + 7.3j, etc.)
A complex number contains an ordered pair, i.e., a + ib where a and b denote the real and imaginary parts respectively).
The string can be represented as the sequence of characters in the quotation marks. In python, to define strings we can use single, double, or triple quotes.
# String Handling
‘Hello Python’
#single (') Quoted String
“Hello Python”
# Double (") Quoted String
“”“Hello Python”“”
‘’‘Hello Python’‘’
# triple (‘’') (“”") Quoted String
In python, string handling is a straightforward task, and python provides various built-in functions and operators for representing strings.
The operator “+” is used to concatenate strings and “*” is used to repeat the string.
“Hello”+“python”
output**:****‘Hello python’**
"python "*****2
'Output : Python python ’
#python web development #data types in python #list of all python data types #python data types #python datatypes #python types #python variable type