Stockage Cloud
Téléchargez des fichiers directement vers des fournisseurs de stockage cloud sans passer par votre serveur.
Amazon S3
Installation
npm install @samithahansaka/dropup
Utilisation de base
import { useDropup } from '@samithahansaka/dropup';
import { createS3Uploader } from '@samithahansaka/dropup/cloud/s3';
function S3Uploader() {
const { files, actions, getDropProps, getInputProps } = useDropup({
upload: createS3Uploader({
getPresignedUrl: async (file) => {
// Appelez votre backend pour obtenir une URL pré-signée
const response = await fetch('/api/s3/presign', {
method: 'POST',
headers: { 'Content-Type': 'application/json' },
body: JSON.stringify({
filename: file.name,
contentType: file.type,
}),
});
return response.json();
},
}),
onUploadComplete: (file) => {
console.log('Uploaded to S3:', file.uploadedUrl);
},
});
return (
<div {...getDropProps()}>
<input {...getInputProps()} />
<p>Drop files to upload to S3</p>
</div>
);
}
Backend : Générer une URL pré-signée
// Exemple Node.js / Express
import { S3Client, PutObjectCommand } from '@aws-sdk/client-s3';
import { getSignedUrl } from '@aws-sdk/s3-request-presigner';
const s3 = new S3Client({
region: process.env.AWS_REGION,
credentials: {
accessKeyId: process.env.AWS_ACCESS_KEY_ID,
secretAccessKey: process.env.AWS_SECRET_ACCESS_KEY,
},
});
app.post('/api/s3/presign', async (req, res) => {
const { filename, contentType } = req.body;
const key = `uploads/${Date.now()}-${filename}`;
const command = new PutObjectCommand({
Bucket: process.env.S3_BUCKET,
Key: key,
ContentType: contentType,
});
const url = await getSignedUrl(s3, command, { expiresIn: 3600 });
res.json({
url,
fields: {}, // Pour un PUT simple, aucun champ supplémentaire n'est nécessaire
});
});
S3 avec POST (formulaire multipart)
Pour les politiques POST S3 :
createS3Uploader({
getPresignedUrl: async (file) => {
const response = await fetch('/api/s3/presign-post', {
method: 'POST',
headers: { 'Content-Type': 'application/json' },
body: JSON.stringify({
filename: file.name,
contentType: file.type,
}),
});
const { url, fields } = await response.json();
return {
url, // URL du bucket S3
fields, // Champs de politique à inclure dans le formulaire
};
},
});
Google Cloud Storage
import { createGCSUploader } from '@samithahansaka/dropup/cloud/gcs';
function GCSUploader() {
const { files, getDropProps, getInputProps } = useDropup({
upload: createGCSUploader({
getSignedUrl: async (file) => {
const response = await fetch('/api/gcs/sign', {
method: 'POST',
headers: { 'Content-Type': 'application/json' },
body: JSON.stringify({
filename: file.name,
contentType: file.type,
}),
});
return response.json();
},
}),
});
return (
<div {...getDropProps()}>
<input {...getInputProps()} />
<p>Upload to Google Cloud Storage</p>
</div>
);
}
Backend : URL signée GCS
// Exemple Node.js
import { Storage } from '@google-cloud/storage';
const storage = new Storage();
const bucket = storage.bucket(process.env.GCS_BUCKET);
app.post('/api/gcs/sign', async (req, res) => {
const { filename, contentType } = req.body;
const blob = bucket.file(`uploads/${Date.now()}-${filename}`);
const [url] = await blob.getSignedUrl({
version: 'v4',
action: 'write',
expires: Date.now() + 15 * 60 * 1000, // 15 minutes
contentType,
});
res.json({ url });
});
Azure Blob Storage
import { createAzureUploader } from '@samithahansaka/dropup/cloud/azure';
function AzureUploader() {
const { files, getDropProps, getInputProps } = useDropup({
upload: createAzureUploader({
getSasUrl: async (file) => {
const response = await fetch('/api/azure/sas', {
method: 'POST',
headers: { 'Content-Type': 'application/json' },
body: JSON.stringify({
filename: file.name,
contentType: file.type,
}),
});
return response.json();
},
}),
});
return (
<div {...getDropProps()}>
<input {...getInputProps()} />
<p>Upload to Azure Blob Storage</p>
</div>
);
}
Backend : URL SAS Azure
// Exemple Node.js
import {
BlobServiceClient,
generateBlobSASQueryParameters,
BlobSASPermissions,
} from '@azure/storage-blob';
const blobServiceClient = BlobServiceClient.fromConnectionString(
process.env.AZURE_STORAGE_CONNECTION_STRING
);
app.post('/api/azure/sas', async (req, res) => {
const { filename, contentType } = req.body;
const containerClient = blobServiceClient.getContainerClient('uploads');
const blobName = `${Date.now()}-${filename}`;
const blobClient = containerClient.getBlockBlobClient(blobName);
const sasToken = generateBlobSASQueryParameters(
{
containerName: 'uploads',
blobName,
permissions: BlobSASPermissions.parse('cw'), // Créer, Écrire
expiresOn: new Date(Date.now() + 15 * 60 * 1000),
},
blobServiceClient.credential
).toString();
res.json({
url: `${blobClient.url}?${sasToken}`,
headers: {
'x-ms-blob-type': 'BlockBlob',
'Content-Type': contentType,
},
});
});
Cloudflare R2
R2 est compatible S3, donc utilisez l'uploader S3 :
import { createS3Uploader } from '@samithahansaka/dropup/cloud/s3';
function R2Uploader() {
const { files, getDropProps, getInputProps } = useDropup({
upload: createS3Uploader({
getPresignedUrl: async (file) => {
const response = await fetch('/api/r2/presign', {
method: 'POST',
body: JSON.stringify({ filename: file.name }),
});
return response.json();
},
}),
});
return (
<div {...getDropProps()}>
<input {...getInputProps()} />
<p>Upload to Cloudflare R2</p>
</div>
);
}
Backend : URL pré-signée R2
import { S3Client, PutObjectCommand } from '@aws-sdk/client-s3';
import { getSignedUrl } from '@aws-sdk/s3-request-presigner';
const s3 = new S3Client({
region: 'auto',
endpoint: `https://${process.env.CF_ACCOUNT_ID}.r2.cloudflarestorage.com`,
credentials: {
accessKeyId: process.env.R2_ACCESS_KEY_ID,
secretAccessKey: process.env.R2_SECRET_ACCESS_KEY,
},
});
app.post('/api/r2/presign', async (req, res) => {
const { filename } = req.body;
const command = new PutObjectCommand({
Bucket: process.env.R2_BUCKET,
Key: `uploads/${Date.now()}-${filename}`,
});
const url = await getSignedUrl(s3, command, { expiresIn: 3600 });
res.json({ url });
});
DigitalOcean Spaces
Également compatible S3 :
// Identique à S3, mettez simplement à jour la configuration du point de terminaison de votre backend
const s3 = new S3Client({
region: 'nyc3',
endpoint: 'https://nyc3.digitaloceanspaces.com',
credentials: {
accessKeyId: process.env.DO_SPACES_KEY,
secretAccessKey: process.env.DO_SPACES_SECRET,
},
});
Fournisseur cloud personnalisé
Créez votre propre uploader pour n'importe quel service cloud :
import { useDropup, type CustomUploader } from '@samithahansaka/dropup';
const customCloudUploader: CustomUploader = async (file, options) => {
// 1. Obtenez l'URL de téléchargement depuis votre backend
const { uploadUrl, fileUrl } = await fetch('/api/custom-cloud/init', {
method: 'POST',
body: JSON.stringify({ filename: file.name, size: file.size }),
}).then(r => r.json());
// 2. Téléchargez le fichier
const xhr = new XMLHttpRequest();
return new Promise((resolve, reject) => {
xhr.upload.onprogress = (e) => {
if (e.lengthComputable) {
options.onProgress((e.loaded / e.total) * 100);
}
};
xhr.onload = () => {
if (xhr.status >= 200 && xhr.status < 300) {
resolve({ url: fileUrl });
} else {
reject(new Error('Upload failed'));
}
};
xhr.onerror = () => reject(new Error('Network error'));
// Gérer l'annulation
options.signal.addEventListener('abort', () => xhr.abort());
xhr.open('PUT', uploadUrl);
xhr.send(file.file);
});
};
function CustomCloudUploader() {
const { files, getDropProps, getInputProps } = useDropup({
upload: customCloudUploader,
});
return (
<div {...getDropProps()}>
<input {...getInputProps()} />
<p>Upload to custom cloud</p>
</div>
);
}
Bonnes pratiques de sécurité
- N'exposez jamais les informations d'identification côté client - Générez toujours les URL signées sur votre backend
- Utilisez des délais d'expiration courts - 5 à 15 minutes sont généralement suffisantes
- Validez les types de fichiers sur le backend - Ne vous fiez pas uniquement à la validation côté client
- Définissez des politiques CORS appropriées sur votre stockage cloud
- Limitez les tailles de fichiers dans vos politiques d'URL pré-signées
- Utilisez des buckets séparés pour les téléchargements utilisateurs et les ressources d'application